Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Warum und wo sich Daten anziehen Was ist Data Gravity?

Redakteur: Ulrike Ostler

Der Begriff Data Gravity (Datengravitation oder Datenschwerkraft) bringt das Phänomen der Affinität von neu erfassten Daten zu bereits vorhandenen Bestandsdaten zum Ausdruck. Er beschreibt die Anziehungskraft großer Datenbestände, an die sich neue Daten sowie begleitende Dienste und Anwendungen anhängen.

Der „Data Gravity Index Score“ misst die Intensität der Anziehungskraft des Wachstums von Unternehmensdaten für Global-2000-Unternehmen in 53 Großstädten und 23 Branchen weltweit in Gigabytes pro Sekunde. In der Abbildung: Eine Visualisierung des „Data Gravity Index“ vom Dezember 2020 für die drei Wirtschaftsregionen AMERICAS, EMEA und APAC.
Der „Data Gravity Index Score“ misst die Intensität der Anziehungskraft des Wachstums von Unternehmensdaten für Global-2000-Unternehmen in 53 Großstädten und 23 Branchen weltweit in Gigabytes pro Sekunde. In der Abbildung: Eine Visualisierung des „Data Gravity Index“ vom Dezember 2020 für die drei Wirtschaftsregionen AMERICAS, EMEA und APAC.
(Bild: Digital Realty)

Mit zunehmender Menge an Daten und wachsender Bandbreite der Konnektivität wächst die Schwerkraft von Bestandsdaten. Neue Dienste und Anwendungen werden zu den Bestandsdaten hinzugezogen und nicht umgekehrt. Mit der Problematik der Datengravitation sehen sich Unternehmen unter anderem dann konfrontiert, wenn sie ihre Datenbestände von ihrem Bestandsrechenzentrum in ein anderes bewegen wollen.

Die Datenschwerkraft verstärkt das Abhängigkeitsverhältnis des Nutzers von seinem Technologieanbieter und/oder Dienstleister. Anbieter von Storage-Diensten und anderen Technologielösungen machen sich die Datenschwerkraft in den Beziehungen mit ihren Kunden und in ihrer Preispolitik zunutze. Zur Maximierung der Datenschwerkraft ist der Ingress-Datenverkehr in der Regel kostenfrei und nur der Egress-Datenverkehr kostenpflichtig.

Dave McCrory, VP Growth, Head of Insights & Analytics bei Digital Realty
Dave McCrory, VP Growth, Head of Insights & Analytics bei Digital Realty
(Bild: Digital Realty)

Datenschwerkraft quantifizieren: Data Gravity Index DGx von Digital Realty

Die Entdeckung des Phänomens der Datenschwerkraft wird Dave McCrory in seiner Rolle als Cloud Architect bei Dell DCS (Data Center Solutions) zugeschrieben.

Nach dem Wechsel zur Immobilien-Investmentfondsgesellschaft Digital Realty, dem weltweit größten Anbieter von mandantenfähigen Rechenzentrumskapazitäten, hat McCrory die Entwicklung einer Methodologie zur Bewertung der Datenschwerkraft in seiner Rolle als VP Growth und Global Head of Insights & Analytics maßgeblich mitgestaltet. Aus dieser mehrjährigen Initiative ging der Data Gravity Index DGx hervor.

Data Gravity Index DGx ist ein Maß für die Datenschwerkraft, ausgedrückt in Gigabyte pro Sekunde. Der Wert gibt Aufschluss darüber, wie schnell Daten in den kommenden fünf Jahren wachsen und verbraucht werden, und quantifiziert die zu erwartenden Auswirkungen dieser Trends auf Unternehmen aus der Forbes Global 2000-Liste (G2000).

Die Methodik basiert auf der Analyse von Tausenden von Attributen der Standorte von Fortune Global 2000-Unternehmen in Großmetropolen im Zusammenhang mit Variablen wie BIP, Bevölkerung, Anzahl der Mitarbeiter, technografischen Daten, IT-Ausgaben, der durchschnittliche Bandbreite und Latenz sowie den tatsächlichen Datenströmen.

Die Berechnungsformel für den „Data Gravity Index DGx“ von Digital Realty
Die Berechnungsformel für den „Data Gravity Index DGx“ von Digital Realty
(Bild: Digital Realty)

Die Berechnung von DGx setzt auf eine zum Patent angemeldete Formel, welche die Datenmasse, Datenaktivität, Bandbreite und Latenz berücksichtigt. Diese Formel quantifiziert die kontinuierliche Entstehung von Daten in den 53 Metros und 23 Industrien weltweit und sagt die Schwerkraft dieser Daten vorher.

Digital Realty berechnet den so genannten Data Gravity Score anhand der folgenden Formel:

Datenschwerkraft = (Datenmasse x Datenaktivität x Bandbreite) / Latenz ^ 2

Die Datenmasse versteht sich in diesem Modell als die Gesamtmenge an Bestandsdaten. Die Variable der Datenaktivität beschreibt den Umfang der Datenbewegungen und umfasst sowohl die Erstellung als auch den Transport. Die Bandbreite bezeichnet die gesamte aggregierte Bandbreite des betreffenden Standorts. Die Latenz ist die durchschnittliche Zugriffslatenz zwischen dem betreffenden Standort und allen anderen Standorten.

Die Bandbreite ist ein Multiplikator für die Datenschwere. Eine höhere Bandbreite bedeutet mehr Potenzial und steigert den Wert des Index. Latenz ist ein Hemmschuh. Eine höhere Latenz steht für weniger Potenzial.

Der Wert gibt Aufschluss über die Dynamik der Datenerstellung, -aggregation und -verarbeitung. Er berücksichtigt mehrere Attribute von G2000-Unternehmen, darunter:

  • „firmografische“ Daten: Branchensegment, Mitarbeiterzahl, Umsatz, Standort und Unternehmenseinheit;
  • „technografische“ Daten: IT-Ausgaben, bevorzugte Anbieter, Verteilung des Netzwerkverkehrs sowie die Anwesenheitspunkte (Engl. Point-of-Presence) von Netzwerkinfrastrukturen, Rechenzentren und Clouds;
  • Branchen-Benchmarks: Datenerstellungs-/Übertragungsraten, Latenz nach Zugriffsmethode, Benutzertyp, Standort, Anwendungstyp, Wachstumsraten, Cloud-Nutzung, Netzwerkdienste, verteilte Dienste, Datentechnologien, Endpunkte, Benutzergeräte und Anwendungsfälle.

Der Index soll Organisationen helfen, die Auswirkungen der Erstellung, der Aggregation und des privaten Austauschs von Unternehmensdaten in Abhängigkeit von ihrem Standort zu verstehen.

Globale Wachstumsprognose für den „Data Gravity Index v1.5“ von Digital Realty, Stand vom Dezember 2020
Globale Wachstumsprognose für den „Data Gravity Index v1.5“ von Digital Realty, Stand vom Dezember 2020
(Bild: Digital Realty)

Gegenwirkung zur Datenschwerkraft

Um den Effekt der Datenschwerkraft abzumildern, können Unternehmen mehrere Gegenmaßnahmen ergreifen. Ein Ansatz besteht darin, den Zeitaufwand eines Transfers sämtlicher Bestandsdaten an einen neuen Speicherort zu senken. Lösungen zur schnellen Datenübertragung sollen Abhilfe schaffen:

  • Das proprietäre „FASPex“-Protokoll von Aspera zum Beispiel, eines Unternehmens der IBM-Gruppe, kombiniert das TCP- und UDP-Protokoll, um unter anderem. Live-Streaming mit hoher Geschwindigkeit zu ermöglichen.
  • Das „Multipurpose Transaction Protocol“ (MTP) von Data Expedition, Inc. bietet eine intelligente Flusskontrolle mit automatischer Fehlerbehebung für eine hochperformante Datenübertragung über UDP.
  • Eine weitere Lösung stellt die UDP-gestützte Software „Filecatalyst“ des gleichnamigen kanadischen Anbieters dar.

Signiant möchte mit seiner SaaS-Plattform „SDCX“ seinen Kunden schnellen Zugang zu den massiven Datenbeständen der Medien- und Unterhaltungsbranche bereitstellen.

Unternehmen, die eine Multicloud-Strategie implementieren, verringern ihre Abhängigkeit von einem einzelnen Infrastrukturdienstleister und können das Problem der Datenschwerkraft entschärfen.

(ID:47295486)