Warum und wo sich Daten anziehen Was ist Data Gravity?
Der Begriff Data Gravity (Datengravitation oder Datenschwerkraft) bringt das Phänomen der Affinität von neu erfassten Daten zu bereits vorhandenen Bestandsdaten zum Ausdruck. Er beschreibt die Anziehungskraft großer Datenbestände, an die sich neue Daten sowie begleitende Dienste und Anwendungen anhängen.
Anbieter zum Thema

Mit zunehmender Menge an Daten und wachsender Bandbreite der Konnektivität wächst die Schwerkraft von Bestandsdaten. Neue Dienste und Anwendungen werden zu den Bestandsdaten hinzugezogen und nicht umgekehrt. Mit der Problematik der Datengravitation sehen sich Unternehmen unter anderem dann konfrontiert, wenn sie ihre Datenbestände von ihrem Bestandsrechenzentrum in ein anderes bewegen wollen.
:quality(80)/images.vogel.de/vogelonline/bdb/1778600/1778627/original.jpg)
Datensammlung und das Schwarze Loch
Data Gravity stößt an seine Grenzen
Die Datenschwerkraft verstärkt das Abhängigkeitsverhältnis des Nutzers von seinem Technologieanbieter und/oder Dienstleister. Anbieter von Storage-Diensten und anderen Technologielösungen machen sich die Datenschwerkraft in den Beziehungen mit ihren Kunden und in ihrer Preispolitik zunutze. Zur Maximierung der Datenschwerkraft ist der Ingress-Datenverkehr in der Regel kostenfrei und nur der Egress-Datenverkehr kostenpflichtig.
Datenschwerkraft quantifizieren: Data Gravity Index DGx von Digital Realty
Die Entdeckung des Phänomens der Datenschwerkraft wird Dave McCrory in seiner Rolle als Cloud Architect bei Dell DCS (Data Center Solutions) zugeschrieben.
Nach dem Wechsel zur Immobilien-Investmentfondsgesellschaft Digital Realty, dem weltweit größten Anbieter von mandantenfähigen Rechenzentrumskapazitäten, hat McCrory die Entwicklung einer Methodologie zur Bewertung der Datenschwerkraft in seiner Rolle als VP Growth und Global Head of Insights & Analytics maßgeblich mitgestaltet. Aus dieser mehrjährigen Initiative ging der Data Gravity Index DGx hervor.
Data Gravity Index DGx ist ein Maß für die Datenschwerkraft, ausgedrückt in Gigabyte pro Sekunde. Der Wert gibt Aufschluss darüber, wie schnell Daten in den kommenden fünf Jahren wachsen und verbraucht werden, und quantifiziert die zu erwartenden Auswirkungen dieser Trends auf Unternehmen aus der Forbes Global 2000-Liste (G2000).
:quality(80)/images.vogel.de/vogelonline/bdb/1760400/1760437/original.jpg)
Der Data Gravity Index DGx von Digital Realty
Data Gravity führt zur lokalen Konzentration von Datacenter und deren Wachstum
Die Methodik basiert auf der Analyse von Tausenden von Attributen der Standorte von Fortune Global 2000-Unternehmen in Großmetropolen im Zusammenhang mit Variablen wie BIP, Bevölkerung, Anzahl der Mitarbeiter, technografischen Daten, IT-Ausgaben, der durchschnittliche Bandbreite und Latenz sowie den tatsächlichen Datenströmen.
Die Berechnung von DGx setzt auf eine zum Patent angemeldete Formel, welche die Datenmasse, Datenaktivität, Bandbreite und Latenz berücksichtigt. Diese Formel quantifiziert die kontinuierliche Entstehung von Daten in den 53 Metros und 23 Industrien weltweit und sagt die Schwerkraft dieser Daten vorher.
Digital Realty berechnet den so genannten Data Gravity Score anhand der folgenden Formel:
Datenschwerkraft = (Datenmasse x Datenaktivität x Bandbreite) / Latenz ^ 2
Die Datenmasse versteht sich in diesem Modell als die Gesamtmenge an Bestandsdaten. Die Variable der Datenaktivität beschreibt den Umfang der Datenbewegungen und umfasst sowohl die Erstellung als auch den Transport. Die Bandbreite bezeichnet die gesamte aggregierte Bandbreite des betreffenden Standorts. Die Latenz ist die durchschnittliche Zugriffslatenz zwischen dem betreffenden Standort und allen anderen Standorten.
Die Bandbreite ist ein Multiplikator für die Datenschwere. Eine höhere Bandbreite bedeutet mehr Potenzial und steigert den Wert des Index. Latenz ist ein Hemmschuh. Eine höhere Latenz steht für weniger Potenzial.
Der Wert gibt Aufschluss über die Dynamik der Datenerstellung, -aggregation und -verarbeitung. Er berücksichtigt mehrere Attribute von G2000-Unternehmen, darunter:
- „firmografische“ Daten: Branchensegment, Mitarbeiterzahl, Umsatz, Standort und Unternehmenseinheit;
- „technografische“ Daten: IT-Ausgaben, bevorzugte Anbieter, Verteilung des Netzwerkverkehrs sowie die Anwesenheitspunkte (Engl. Point-of-Presence) von Netzwerkinfrastrukturen, Rechenzentren und Clouds;
- Branchen-Benchmarks: Datenerstellungs-/Übertragungsraten, Latenz nach Zugriffsmethode, Benutzertyp, Standort, Anwendungstyp, Wachstumsraten, Cloud-Nutzung, Netzwerkdienste, verteilte Dienste, Datentechnologien, Endpunkte, Benutzergeräte und Anwendungsfälle.
Der Index soll Organisationen helfen, die Auswirkungen der Erstellung, der Aggregation und des privaten Austauschs von Unternehmensdaten in Abhängigkeit von ihrem Standort zu verstehen.
Gegenwirkung zur Datenschwerkraft
Um den Effekt der Datenschwerkraft abzumildern, können Unternehmen mehrere Gegenmaßnahmen ergreifen. Ein Ansatz besteht darin, den Zeitaufwand eines Transfers sämtlicher Bestandsdaten an einen neuen Speicherort zu senken. Lösungen zur schnellen Datenübertragung sollen Abhilfe schaffen:
- Das proprietäre „FASPex“-Protokoll von Aspera zum Beispiel, eines Unternehmens der IBM-Gruppe, kombiniert das TCP- und UDP-Protokoll, um unter anderem. Live-Streaming mit hoher Geschwindigkeit zu ermöglichen.
- Das „Multipurpose Transaction Protocol“ (MTP) von Data Expedition, Inc. bietet eine intelligente Flusskontrolle mit automatischer Fehlerbehebung für eine hochperformante Datenübertragung über UDP.
- Eine weitere Lösung stellt die UDP-gestützte Software „Filecatalyst“ des gleichnamigen kanadischen Anbieters dar.
Signiant möchte mit seiner SaaS-Plattform „SDCX“ seinen Kunden schnellen Zugang zu den massiven Datenbeständen der Medien- und Unterhaltungsbranche bereitstellen.
Unternehmen, die eine Multicloud-Strategie implementieren, verringern ihre Abhängigkeit von einem einzelnen Infrastrukturdienstleister und können das Problem der Datenschwerkraft entschärfen.
(ID:47295486)