Blitzschnell wie bei Netflix

DataOps und virtuelle Kopien beflügeln die Datenbereitstellung

| Autor / Redakteur: Sanjeev Sharma* / Ulrike Ostler

Statt echter Kopien gibt es virtuelle und statt verschiedener Dataenbankversionen gibt es eine DataOps-Platform, die der Datenbereitstellung Flügel verleiht.
Statt echter Kopien gibt es virtuelle und statt verschiedener Dataenbankversionen gibt es eine DataOps-Platform, die der Datenbereitstellung Flügel verleiht. (Bild: gemeinfrei: Free-Photos auf Pixabay)

Unternehmen müssen heute datengestützt entscheiden, wollen sie sich im Wettbewerb behaupten. Dafür müssen sie die Daten, die sich heute über viele Technologien und Speichervarianten verteilen, in hoher Qualität und zügig bereitstellen. Für dieses Ziel drängt sich methodisch die Datenvirtualisierung auf, die sich mit einer DataOps-Plattform automatisiert, sicher und compliant realisieren lässt.

Das schnelle Bereitstellen qualitativ hochwertiger Daten schafft die Voraussetzung für eine agile Software-Entwicklung. Diese wiederum brauchen Unternehmen, um schnell am Markt zu sein und auf neue Anforderungen zu reagieren. Wer das nicht erfüllt, läuft Gefahr, von der Konkurrenz verdrängt zu werden.

Wie schnell das gehen kann, hat Ray Wang, Principal Analyst und Chairman von Constellation Research, in seinem Bestseller „Disrupting digital business: Create an authentic experience in the Peer-to-Peer Economy“ aufgezeigt: 52 Prozent der umsatzstärksten Fortune 500-Unternehmen aus dem Jahr 2000 gibt es heute bereits nicht mehr. Sie sind übernommen worden, insolvent gegangen oder haben so viele Umsatzeinbußen einstecken müssen, dass sie aus dem Ranking fielen. Den ehemaligen Schwergewichten gelang es nicht, sich zum datengetriebenen Unternehmen wie die digitalen Vorzeigebeispiele Netflix, Amazon & Co. zu entwickeln.

Der Ausgangsstoff für den Wandel liegt jedoch überall vor. Kunden-, Transaktions- oder Sensordaten zirkulieren durch die Systeme oder liegen dort ab. Allerdings scheiden sich die Geister in der Nutzung der Daten. Die größte Herausforderung auf dem Weg zum datengetriebenen Unternehmen besteht im Daten-Management, hat der Studie von 451 Research „FYI: You’re a Data Company, and Chances are You’re Failing“ermittelt.

In der Verwaltung bauen sich für die Unternehmen vor allem die Hürden Security (86 Prozent), Datenqualität (60 Prozent) und Governance von verteilten Daten (51 Prozent) auf. An vierter Stelle identifizieren die Studienautoren die Datenbereitstellung (41 Prozent), die für Kopfzerbrechen bei den Unternehmen sorgt.

Was dem bedarfsgerechten Datenzugriff im Wege steht

In der Regel sind Daten heute im Unternehmen auf viele verschiedene Technologien verteilt. Manche liegen noch in alten Legacy-Systemen, andere stammen aus modernen Cloud Services. Auch externe Datenquellen sind weit verbreitet. Unternehmen müssen die Daten aus den unterschiedlichen Quellen und Systemen zusammenbringen, um sie Entwicklern, Data Scientists und Anwendern schnell zur Verfügung zu stellen – und zwar genau dort, wo diese die Daten brauchen.

Erschwert wird das dadurch, dass sowohl die Zahl der Datenbank-Typen steigt als auch der Orte, an denen Daten benötigt werden. IT-Verantwortliche haben es daher mit einer Vielzahl an Datenplattformen zu tun.

Durch Akquisitionen, bei denen sie völlig neue Plattformen einführen, werden die Daten über heterogene Sätze von Datenspeichern verteilt. Von denen sind viele nicht miteinander kompatibel.

Der Veränderungsprozess

In der Folge kommt ein und dieselbe Datenbank in mehreren Versionen in verschiedenen Teilen des Unternehmens zum Einsatz. Mit variierenden Datenbeständen zu arbeiten geht mit dem Risiko einher, falsche Entscheidungen aus den Informationen abzuleiten.

Neben dieser Technologievielfalt erschwert auch die bisherige gelebte Organisation, den verschiedenen Nutzergruppen, Daten dann, also in Echtzeit, und dort zugänglich zu machen, wo sie benötigt werden. Noch regelt in den meisten Unternehmen eine zentrale Gruppe von Datenbankadministratoren (DBAs) den Datenzugriff. Fachleute erhalten keinen Zugang zum Self-Service, sondern kommen nur über Ticket-gesteuerte manuelle Prozesse an ihre Daten, was oft Wochen dauern kann.

Virtualisierung der Daten

Bisherige Datenprozesse, die Datensicherheit und -schutz fokussierten, erfüllen nicht den Anspruch auf agile und leicht verfügbare Daten. Die Masse der Informationen verlangt zusätzlich, sich von altbewährten Modellen in der Datenbereitstellung zu verabschieden. Hat eine Datenquelle zum Beispiel 500 Terabyte und benötigen Unternehmen fünf Kopien dieser Quelle, so entstehen 2.500 Terabyte. Diese Datenmengen zu speichern und zu transportieren, verursacht einen immensen Bedarf an Storage und Netzwerk-Bandbreite, ganz zu schweigen von der Zeit, die es dauert, um eine Kopie anzufertigen.

Um Daten effizient und wirtschaftlich in der gewünschten Geschwindigkeit bereitzustellen, ist eine Virtualisierung erforderlich. Das heißt, es werden keine physischen Kopien der Datenquelle hergestellt, sondern virtuelle Kopien. Diese haben nur einen Bruchteil des ursprünglichen Volumens, brauchen dadurch 90 Prozent weniger Speicher und lassen sich zu 99 Prozent schneller von A nach B transportieren.

Eine DataOps-Plattform automatisiert sorgt für Compliance der virtuellen Datenkopie

Technisch realisieren lässt sich die Datenvirtualisierung mit einer DataOps-Plattform. Am besten eignen sich die Software-Lösungen, die alle möglichen Datenquellen wie Oracle, SAP, SQL, DB2, SAP ASE, Postgres, MongoDB oder MySQL automatisiert einbinden.

Eine DataOps-Technologie liest über eine API-Anfrage die Daten ein und erstellt virtuelle Kopien nach dem Bedarf der Nutzer. Im Hintergrund filtert sie veraltete Datensätze und synchronisiert diese mit den Quellen, so dass alle Nutzer immer auf den aktuellsten Datenstand zugreifen. Zudem können Datenwissenschaftler und -ingenieure sowie Entwickler oder Tester parallel arbeiten.

Ein Unternehmen, das vorher Wochen brauchte, um Testdaten zu provisionieren, schafft das mit einer DataOps-Plattform nun in Minuten. Bei 3.000 bis 4.000 Testumgebungen mit laufend aktualisierten Daten bringt das einen enormen Effizienzgewinn.

Der Verfasser des Artikels ist Sanjeev Sharma, Bestsellerautor von „DevOps Adoption“. Bei Delphix ist erzudem Global Practice Director for Data Transformation. Das Unternehmen verfolgt die Mission, Daten in Unternehmen ohne Reibungsverluste bereitzustellen und Innovation zu beschleunigen.
Der Verfasser des Artikels ist Sanjeev Sharma, Bestsellerautor von „DevOps Adoption“. Bei Delphix ist erzudem Global Practice Director for Data Transformation. Das Unternehmen verfolgt die Mission, Daten in Unternehmen ohne Reibungsverluste bereitzustellen und Innovation zu beschleunigen. (Bild: Delphix)

Noch mehr gewinnen Unternehmen, wenn ihre DataOps-Plattform über Algorithmen verfügt, die vertrauliche Informationen automatisch erkennen und maskieren, während die virtuelle Kopie erzeugt wird. Wer auf diese zugreift, verwendet pseudonymisierte Daten, womit der Datenschutz im Sinne der DSGVO gewahrt wird. Für eine umfassende Data Governance müssen Unternehmen alle Daten zentral kontrollieren können. Die DataOps-Technologie bietet diese Möglichkeit – hierbei heben sich Lösungen ab, die Richtlinien zusätzlich automatisiert in Workflows integrieren.

Erfolgreiche Netflix-Adaption

Nutzer benötigen einen schnellen Zugang zu Daten, die sie zudem leicht finden und einfach verarbeiten können. Auf diesem Grundsatz basiert beispielsweise die erfolgreiche Datenphilosophie von Netflix. Den Ansatz können Unternehmen adaptieren, indem sie mit der DataOps-Technologie grundlegend ändern, wie sie auf Daten zugreifen, diese verwalten, sichern und im gesamten Unternehmen nutzen.

Eine solchen Plattform erfüllt mehr als die notwendige Pflicht, die Daten zu virtualisieren. Sie erstellt virtuelle Datenkopien automatisiert und bindet gleichzeitig Prozesse ein, um geltende Datenschutzgesetze, Sicherheitsvorgaben und Data Governance einzuhalten. Technisch sind somit alle Voraussetzungen gegeben, Datenprozesse in dem erforderten Maße zu modernisieren und eine erfolgreiche Datenkultur zu etablieren.

* Sanjeev Sharma ist Global Practice Director for Data Transformation bei Delphix.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 46086365 / Data)