Es gilt: Data first. Die Datenstrategie diktiert die Cloud-Strategie

Ein Gastbeitrag von Daniel Metzger*

Cloud-Computing ist ein Werkzeug für das Daten-Management. Wie dieses Werkzeug eingesetzt wird, leitet sich aus der Anforderung ab. Wer nach der richtigen Hosting-Lösung sucht, muss deswegen wissen, was die zu hostenden Daten bewirken sollen.

Anbieter zum Thema

Ein nutzenbringendes Daten-Mangement ist durchaus komplex. Eine für das Unternehmen adäquate Strategie muss gefunden werden und lässt sich selten nur über ein Hosting-Konzept bedienen.
Ein nutzenbringendes Daten-Mangement ist durchaus komplex. Eine für das Unternehmen adäquate Strategie muss gefunden werden und lässt sich selten nur über ein Hosting-Konzept bedienen.
(Bild: gemeinfre: Tomislav Jakupec / Pixabay )

Die Cloud hat in den letzten zehn Jahren eine beachtliche Entwicklung durchgemacht. Waren zu Beginn der 2010er-Jahre noch viele Nutzer misstrauisch gegenüber dem dezentralen Daten-Hosting, gab es kürzlich einen regelrechten Cloud-Boom. Laut einer Untersuchung von KPMG und Bitkom stieg der Anteil von Unternehmen, die Cloud-Computing nutzen von 2016 bis 2021 von 65 auf 82 Prozent.

Doch wie viel dieser Entwicklung ist auf eine echte Strategie zurückzuführen und wie viel ist „machen wir, weil es alle tun“? Manche Unternehmen setzen den Schritt in die Cloud mit Innovation, Agilität und Effizienz gleich. Die Enttäuschung ist groß, wenn der erwartete Mehrwert ausbleibt.

'Cloud first' bringt selten die gewünschten Resultate. Die Cloud ist ein Werkzeug für das Datenmanagement. Welches Werkzeug man braucht, wird durch die Aufgabe definiert, die zu erledigen ist. Mit Cloud First spannt man also den Wagen vor das Pferd. Zuerst sollte klar sein, welche Daten-Management-Strategie für das Unternehmen in Frage kommt. Data First ist deshalb Schritt 1.

Warum Data First?

Daten sind für Unternehmen das Gold des 21. Jahrhunderts. Aber wie Gold, das erst gewaschen und dann weiterverarbeitet wird, ist auch Daten-Management kein Selbstläufer. Viele Firmen generieren bereits beachtliche Datenmengen. Viel davon bleibt weitgehend ungenutzt.

Das kann daran liegen, dass Informationen auf physisch voneinander getrennten Servern liegen oder nicht über die gleiche Plattform verwaltet werden. Erst wenn sie zu etwas oder zueinander referenziert werden, lässt sich ihr Potenzial ausschöpfen.

Unternehmen sollten wissen, welche Informationen sie generieren und wo diese liegen. Wichtig ist auch zu überlegen, welche Applikationen im Einsatz sind und welche dazukommen sollen. Daraus leitet sich ab, wie groß die Workloads sein können.

Ohne Plan greifen Anwender zum falschen Werkzeug

Dieses Wissen muss in den Kontext des Geschäftsmodells gesetzt werden, welches man bereits verfolgt oder das man anstrebt. Dabei spielen rechtliche Aspekte ebenfalls eine Rolle. Datenschutzverordnungen beeinflussen, was wie gespeichert werden darf.

Die Datensicherheit ist ein weiterer Punkt dieser Vorüberlegungen. Nutzer sollten sich Gedanken über Backups machen und überlegen, ob es Informationen gibt, die besonders geschützt werden müssen. Ein Grundniveau an IT-Security ist überall Pflicht.

Betriebe, die diese Überlegungen erst anstellen, nachdem sie ihre Daten und / oder Applikation ausgelagert haben, können vor zusätzlichen Herausforderungen stehen. Beispielsweise merken sie dann erst, dass gewisse Kundeninformationen gar nicht in einer öffentlichen Cloud abgelegt werden dürfen, oder nur, wenn das Rechenzentrum im EU-Raum steht.

Möglicherweise haben sie sich für mehrere Anbieter entschieden, weil deren Angebote unterschiedliche Vorteile bringen. So entstehen unabsichtlich wieder Datensilos. Bei einem Anbieterwechsel kommt es dann vielleicht zum bösen Erwachen: Der Nutzer befindet sich im Vendor-Lock-in. Seine Daten bekommt er nur in Rohform zurück oder muss quasi eine Auslösesumme zahlen, um die angereicherten Informationen zu erhalten.

Aus der Strategie ergibt sich die Anwendung

Diese Nacharbeiten können dafür sorgen, dass sich der schnell erhoffte Return on Investment (ROI) der Datenmigration verzögert und erst einmal noch draufgezahlt wird.

Datenstrategien sind individuell. Aber es gibt eine Prämisse, die eigentlich immer gilt: Die Strategie sollte auf einer Architektur basieren, in der alle Daten unabhängig von ihrem Speicherort schnell sowie sicher auffindbar sind und plattformübergreifend verwaltet werden können.

Wenn ein Unternehmen sein Geschäftsmodell datenbasiert aufzieht, darf das System nicht von einem Dritten abhängig sein. Zusätzlich muss es durchgängig sein – vom Edge Computing bis zu Core-Systemen.

Die Hybrid Data Cloud

Hybride Systeme vereinen mindestens zwei Konzepte in sich. Bei hybriden Cloud-Lösungen sind es sogar drei: On-Premises, private Cloud und öffentliche Clouds.

Viele Unternehmen haben Server auf dem Firmengelände. Die können, unter Umständen nicht mehr vollständig, weiter genutzt werden. Daten, die oft gebraucht werden, oder geschäftskritisch sind, sind dort gut aufgehoben. Manche Anwendungen bleiben ebenfalls am besten dort.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Welche das sind, ist ein bisschen Gefühlssache. Gibt es Dinge, die man nicht auslagern will, sollten sie On-Premises bleiben.

Wohin mit den Daten?

Manche Betriebe hosten Daten über eine Private Cloud. Dabei mietet man Teile von Rechenzentren exklusiv. Auf diesen Servern liegen nur die eigenen Daten. Die Instandhaltung übernimmt der Rechenzentrumsbetreiber.

Die Arbeit wird also ausgelagert, aber die Datenhoheit bleibt relativ hoch. Das ist vergleichbar mit Firmenwagen-Leasing. Dabei gehören die Fahrzeuge dem Leasing-Nehmer nicht, aber er nutzt sie exklusiv für den vereinbarten Zeitraum. Die Leasing-Firma kümmert sich um die Wartung.

Konzept Nummer drei sind öffentliche Clouds. Anbieter wie Amazon, Google oder Microsoft hosten die Daten von Nutzern in ihren Rechenzentren. Wo die Daten physisch abliegen, kann man nicht unbedingt beeinflussen. Welche Daten sonst noch auf dem Server liegen auch nicht. Allerdings kann hier flexibel zusätzliche Rechenleistung gebucht werden.

Wer hat die Arbeit?

Unter einer Hybrid Data Cloud lassen sich alle drei Konzepte vereinen: Die Nutzer wählen aus, welche Daten, wo gespeichert und welche Applikationen worüber gehostet werden. Die Hybrid Data Cloud ist eine übergeordnete Plattform, auf der alle Speicherorte abgebildet werden. Wo Informationen physisch liegen, macht keinen Unterschied. Über die Plattform wird der Nutzer von der Komplexität der Datenverwaltung und -nutzung abgeschirmt.

Die eigentliche Arbeit liegt beim Anbieter. Er sorgt dafür, dass alle Systeme richtig angebunden und integriert sind.

Daten-Management ist nicht konstant. Anforderungen können sich ändern. Datenschutzverordnungen werden nachjustiert.

Unter Umständen wirkt sich das auf die möglichen Speicherorte aus. Manche Informationen werden vielleicht kurzfristig wichtig und müssen stets verfügbar sein. In einer hybriden Umgebung ist das kein Problem. Die Grenzen zwischen den Abschnitten sind offen. Datenströme werden über die Hybrid-Data-Cloud-Plattform abgebildet. Bei Regeländerungen lässt sich die Umverteilung von Informationen automatisieren.

Keine Frage der Größe, sondern des Geschäftsmodells

Es mag so wirken, als wäre so eine Infrastruktur vor allem für größere Unternehmen mit komplexen Datenströmen geeignet. Ob man aus einer Hybrid Data Cloud einen Mehrwert ziehen kann, hängt jedoch eher vom Geschäftsmodell ab.

Ein kleines Unternehmen hat vielleicht nicht das Budget, eine dezidierte IT-Abteilung aufzustellen, die sich um das Daten-Management kümmert. Mit einer hybriden Lösung kann die Firma die technische Arbeit auslagern, behält aber größtenteils die Kontrolle.

Unternehmen können Applikationen auslagern und As-a-Service nutzen. Außerdem lassen sich mit einer Hybrid Data Cloud Use Cases ohne großes Risiko testen. Soll beispielsweise eine neue Anwendung erprobt werden, die hohe Workloads nach sich zieht, kann das Unternehmen für einen limitierten Zeitraum Kapazität dazu buchen.

Daniel Metzger: „Cloud First bringt selten die gewünschten Resultate. Besser ist: Data First.“
Daniel Metzger: „Cloud First bringt selten die gewünschten Resultate. Besser ist: Data First.“
(Bild: Cloudera)

Wie auch immer der Use Case ausgeht, die Verwaltung wird nicht komplizierter, da alles weiterhin über eine Plattform abgebildet wird. Die Möglichkeit, schnell das Datenvolumen zu erhöhen, kann auch für Backups wichtig werden. Kommen Systeme hinzu, die besonders ausfallsicher sein müssen, sind mehrere Backups auf verschiedenen Infrastrukturen nötig. Flexibilität kommt einer Firma hier zugute.

Hybride Lösungen heben den Datenschatz

Auf den Punkt gebracht: Eine Datenstrategie richtet sich am Geschäftsmodell des Unternehmens aus, deckt die Anforderungen an Kapazität, Verfügbarkeit, Sicherheit und rechtlichen Anforderungen ab und bezieht die bestehenden sowie geplanten Datenquellen und Speicherorte ein.

So eine Strategie lässt sich selten nur über ein Hosting-Konzept bedienen. Eine hybride Lösung, die unterschiedliche Ansätze vereint, ist der bessere Ansatz, das binäre Gold zu heben.

Ergänzendes zum Thema
Über Cloudera

Bei Cloudera ist man davon überzeugt, dass Daten Unmögliches möglich machen, heißt es vom Unternehmen. Die „Cloudera Enterprise Data Cloud“ des Unternehmens verarbeitet alle Daten, unabhängig vom Ablageort – vom Edge bis hin zu KI-Anwendungen. Angetrieben von der unermüdlichen Innovation der Open-Source-Community, hilft Cloudera die digitale Transformation zu beschleunigen, auch für die größten Unternehmen der Welt.

* Daniel Metzger ist Regional Vice President Central und Eastern Europe bei Cloudera.

Artikelfiles und Artikellinks

(ID:48061768)