Die Privatisierung der Cloud, Teil 3 Guter Vorsatz zum neuen Jahr: Souveränität
Anbieter zum Thema
Nur eine souveräne IT ist eine resiliente IT. Gute Vorsätze zum Neuen Jahr müssen deswegen auch zwingend die Souveränität mit umfassen.

Unternehmen stimmen gerne mit den Füßen ab: Sie verlagern lieber ihre Workloads und Daten, bevor die Stellschrauben ihrer Arbeitslasten fest „einrosten“. An Optionen mangelt es eigentlich nicht. Einige der interessantesten stammen von nationalen Anbietern. Die Verantwortlichen haben die Qual der Wahl.
Gov-Clouds für die öffentliche Hand
Public-Cloud-Hyperscaler versuchen sich schon länger an der schrittweisen „Privatisierung“ ihrer Dienste (siehe auch Artikel „Die Privatisierung der Cloud; Teil 2: Die Cloud in der Cloud oder die Cloud im Haus“). Diese fing paradoxerweise mit Clouds für den öffentlichen Sektor an.
Als erster wagte sich seinerzeit AWS hervor: Mit der eigenen „Gov Cloud“ hat der Hyperscaler dedizierte Cloud-Dienste für die gehobenen Ansprüche der öffentlichen Hand aufgebaut und konnte unter anderem in den Vereinigten Staaten lukrative Verträge abschließen. Das Unternehmen hat hierzu Cloud-Regionen für hochsensible Daten und Arbeitslasten geschaffen, die dem strengen regulatorischen Rahmenwerk staatlicher IT-Infrastrukturen auf Landes- und Bundesebene genügen müssen.
AWS bietet heute Cloud-Funktionen für Daten aller Klassifizierungsstufen an, von „Umklassifiziert“ über „Sensibel“, „Geheim“ bis hin zu „Streng Geheim“. Über 7.500 Regierungsbehörden in den U.S.A. nutzen diese Dienste.
Zum Beispiel bei AWS
Die AWS-Cloud bietet ähnliche Dienste auch in anderen Ländern an und will die Plattform sein, auf der „Behörden, Gesundheitsinstitutionen, Bildungseinrichtungen und gemeinnützige Organisationen“ – in Amazons eigenen Worten – „veraltete Infrastrukturen modernisieren und die betriebliche Produktivität verbessern“. In Europa kann AWS auf so prominente Nutzer wie Europol, die ESA (European Space Agency) oder die UN-Agentur International Civil Aviation Organization (ICAO) verweisen.
Deutschlands erste souveräne Cloud für den öffentlichen Sektor will Arvato Systems, eine Tochter von Bertelsmann und ein langjähriger Microsoft-Partner, in Zusammenarbeit mit SAP auf der Basis der Azure-Plattform entwickelt haben. Bei dieser Edition von Microsofts Gov-Cloud bleiben alle Daten auf deutschem Boden; die Bereitstellung aller Anwendungen erfolgt unabhängig von ihren jeweiligen Softwareanbietern. Mit seinem Schwachstellenmanagement-Tool „Varedy" konnte Arvato Systems im Oktober 2022 den „IT Security Award 2022“ auf der Veranstaltung „IT-SA Expo&Congress“ in der Kategorie „Management Security" einheimsen.
Google ging in Deutschland eine strategische Zusammenarbeit mit T-Systems, einer Tochter des Netzbetreibers Deutsche Telekom AG, ein. Die beiden Unternehmen bauen gemeinsam eine Souveränitäts-Cloud für streng regulierte Branchen und Behörden aus dem DACH-Raum.
T-Systems, eine Tochter des Netzbetreibers Deutsche Telekom AG, arbeitet im Rahmen einer strategischen Partnerschaft mit Google an einer souveränen Cloud für Unternehmen in regulierten Branchen aus der DACH-Region. T-Systems soll hierbei Googles Cloud-Technologien mit Souveränitätskontrollen in die Pflicht nehmen. Dazu zählen in der ersten Iteration Code-Reviews, externe Management-Dienste für Kryptografieschlüssel, Identitäten-Management und dergleichen anderes.
Die ersten Dienste sind bereits seit März 2022 verfügbar; weitere Elemente des Angebots sollen im Zuge einer gestaffelten Einführung bis März 2025 hinzukommen.
Der gemeinsame Dienst richtet sich vorrangig an Unternehmen aus dem Finanzwesen, dem Gesundheitswesen und dem öffentlichen Sektor. Das Projekt bildet einen der wichtigsten Bausteine der föderierten sicheren Infrastruktur GaiaX.
Ab dem Jahre 2024 soll ein 'Sovereign Cloud Stack' bereitstehen, bei dem T-Systems „alle relevanten Plattformsteuerungen“ übernehmen wird. Der Dienst soll in einer Public- und einer Private-Cloud-Variante verfügbar sein. Das Private-Angebot adressiert Unternehmen mit besonders sensiblen Arbeitslasten; T-Systems wird es in einem seiner Rechenzentren oder beim Kunden vor Ort bereitstellen.
Cloud-Souveränität spiele sich auf drei Ebenen ab, argumentiert Claudia Nemat, Head of Technology & Innovation bei der Deutschen Telekom AG: Daten, Betrieb und Software. In der ersten Phase fokussiere man sich auf die ersten beiden Elemente.
„Datensouveränität bedeutet im Wesentlichen, dass der Kunde wählen kann, mit wem er seine Daten teilen wolle, zu welchem Zweck und wie lange,“ erläutert Nemat, und dass diese Daten geschützt seien vor dem Zugriff durch Institutionen, die aus europäischer Sicht nicht dazu berechtigt wären.
Adacor und Ionos
Ein anderer deutscher Cloud-Anbieter, Adacor, verspricht Unternehmen, „mit der eigenen Private Cloud so sicher wie im eigenen Rechenzentrum“ zu fahren. Das Unternehmen betreibt zwei Rechenzentren mit redundanten Strom- und Internet-Abindungen sowie „modernsten Klimatisierungsanlagen, Zugangskontrollen, Brandschutzmaßnahmen und Löschanlagen“.
Adacor konnte als Kunden unter anderem Suzuki, VW und die GLS-Bank gewinnen. Den Unterbau der Cloud bildet die Plattform von VMware.
„Echte Souveränität“ für Unternehmen und den öffentlichen Sektor hat sich unter anderem auch die Ionos Cloud auf die Fahnen geschrieben. Das Unternehmen verspricht nebenbei klimaneutrales Hosting mit 100 Prozent „grüner Energie“.
In der Praxis hat Souveränität für die betroffenen Firmen noch weitaus mehr Facetten.
Server-Geplänkel nach Twitter-Art
Bei einem Unternehmen wie Twitter, dem Betreiber eines der größten sozialen Netze mit einer halben Billion von Transaktionen gleichzeitig, könnte man meinen, dass alle relevanten Arbeitslasten in der Wolke eines voll ausgewachsenen Hyperscalers stecken müssten. Das ist nicht der Fall. Twitter läuft in Co-Location-Einrichtungen und nur hin und wieder springen einige Arbeitslasten auf die Public-Cloud um.
Twitter betreibt in seinen drei Haupt-Rechenzentren Hunderttausende von Servern und speichert mehrere Petabytes an Daten. Als Ergänzung dieser IT-Basis nutzt das Unternehmen öffentliche Cloud-Ressourcen, sei es zum Auslagern bestimmter Arbeitslasten im Zuge von Cloud-Bursting oder zur Langzeitaufbewahrung von Daten in Cold-Storage. Ein Großteil der Bestandsdaten ist im Falle von Twitter ja eh öffentlicher Natur.
Twitter hat sich gegen den Einsatz von Allzweckservern in seinen Rechenzentren entschieden. „Wir haben festgestellt, dass die Standardlösungen teurer ausfallen, weil sie vielseitiger und universeller ausgelegt sind [als wir sie brauchen]“, enthüllte ein nicht benannter Vertreter des Unternehmens zum Anlass einer IDC-Erhebung.
Interpretationssache
Mit dem Design und dem Bau eigener Server und der Beschaffung von Komponenten hat Twitter intern eigene Teams aufgebaut. Diese Teams arbeiten eng mit den Co-Location-Partnern zusammen, um die benötigte Infrastruktur zu beschaffen.
Twitter betreibt und verwaltet seine eigene Rechen- und Speicherinfrastruktur und strebt dabei eine enge Integration mit Cloud-Diensten an. Diese soll eine hohe Portabilität von Arbeitslasten ermöglichen. Für ein Unternehmen wie Twitter ist sie anscheinend gleichbedeutend mit Souveränität.
Wo Deep Learning zu kurz kommt…
Die japanische Preferred Networks (PFN) hat sich der praktischen Umsetzung von Anwendungen des Deep Learning und verwandter Technologien verschrieben, um reale Probleme zu lösen, die mit bestehenden Technologien nur schwer zu bewältigen sind. Um die außergewöhnlichen Anforderungen des eigenen Kerngeschäfts an die IT erfüllen zu können, schickte sich das Unternehmen an, seine Hardware selbst zu entwickeln. Denn bisher konnte sie kein kommerzielles IT-System zufriedenstellend erfüllen.
Yusuke Doi, VP of Computing Infrastructure bei PFN, erläutert gegenüber IDC im Rahmen einer Fallstudie im Auftrag von Supermicro: „Das GPU-Computing in der Cloud kann sehr schwierig und teuer sein und leicht außer Kontrolle geraten.“
Vor sechs Jahren begann das Unternehmen sein erstes Supercomputer-Projekt mit dem Bau eines GPU-Cluster, der anfangs mit 1.024 Nvidia-GPUs hantierte. In der dritten Generation zählt die Maschine mit ihren 2.000 GPUs zu den leistungsstärksten der Welt. Das Unternehmen hat zusätzlich ein eigenes Deep-Learning-Framework und diverse Bibliotheken entwickelt. Nur so konnte es das junge Startup in Sachen Souveränität so weit bringen.
Hoppla!
Der massive Energiehunger des Systems hätte die Kapazitäten der Energieversorgung eines gewöhnlichen Datencenter gesprengt. Ohne Energiesouveränität wäre beim Deep Learning schnell Ende der Fahnenstange erreicht. „Herkömmliche Rechenzentren können uns keine gute Kilowattleistung pro Rack bieten“, so Doi. Um eine angemessene Stromversorgung und Kühlung gewährleisten zu können, musste das Unternehmen seinen GPU-Cluster in einem der größten Supercomputerzentren Japans unterbringen.
Das war nicht so einfach. Zum einen fehlte Redundanz, zum anderen gab es Mängel in puncto Sicherheit. Das Unternehmen musste innerhalb des Rechenzentrums einen eigenen Sicherheitsbereich aufbauen.
Neben dem Rechencluster entwickelt und unterhält PFN auch den benötigten Massenspeicher selbst. „Der Zugriff auf Deep-Learning-Daten ist ausgewogener [als im Falle von anderen Arbeitslasten], es gibt nicht viel Variation,“ beobachtet Doi. Die vielen Zufallszugriffe seien hauptsächlich Leseoperationen. Um diese Aufgaben zu bewältigen, habe das Unternehmen zusätzlich zu NFS einen Hadoop-Cluster eingeführt und verwende HDFS als massiven Objektspeicher. Die Datensicherung und -verfügbarkeit seien durch dreifache Redundanz gewährleistet.
„Wir können einen ASIC basteln, aber wir können keinen Server bauen“, setzt Doi an. Beim Bau von Servern sei der Technologiepartner Supermicro in die Bresche gesprungen. Diese Kooperation habe es unter anderem ermöglicht, den Deep-Learning-Beschleuniger in das Computersystem zu integrieren.
Kosteneffizienz und vorhersehbare Leistung sind aus Sicht von Preferred Networks zwei der wichtigsten Vorteile der Vor-Ort-Bereitstellung. Ultimativ bestehe das Ziel auch darin, ein höheres Maß an Kontrolle über die Infrastruktur zu erreichen.
„In der Theorie sollte die Computerinfrastruktur einheitlich und vorhersehbar sein, aber in der Realität haben wir manchmal Schwierigkeiten, das Verhalten unserer Hardware zu kontrollieren, wenn sie aufgrund diverser komplexer Faktoren nicht den erwarteten Output liefert“, jammert Doi unter Berufung auf Einflussgrößen wie den internen Zustand des Systems, abweichende Konfigurationseinstellungen oder sonstige schwer zu behebende Fehler.
Die Automatisierung der Überwachung und der Informationsaustausch mit den Lieferanten seien aus seiner Sicht unabdingbar. „Ich wünschte, wir könnten die gesamte Infrastruktur unabhängig von unseren Anbietern oder Komponenten einheitlich verwalten“, aber es sei noch ein weiter Weg für alle Betroffenen. Auf eine vollständige Souveränität könne sich Preferred Networks offenbar (noch) nicht einlassen.
Stattdessen sucht das Unternehmen nach Synergien. „Wir haben eine Tochtergesellschaft... und die nutzt eine Menge Rechenleistung [in der öffentlichen Cloud],“ enthüllt der IT-Verantwortliche. „Wenn wir ihnen die Tür zu unserer eigenen Infrastruktur öffnen, ist das gut für unser gemeinsames Geschäft, denn wir haben einen schnellen Beschleuniger, wir können stabilere und vorhersehbarere GPU-Ressourcen bereitstellen [als marktübliche Alternativen],“ freut er sich. Das ist dann schon im Sinne der Souveränität.
*Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeitet für McKinley Denali Inc. (USA).
Hinweis:Am 17. Januar 2023 hat Senior Account Manager Datacenter Sales bei Fujitsu Michael Homborg, Hommel, in einem Webinar zusammen mit Ulrike Ostler, Chefredakteurin von DataCenter-Insider, eine IDC-Studie zur Neubewertung von Cloud-Computing durchgeführt. Ausgangspunkt ist die Resilienz von Unternehmen. Die Studie von Archana Venkatraman und Carla Arend hält einige Überraschungen bereit, die durchaus in die Reihe "Privatisierung der Cloud" gehören.
Wer hineinhören will, ist hier genau richtig.
Artikelfiles und Artikellinks
(ID:48978395)