Die Privatisierung der Cloud; Teil 1: Zurück aus den Wolken: Trends, Gründe und Hintergründe
Anbieter zum Thema
Mittlerweile ist es offenkundig: In vielen Unternehmen ist die Cloud-Reise auf dem „Rückflug“ aus den Wolken auf den Boden des eigenen Rechenzentrums. Diese so genannte Cloud-Repatriation hat viele gute Gründe. Das turbulente wirtschaftliche Klima ist offenbar nur einer davon.

Nachdem Analysten den vermeintlichen Tugenden der Cloud-Migration Jahr für Jahr bis zum Überdruss das Loblied sangen, stellen viele Organisationen nach und nach fest, dass ihnen mit dem eigenen Rechenzentrum doch gar nicht so schlecht gedient war. Zum einen hatten sie hier die Kosten unter Kontrolle – anders als in der Cloud. Zum anderen war die Performance besser – und nebenbei fast unfehlbar, verglichen mit der Cloud.
Die unbegrenzte Sichtbarkeit der eigenen IT On-Premise schuf zudem auch noch Planungssicherheit. Und in Sachen Cybersicherheit hat das eigene Rechenzentrum ohnehin schon seit jeher die Nase vorne. Also geht es jetzt doch aus den Wolken zurück in die eigenen vier Wände?
Cloud-Beheimatung übers Knie gebrochen – und was jetzt?
Achtundachtzig Prozent der Unternehmen in einer aktuellen Umfrage von Veeam, einem Anbieter von Datensicherungs- und Backup-Software, haben zugestanden, dass sie zumindest einen Teil der Workloads, die sie in der Cloud hosteten, zurück in das Rechenzentrum vor Ort geholt hätten (siehe: „Cloud Protections Trend Report 2023“).
Dieses Ergebnis ist keinesfalls ein Ausreißer. Laut einer Studie von Virtana, Anbieter der gleichnamigen Hybrid-Cloud-Management-Plattform, haben 72 Prozent jener Unternehmen, die Anwendungen in die Cloud verlagert hatten, mindestens eine davon wieder ins eigene Rechenzentrum vor Ort gebracht („State of Hybrid Cloud: Februar 2021“). Virtana hat für die in 2021 veröffentlichte Studie 350 IT-Entscheider befragt. Satte 95 Prozent der Teilnehmer hatten zum Zeitpunkt der Umfrage eine Migration in die Public Cloud unternommen und konnten so aus erster Hand berichten.
Zu ähnlichen Erkenntnissen gelangte eine Studie von Supermicro. Demnach wollten 71 Prozent der befragten Entscheidungsträger in den folgenden zwei Jahren mindestens einen Teil ihrer Arbeitslasten, die derzeit in öffentlichen Clouds laufen, zurück in private IT-Umgebungen verlagern. Nur 13 Prozent zeigten sich zuversichtlich, dass sie alle ihre Arbeitslasten in der Cloud ausführen könnten.
Die Gründe unterscheiden sich
Als den wichtigsten Grund für diesen Richtungswechsel nannten 41 Prozent der Betroffenen die Tatsache, dass sie Anwendungen in die Cloud migriert hätten, die eigentlich im Rechenzentrum vor Ort hätten bleiben sollen, so die Marktanalysten von Virtana. Beinahe genauso viele, nämlich 36 Prozent, sind mit der Provisionierung von Arbeitslasten in der Public Cloud nicht zurechtgekommen.
29 Prozent wollten sich mit dem Leistungsabfall in der Cloud nicht abfinden. Der Frage, in wie vielen Fällen die betreffenden Anwendungen vom technischen Standpunkt her nicht Cloud-fähig waren, gingen die Marktforscher nicht nach.
Wie dem auch sei: Viele Organisationen wagen anscheinend einen Vorstoß mit ihren Arbeitslasten in die Cloud, ohne sich im Vorfeld darüber Gedanken zu machen, ob es überhaupt geht.
Noch mehr Gründe
Für rund ein Fünftel (20 Prozent) waren versteckte Kosten der Cloud-Bereitstellung der ausschlaggebende Faktor für die Heimkehr in das eigene Rechenzentrum. Laut einer aktuellen internen Umfrage von Dell Technologies unter IT-Entscheidungsträgern im Dell-Ökosystem war das Bestreben nach einer höheren Kosteneffizienz für satte 96 Prozent der 139 Organisationen der entscheidende Grund, um die betreffenden Arbeitslasten oder Anwendungen aus der Cloud in das eigene Rechenzentrum zurückzuholen.
40 Prozent der Teilnehmer der Dell-Studie nannten Sicherheit und Compliance als Hauptgründe für die Rückführung von Workloads. Einige der Befragten äußerten Bedenken hinsichtlich des geografischen Standorts ihrer Cloud-Dienste, während andere eine bessere Sicherheit für Daten außerhalb der Arbeitsumgebung anführten. In der Virtana-Studie vom Mai 2022 gaben drei Viertel der Befragten (75 Prozent) Mängel in Sachen Cloud Governance zu, was das Management ihrer Cloud-Infrastrukturen erschwert habe.
Das Faszinosum Cloud
Die Cloud-Repatriation ist jedoch nicht gleichbedeutend mit dem Ende der Cloud-Faszination. Mehr als drei Viertel der Befragten sehen die eigenen Public-Cloud-Implementierungen als eine strategische Investition an und wollten ihre Initiativen unverändert fortsetzen oder beschleunigen.
Rund jeder Zweite hatte zum Zeitpunkt der Umfrage beabsichtigt, die Anzahl der Cloud-Instanzen bis Ende dieses Jahres (2022) zu erhöhen. Letzteres ist jedoch nicht gleichbedeutend mit der Bereitstellung höherer Rechenkapazitäten, da bestehende Kapazitäten im Zuge der „Cloudifizierung“ von Anwendungen (zum Beispiel durch das sogenannte Refactoring) generell auf eine höhere Anzahl kleinerer Instanzen umverteilt werden.
Aus den Zahlen von Veenam geht hervor, dass sich in den kommenden zwei Jahren zwischen der IT im unternehmenseigenen Rechenzentrum und der Hyperscale-Cloud- oder MSP-Bereitstellung ein Gleichgewicht einstellen dürfe.
Hardware nach Maß
Um tiefere Gründe dafür zu erforschen, warum Unternehmen in dedizierte und selbstverwaltete IT-Infrastrukturen investieren und welche Vorteile sie dadurch de facto realisierten, hat IDC Unternehmen wie Intel, Twitter und Preferred Networks, einen Anbieter von Deep-Learning-Software befragt. Diese Unternehmen haben eines gemeinsam: Sie haben sich mit Supermicro zusammengetan, um Computing-Hardware für die Anforderungen ihrer Kernarbeitslasten maßgeschneidert zu optimieren. So konnten diese Organisationen die volle Kontrolle über ihre Infrastruktur behalten.
Intel ist nicht gerade so der typische Datacenter-Betreiber, ganz im Gegenteil. Der Chip-Riese betreibt seine eigene Infrastruktur unter anderem mit dem Ziel im Auge, sich in die Nutzer der eigenen Produkte hineinversetzen zu können.
Das Unternehmen hat insgesamt 16 Rechenzentrumsstandorte bestehend aus 56 Rechenzentrumsmodulen. Sie beherbergen mehr als 380.000 Server mit über 3,6 Millionen Kernen, 787 Petabyte an Speicherkapazität und mehr als 725.000 Netzwerkanschlüsse.
Zum Beispiel bei Intel
Etwa 95 Prozent der Server innerhalb dieser massiven Infrastruktur werden für das Chipdesign im High-Performance-Computing „verheizt“. Mit 3 Prozent bestreitet Intel herkömmliche Unternehmens- und Büroarbeitslasten, während die restlichen 2 Prozent im Bereich des Fertigungs-Computing zum Einsatz kommen, wozu auch Fertigungs- und Montagetestanlagen gehören.
In den vergangenen zwei Jahren (2021 und 2022) hat Intel steigende Wachstumsraten bei seinem Infrastrukturbedarf beobachtet. Zuvor wuchs die Anzahl der Kerne von Jahr zu Jahr so um die 21 Prozent. In den vergangenen zwei Jahren hat sich das Wachstum auf 38 Prozent beschleunigt. Das Wachstum des tatsächlichen Rechenbedarfs, gemessen in EDA MIPS (Engl. Electronic Design Automation Million Instructions Per Second), hielt sich zuvor im Jahresvergleich bei 31 Prozent und hat sich in den letzten zwei Jahren auf 43 Prozent beschleunigt.
Seit 2003 hat Intel die Anzahl seiner Rechenzentrumsmodule von 152 auf 56 reduziert. Man hat ineffiziente alte Rechenzentren geschlossen und baute moderne, hochverdichtete und extrem Energie-effiziente Datacenter-Einrichtungen und Hyperscale-Standorte. Tatsächlich hat Intel mit diesem Schritt den Energieverbrauch seiner Rechenzentren mehr als verdoppelt. Mit bis zu 43 Kilowatt (kW) Leistungsabnahme pro Rack rühmt sich Intel der höchsten Leistungsdichte in der Branche. Der Chip-Riese hat hierzu eine Menge der Hardware- und sonstiger Infrastrukturkomponenten inhouse entwickeln müssen und dabei die eine oder andere Lektion gelernt.
Rosinenpickerei-Upgrades
Alle vier bis fünf Jahre, wenn die Hardware ausgetauscht wird, ersetzen die Betreiber traditioneller Rechenzentren „alles einschließlich der Racks“, enthüllte ein/e nicht benannte/r Intel-Verantwortliche/r gegenüber IDC. Es gebe jedoch keinen Grund, dies zu tun. Denn „innerhalb eines Servers gibt es, wenn man ihn genau betrachtet, viele Dinge wie Netzteile, Lüftereinheiten, Laufwerke und viele andere Komponenten“, die sich technologisch nicht verändern würden und daher seltener ausgetauscht werden könnten. Das sei die Logik hinter Disaggregation.
An der Entwicklung von disaggregierten Servern arbeitet Intel seit immerhin bereits 2016 zusammen mit Supermicro. Diese disaggregierte Server-Architektur macht die Mehrheit der Server-Bereitstellungen in Intels eigenen Rechenzentren aus.
Intel entwickelt einen so genannten CPU-Komplex. Diese Hardwareeinheit ist so konzipiert, dass sie sich häufiger als die übrigen Hardwarekomponenten austauschen – sprich: aufrüsten – lässt. Die meisten Leistungsvorteile lassen sich auf eben diese punktuellen Upgrades der CPU-Module zurückführen.
„Wenn ich zwei Mal mehr CPU-Kerne bekomme, kann ich den CPU-Komplex zu einem Drittel der Kosten [eines vollständigen Systemupgrades] aufrüsten“, so der Insider. Kommt ein Upgrade des Arbeitsspeichers hinzu, verdoppeln sich die Kosten, jedoch nicht die Leistungsvorteile. Speicher-Upgrades können daher locker in einem separaten Zyklus stattfinden, da sie die Leistung des Computersystems weniger stark verbessern, aber ungefähr genauso teuer sind wie CPU-Upgrades.
Für den Chip-Riesen Intel ist ein massives CPU-Upgrade natürlich ein Leichtes (um nicht zu sagen, nicht ganz uneigennützig), aber der Gedanke hat was. „Wenn ich [zu dem Upgrade des CPU-Moduls] auch noch Arbeitsspeicher hinzufüge, dann kostet die Aufrüstung etwa 55 bis 56 Prozent der Kosten [eines neuen Systems],“ so der Intel-Kenner in der Begründung weiter.
Punktuelle Upgrades von Systemmodulen reduzieren nicht nur die Investitionskosten, sondern nebenbei auch noch die Umweltbelastung durch E-Waste, Stichwort „Green Computing“. „Wenn man sich so ein 3U-Gehäuse anschaut, braucht man fast 82 Prozent der Masse des Materials nicht zu ersetzen,“ so der Intel-Insider gegenüber IDC.
Während Intel in seinen Rechenzentren nur eine winzige Flotte von Standardservern für die Ausführung verschiedener Arbeitslasten betreibt, deckt das Unternehmen seinen gesamten Speicherbedarf mit Storage-Lösungen großer Speicher-OEMs. Auch hier würde man Disaggregation begrüßen.
IDC schätzt, dass die Hälfte der Ausgaben für Server- und Speicherinfrastrukturen im Jahr 2021 auf Käufe für „dedizierte“ Infrastrukturen entfallen, ob für den Einsatz im Rechenzentrum vor Ort oder in Co-Location. Dieses Marktsegment soll bis zum Jahre 2026 mit einer CAGR von 2,9 Prozent wachsen. Bis zum Ende des Prognosezeitraums erwarten die Analysten ein globales Marktvolumen von immerhin 77,5 Milliarden Dollar.
Weiter geht's
Die Problematik der sanften Landung nimmt Datacenter-Insider.de in der zweiten Folge dieser Serie unter die Lupe. In der dritten Folge geht es dann um die Souveränität im weitesten Sinne, von den Daten über die Technik bis hin zur Energie.
*Das Autorenduo Anna Kobylinska und Filipe Pereia Martins arbeitet für McKinley Denali Inc. (USA).
(ID:48838744)