Prognose des Uptime Institute für 2022 Mehr Regulierung, mehr Prozessorvielfalt, mehr Druck auf Nachhaltigkeit

Die Datacenter-Branche muss sich im kommenden Jahr auf mehr Regulierung und Verantwortlichkeit sowie erhöhten Nachhaltigkeitsdruck einstellen. Die Intel-Monokultur kehrt wohl nicht zurück.

Anbieter zum Thema

Rechenzentrumsbetreiber müssen sich laut Uptime Institute 2022 auf mehr Regulierung einstellen.
Rechenzentrumsbetreiber müssen sich laut Uptime Institute 2022 auf mehr Regulierung einstellen.
(Bild: gemeinfrei Pixabay / Pixabay )

Das Uptime Institut hat wie jedes Jahr fünf wichtige Trends für die kommenden zwölf beziehungsweise mittlerweile noch gut elf Monate geliefert. Die Autoren der Studie sind Andy Lawrence, Rhonda Asciertò, Daniel Bizo und Tomas Rahkonen.

Das Uptime Insitute betont, dass man sich in diesem Jahr weniger sicher sei als üblich, in welchem Umfang sich die eigenen Prognosen bewahrheiten werden. Sie betreffen unterschiedliche Bereiche, versprechen aber vor allen Dingen eines: Trotz des hoffentlich abklingenden COVID-19-Drucks wird das Rechenzentrumsjahr 2022 alles andere als langweilig.

Mehr Diversifizierung beim Chipangebot

Die vergangenen Jahre waren gekennzeichnet von steigender Serverleistung bei sinkender IT-Energie-Effizienz. Das bedeutet: Kosten, Energieverbrauch und Kohendioxidausstoß der Rechenzentren erhöhten sich trotz sinkender PUEs.

Obwohl Intel mit seiner neuen, im Frühjahr 2022 zu erwartenden 10-Nanometer-Serverprozessorgeneration „Intel 7“ Leistungsdichte und Effizienz erhöhen wird, bringt das den Chipgiganten, so meint Uptime, nicht zurück zum alten Grad seiner Marktdominanz. Gewinner dieses Trends ist AMD mit seinem laufend ausgebauten Portfolio sehr leistungsfähiger und effizienter Produkte. Profitieren könnten auch Grafikchip-Spezialist Nvidia und einige Hyperscaler sein. So haben AWS und auch der chinesische Hyperscaler Alibaba mit dem Aufbau eigener Cloud-Server-Plattformen begonnen.

Server mit mehr als 100 Kernen werden bald nichts Besonderes sein, was mehr Workload-Konsolidierung ermöglicht. Besonders wichtig ist dies laut Uptime Institute angesichts der Tatasache, dass der Leerlaufstrom der Server wieder ansteigt. Nur wer Server bestmöglich auslastet, entgeht dieser Effizienzfalle.

Der Leerlaufstrom vorn Servern steigt seit 2014 wieder an.
Der Leerlaufstrom vorn Servern steigt seit 2014 wieder an.
(Bild: Standard Performance Evaluation Group/Uptime Institute)

Die Software muss besser auf die Hardware zugeschnitten werden, um deren technische Möglichkeiten auszunutzen. Das erfordert teilweise substantielle Veränderungen der Applikationen. Wer über die nötigen Fähigkeiten und Ressourcen verfügt, kann so Leistung und Effizienz seiner Infrastruktur deutlich erhöhen.

Nachhaltigkeit als Branchen-Topziel bleibt umstritten

Die Handlungs- und Dokumentationspflichten für mehr Klimaschutz sind komplex und wachsen. Sie verlangen größere Anstrengungen und Umstellungen von den DC-Managern. Deshalb darf man diesbezüglich nicht auf deren Begeisterung zählen. Ein Tauziehen zwischen Klimaschutz-Stakeholdern und der Datacenter-Branche ist vorhersehbar, zumal die Rechenzentrumsmanager der Datacenter-Fachkompetenz von Regulierungsbehörden misstrauen.

Standardmäßig geprüft wird vor allem der Stromverbrauch der Rechenzentren - bei Kohlendioxidausstoß oder der Erzeugung von E-Waste sieht es mau aus.
Standardmäßig geprüft wird vor allem der Stromverbrauch der Rechenzentren - bei Kohlendioxidausstoß oder der Erzeugung von E-Waste sieht es mau aus.
(Bild: Uptime Institute)

Die bisherigen freiwilligen Verpflichtungen waren allerdings meist nicht strikt genug und werden wohl durch Pflichtberichterstattung und Vorgaben samt Sanktionen ergänzt oder ersetzt werden. Vorreiter ist hier die EU, die schon Rechenzentren ab 300 bis 400 Kilowatt Last unter Energie-Effizienz-Auditierungspflicht stellen will.

Zwist in der Datacenter-Branche ist vorgezeichnet

Da die Nachhaltigkeitsbemühungen sich zwischen den unterschiedlichen Datacenter-Größenordnungen -Geschäftsmodellen signifikant unterscheiden, wird dies zu Uneinigkeit in der Branche führen. Deren Wille zur Informationsbereitstellung lässt teils zu wünschen übrig.

Besonderen Problemen sehen sich Co-Location-Anbieter gegenüber, da sie nicht beeinflussen können, welche IT in ihren Räumen genutzt wird. Diese Kunden müssen daher stärker für ihren Stromverbrauch verantwortlich gemacht werden. Auch das ist aber problematisch, da sie den genutzten Strom nicht selbst einkaufen.

Zudem fehlen noch immer zweckdienliche und praxistaugliche Maße für die Energie-Effizienz etwa von Servern in Bezug auf ihre Anwendungsleistung. Diese sei, so die Uptime-Institute-Vorhersagen, auch kaum schnell zu finden, da es sich um einen anwendungsspezifischen Wert handelt, den Anwender zudem am liebsten nicht publik machen wollen.

Datacenter-Betreiber forcieren Kernkraft als Energie-Option

Mit steigendem Druck in Richtung einer kohlendioxidfreien und wassersparsamen Energie-Erzeugung und gleichzeitig weiter wachsendem Strombedarf werde, so Uptime, auch die Bereitschaft steigen, nukleare Optionen wieder in Betracht zu ziehen. Dies betrifft sowohl die Industrie als auch politische Institutionen. Erste Manifestationen sind bereits auf europäischer Ebene zu besichtigen, wo Atomkraft zukünftig, wenn auch nur vorübergehend, als „grüne Energie“ gelten soll.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Viele Rechenzentrumsbetreiber könnten angesichts der Bezeichnung von Nuklearenergie als akzeptable Nullemissionsenergie im Rahmen des „EU Carbon Neutral Data Centre Pakt“ (siehe: „Nachhaltiges Bewirtschaften der Rechenzentren Klimapakt der europäischen Datacenter-Betreiber“ ihre individuelle Ausrichtung auf erneuerbare Energien überdenken. Dies scheint bei AWS, Google und Microsoft bereits der Fall zu sein, die auf ihren Webseiten Kernkraft als kohlenstoffarme Energie-Alternative erwähnen.

So könnte Atomstrom via Power Purchase Agreement (PPA), also Direktkauf ab Erzeuger, vermehrt zum Einsatz kommen – auch, um Preisschwankungen bei Erneuerbaren durch erhöhte Nachfrage zu entgehen.

Betreiben Provider zukünftig nukleare Kleinanlagen?

Allerdings müssten dafür neue Nuklearanlagen errichtet werden. Doch werden bereits Entwicklungsanstrengungen für kleinere, modulare und mit passiven Sicherheitsanlagen ausgerüstete nukleare Energie-Erzeugungsanlagen mit 10 bis 100 Megawatt von verschiedenen Staaten wie USA, Korea und Frankreich finanziert.

Solche Kleinanlagen könnten dann von großen Providern direkt betrieben werden. Die Wahrscheinlichkeit für solche Entwicklungen erhöht sich durch den stetig steigenden Strombedarf der IT – die ungelöste Frage der Entsorgung wird dadurch aber wieder einmal hintangestellt.

Kritische Lasten: Noch ist die Cloud kein sicherer Ort dafür

Anwender misstrauen zusehends der Konzentration ihrer Applikationen bei einem Cloud-Provider. Wegen der oft fehlenden Transparenz in Bezug auf Daten zur Betriebssicherheit und Resilienz wird die Cloud teils als Single Point of Failure betrachtet, über die der Inhaber der Applikation wenig bis keine Kontrolle hat. Gleichzeitig zwingt die Komplexität des Multicloud-Betriebs viele Anwender zur Auswahl nur eines Cloud-Betreibers.

Resilienz bedeutet dabei, dass selbst bei Ausfall von Services oder Rechenzentren eine Fortführung oder sehr schnelle Wiederaufnahme des Betriebs garantiert ist. Angebotene Resilienzmechanismen wie Verfügbarkeitszonen oder komplexe Backup-Mechanismen helfen nur teilweise. 2020 registrierte das Uptime Institute 21 Ausfälle von Cloud- oder Internet-Giganten mit signifikanten negativen Konsequenzen. Das führt teils zum Eingreifen des Regulierers wie beispielsweise in der EU.

Die Cloud hat noch nicht viel Vertrauen als Standort für kritische Workloads gewonnen. (Legende: Rot: Mission-Critical bleibt onsite. Türkis: Mission-Critical würde bei mehr nachweislicher Cloud-Betriebssicherheit dorthin verlagert. Hellblau: Mission-Critical liegt auch ohne Nachweise ausreichender Betriebssicherheit in der Cloud. Dunkelblau: Mission-Critical in der Cloud, Betriebssicherheits-Nachweise vorhanden)
Die Cloud hat noch nicht viel Vertrauen als Standort für kritische Workloads gewonnen. (Legende: Rot: Mission-Critical bleibt onsite. Türkis: Mission-Critical würde bei mehr nachweislicher Cloud-Betriebssicherheit dorthin verlagert. Hellblau: Mission-Critical liegt auch ohne Nachweise ausreichender Betriebssicherheit in der Cloud. Dunkelblau: Mission-Critical in der Cloud, Betriebssicherheits-Nachweise vorhanden)
(Bild: Uptime Institute)

Als Konsequenz versuchen diverse Anbieter, den Multicloud-Betrieb zu vereinfachen. Allerdings ist das Internet so komplex miteinander vernetzt, dass kaum vorhersehbare Wechselwirkungen zwischen Services unterschiedlicher Provider vorkommen können. Zudem konzentriert sich die Kontrolle der Gesamtstruktur sich auf zu wenige Anbieter, deren Services nicht interoperieren.

Anwender fordern daher mehr Infrastruktur- und Risikotransparenz, so dass noch mehr Regulierung in diesem Bereich zu erwarten ist. Ein Beispiel ist der von der EU vorgeschlagene DORA (Digital Operational Resiliency Act), das Finanz-Regulierungsbehörden zur Aufsicht über Cloud-Provider berechtigt. Kaum zu erwarten, dass Datacenter-Manager das erfreut.

Lieferkettenprobleme erzwingen Standardisierung und Skalierung

Viele Lieferketten wurden während der COVID-19-Pandemie löchrig und langsam, was Knappheit und Preissteigerungen beförderte. Rechenzentrumsbetreiber müssen das kompensieren. Gleichzeitig besteht die Erwartung, dass die Bauzeit von Rechenzentren wie seit Jahren weiter sinkt.

Mechanismen, die dies bewirken, sind IT-Verdichtung und Off-Site-Vorfertigung beispielsweise von containerisierten Kühlsystemen oder Stromversorgungsanlagen. Das erfordert mehr Zusammenarbeit zwischen allen Beteiligten bis hin zum gemeinsamen Entwurf von Komponenten.

Gleichzeitig versuchen sich Anwender abzusichern, indem sie für dieselben Komponenten mehrere Lieferanten einbeziehen, um jederzeit über eine Zweitquelle zu verfügen. Wer genügend finanzielle und personelle Ressourcen hat, kann auch eigene Prognosen mit einem Monitoring der betreffenden Lieferanten verbinden. Allerdings steht solchen aufwändigeren Ansätzen oft die Personalknappheit entgegen, die sich laut Uptime Institute auch 2022 fortsetzen wird – genau wie Unterbrechungen und Störungen der Lieferketten.

Kleine Rechenzentren stehen stärker unter Druck

Insgesamt bevorteilen diese Trends große, leistungsfähige und mit gewisser Kaufmacht ausgestattete Provider, während kleinere 2022 unter verstärkten Druck geraten. Denn meist haben sie weder ausreichende Mittel, um sich mehr Personal zu beschaffen, noch besitzen sie die nötigen Ressourcen, um beispielsweise selbst Prozessoren zu entwickeln.

Ihre Marktmacht ist beschränkt. Es ist also nicht zu hoch gegriffen, die weitere Konsolidierung gerade der mittelständischen Datacenter-Branche zu erwarten.

(ID:47962453)