Ein Energiedeckel für Rechenzentren? Machen beispielhafte Datacenter in der Energiekrise Schule? Dazu Gunnar Schomaker

Von M.A. Jürgen Höfling

Anbieter zum Thema

Energie-effiziente Rechenzentren sind ein Top-Thema in diesen Tagen. Keine Tagung, keine Messe und keine Verbandsverlautbarung kommen ohne dieses Thema aus. In der Praxis sieht es aber eher „durchmischt“ aus. Ein Gespräch über die Chancen von Datacenter-Innovationen in der Energiekrise.

Ein ganzes Rechenzentrum im Fuß eines Windrad-Masts: Windcores in der Nähe von Paderborn(Bild:  Westfalen Wind IT)
Ein ganzes Rechenzentrum im Fuß eines Windrad-Masts: Windcores in der Nähe von Paderborn
(Bild: Westfalen Wind IT)

Energie ist mittlerweile so teuer, dass es vielen Bereichen echt weh tut. Das gilt auch für Rechenzentren. Sind Mangellage und Preisexplosion nicht auch eine Chance für alle Beteiligten, zum Beispiel indem man Ressourcen öfter teilt, überzogene Redundanzen abbaut und auch einmal größere Latenzen dort akzeptiert, wo es nicht auf die Millisekunde ankommt?

Gunnar Schomaker: Das sollte man meinen, aber dem steht erst einmal ein tradierter Habitus entgegen, in dem sich die meisten als Solitär bewegen - Betreiber und Kunden. Nehmen Sie das Beispiel Co-Location: Mag der anzumietende Bereich auch mandantenorientiert partitioniert sein, jeder Kunde ist trotzdem allein auf weiter Flur, sei es bei der Nutzung der Klimatisierung, der installierten Rechenleistung, den Speicherbereichen und so weiter und so fort. Der Colo-Betreiber hat zudem nur einen begrenzten Einfluss auf das Kundenverhalten und kennt dessen IT-Systemarchitektur meist nicht.

Einmal ganz abgesehen von CO2-Emissionen und Klimaschutz ist der von Ihnen angesprochene solitäre Habitus doch auch ökonomisch suboptimal…

Dr. Gunnar Schomaker ist Mitbegründer und Ideengeber IT bei Westfalenwind, Initiator von Windcores sowie stellvertretender Leiter, wissenschaftlicher Mitarbeiter, stellvertretender Geschäftsführer Software Innovation Lab, R&D Manager – Smart Systems beim Software Innovation Campus Paderborn (SICP). (Bild:  Gunnar Schomaker)
Dr. Gunnar Schomaker ist Mitbegründer und Ideengeber IT bei Westfalenwind, Initiator von Windcores sowie stellvertretender Leiter, wissenschaftlicher Mitarbeiter, stellvertretender Geschäftsführer Software Innovation Lab, R&D Manager – Smart Systems beim Software Innovation Campus Paderborn (SICP).
(Bild: Gunnar Schomaker)

Gunnar Schomaker: Zweifellos. Nehmen Sie ein Thema wie die Architektur zur direkten Speicherprovisionierung oder die Nutzung von Cloud-Speicher-Services. Da werden Redundanzen gegen den Ausfall erzeugt und die müssen betrieben und bezahlt werden. Es gibt Ansätze, die zeigen, dass Verfügbarkeit effizienter erreicht werden kann.

Als Endanwender benötige ich Verfügbarkeit. Virtualisierung durch RAID ermöglicht für viele Fälle eine solche Verfügbarkeit auch dann noch, wenn zwei von fünf Speicherorten ausfallen. Was verändert sich, wenn nicht physische Laufwerke, sondern Services virtualisiert werden? Spielen Sie den Gedanken durch und Sie sehen, in der Wirkbreite lassen sich viele Architekturbereiche erheblich verschlanken und die Ressourcenbedarfe und Redundanzen können sinken.

Es bedarf aber auch der Verhaltensveränderung, denn als Kunde wähle ich Services und muss bei Ausfällen kooperativ mit den Cloud-Providern kommunizieren, da die Semantik der Daten bei mir und nicht am Speicherort entsteht. Die technischen Anforderungen der Anwendung entscheiden dabei über die Machbarkeit. Werden diese erfüllt, leidet das Arbeitsergebnis nicht.

Aber dadurch ändert sich die Infrastruktur massiv. Es gibt mehr Arbeit und Verantwortung beim Endanwender, oder?

Gunnar Schomaker: Das ist richtig. Die Verantwortung für das Aufrechterhalten der Verfügbarkeiten wandert weitgehend zum Kunden, zum Beispiel in dessen Appliance. Aber ich als Kunde habe dann nicht nur mehr Verantwortung, sondern bekomme auch Vorteile, und zwar nicht nur pekuniär.

Zum Beispiel kann ich mir die potenziellen Anbieter meiner Speicherservices auch entlang nicht-funktionaler Anforderungen aussuchen, beispielsweise ob am Erbringungsort erneuerbare Energien integriert sind, welche Preisobergrenzen für bestimmte Leistungen ich akzeptiere und so weiter. Es sind viele weitere Parameter denkbar, die ich als Endanwender an meiner Appliance einstellen könnte. Letztendlich führt die Automatisierung der Auswahl über die Parameter neben der Flexibilität und Unabhängigkeit auch zu einer Liberalisierung des Anbietermarktes, in dem der Wirtschaftlichkeitsdruck Redundanzen verdrängen kann.

Kann man sagen, dass in einem solchen Modell die Verschwendung von Ressourcen schneller aufgedeckt wird und die Effizienz steigt, nicht zuletzt die Energie-Effizienz?

Gunnar Schomaker: Ich denke schon, weil im Detail zu sehen ist, wie die Services provisioniert werden und durch Selektion korrigierend eingreifen können. Im Übrigen ist das auch ein Gegengewicht zu dem heute vorherrschenden zentralisierten digitalen Imperialismus der Hyperscaler und eine weitere Variante, um digitale Souveränität zu erreichen, wenn ich das einmal so provokant formulieren darf.

Trotzdem sind wir, wenn ich das recht sehe, vom Ressourcen-Sharing in der IT und im Datacenter-Umfeld weit entfernt. Woran liegt das: Verantwortungsscheu, tradierter Habitus, menschliche Trägheit oder alles zusammen?

Gunnar Schomaker: Die Geschichte der IT im Allgemeinen und der Rechenzentren im Besonderen war ja, bedingt durch technische Engpässe, ein beständiges Oszillieren von zentral zu dezentral und wieder zurück. Die technischen Engpässe fallen heute aufgrund der kontinuierlichen Fortentwicklung und entsprechender Verbesserungen nicht mehr so stark ins Gewicht.

Der Fokus liegt derzeit eher auf den nicht-funktionalen Anforderungen wie Nachhaltigkeit oder Vertrauenswürdigkeit. Im Moment scheint die IT-Welt zu zentralen Lösungen zu tendieren, mit leichten Problemen bei der Kundenakzeptanz und der Vertrauenswürdigkeit. Letzteres kann man aus den Bemühungen der Anbieter schließen, die Erklärbarkeit und Transparenz von Lösungsangeboten zu verbessern. Das dezentrale Moment ist halt auch weniger bequem und erfordert mehr Verantwortungsbereitschaft und vielleicht auch etwas mehr technischen Sachverstand beim Endkunden.

Zu verstehen, wie etwas prinzipiell funktioniert, befähigt auch, nach eigenen Maßstäben und Werten zu handeln - nicht zu vergessen: Tatsächlich beruht das heute vorherrschende Modell in weiten Teilen darauf, dass Energie in beliebiger Menge und billig zur Verfügung steht. Analog galt das auch für die Ressourcen im Ökosystem der Digital-Welt. Das ändert sich bekanntlich derzeit sehr drastisch und wird sich auch im technischen Aufbau der Lösungsangebote widerspiegeln.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ich stelle mir probeweise mal einen Energiedeckel für die Rechenzentren vor, der nebenbei als Innovationsschub für mehr ressourcensparende Konzepte wirken könnte. Geht Ihr Gedanke in diese Richtung?

Gunnar Schomaker: Das ist mittlerweile ein Szenario, das die künftige Realität für bestimmte Anwendungsbereiche wie HPC-Rechenzentren beschreiben könnte. Die meisten Akteure im Rechenzentrumsumfeld sind sich eigentlich nicht bewusst, wie überaus flexibel die physische Produktionsumgebung Rechenzentrum tatsächlich sein kann. Die darauf ausgeführte digitale Produktionswelt kann sich ebenfalls extrem gut an neue Umgebungsparameter anpassen, denn das Erfüllen von Anforderungen liegt in der digitalen DNA.

Noch einmal zum Thema zentral oder dezentral: Das ist aus meiner Sicht keine Schwarz-Weiß-Unterscheidung. Wenn ich zum Beispiel einen großen Netzknoten habe, der gleichzeitig mit seiner Abwärme Prozesswärme für einen benachbarten Industriestandort abgibt, dann ist das vom energetischen Wirkungsgrad vermutlich in aller Regel günstiger als viele kleine Rechenzentren?

Gunnar Schomaker: Ja und nein, das kommt auf den situativen Kontext an. Studien haben gezeigt, dass in der Datenkommunikation umso mehr Energie verbraucht wird, je näher man am Zielpunkt ist. Das heißt: Die Energie-Effizienz der Datenpakete am Verteilknoten ist am besten, während sich der Overhead und die Bilanz der nicht genutzten Ressourcen beim End-Anwender erhöhen.

Andererseits ist es nach wie vor einfacher und sparsamer bezüglich aller Ressourcen, Daten zu transportieren und nicht Energie. Wenn man beispielsweise Energie vor Ort hat, dann kann man prinzipiell die energetischen Wegzölle bei Übertragungs- und Verteilnetzen, also die Netzentgelte, vermeiden. Diese Ausgangslage motivierte neben der vorhandenen elektrischen Netzinfrastruktur das Co-Location und HPC-Konzept von Windcores..

Mit der Verbringung der Rechenzentrums- und IT-Infrastruktur in Windenergie-Anlagen passt sich die digitale Infrastruktur der Energieinfrastruktur an und wird nachhaltiger. Die Windcores sind ein Konzept, das am Software Innovation Campus der Uni Paderborn gemeinsam mit dem heutigen Betreiber, der Westfalenwind IT, entwickelt wurde und in gemeinsamer Verbundforschung weiterentwickelt wird.

Weil Sie gerade Windcores erwähnen: Wie könnte man denn solche Leuchtturmprojekte in Sachen Energie-Effizienz besser herausstellen, damit sie die träge Masse des Markts überwinden und schneller Schule machen. Ich könnte in diesem Zusammenhang auch das Energiewende-Rechenzentrum in Essen oder das Rechenzentrum in Enge Sande erwähnen, auf dessen Dach Algen gezüchtet werden?

Gunnar Schomaker:Wenn ich mir eine neue Mentalität in (IT-)Entscheiderkreisen wünschen dürfte, dann, dass Rechenzentren und dessen digitale Infrastrukturen sich in mehr Aufgabenbereichen nicht als Solitär verstehen. Das würde für neuen Schub sorgen und hoffentlich mehr innovative bedarfsgerechte Lösungsangebote entstehen lassen.

Womöglich unterstützt die gegenwärtige beziehungsweise sich für die nächsten Jahre abzeichnende Energiemangellage ein solches Bewusstsein und erzeugt eine neue Schubkraft, etwa analog zu den Fahrgemeinschaften, die sich seinerzeit in den 1970er Jahren während der Öl-Krisen gebildet hatten.

Derzeit wird die Problemlage im Wesentlichen in Gestalt hoher Preise wahrgenommen. Aber wer weiß, was passiert, wenn sich der Mangel in allen Lebensumständen manifestiert ... wenn zum Beispiel das Laden des eigenen Smartphones oder des eBikes im Büro des Unternehmens oder der Universität plötzlich nicht mehr so ohne Weiteres von den Betroffenen hingenommen wird oder wenn, falls das Laden ausdrücklich erlaubt wird, das Finanzamt ein kostenloses Laden als geldwerten Vorteil in der Steuererklärung veranschlagt sehen will.

Jedenfalls beginnen die neuen Dinge, ob gute oder schlechte, immer an den Rändern der Gauß´schen Verteilungskurve, nicht in der Mitte der Glockenkurve, wenn es um die Vorstellungsfähigkeit geht. Und viele der guten Dinge entwickeln sich ja meist inkrementell weiter und einige wenige werden tatsächlich disruptiv und verändern unser Verhalten.

Eine etwas provakante Frage zum Schluss: Was passiert, wenn das Energie-Angebot den Bedarf nicht mehr decken kann oder so teuer wird, dass nicht alles in Industrie und Forschung, was man gerne hätte, umgesetzt werden kann. Gibt es Rationalisierungspläne für diesen Fall?

Gunnar Schomaker: Ganz pragmatische Antwort aus meinem eigenen Umfeld: Am SICP arbeiten wir mit Partnern aus der Wissenschaft und Wirtschaft in dem Verbundprojekt „ESN4NW“ in diesem Themenfeld an neuen energetisch und thermisch geführten Betriebskonzepten für HPC-Rechenzentren. Das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Vorhaben ist in der Förderung zu Energie-effizientem High-Performance Computing alias „GreenHPC“ verankert. Dort werden unter anderem Fragestellungen und Lösungen zu dieser Herausforderung erarbeitet, sicherlich in erster Linie für den Anwendungsbereich Hochleistungsrechnen, aber viele Ergebnisse dürften auch für die Rechenzentrumslandschaft im Allgemeinen verwertbar sein.

(ID:48764867)