Interview mit Datacenter-Planer Ulrich Terrahe Noch viel zu tun: Rechenzentren ohne Kohlendioxidausstoß

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Ulrike Ostler |

Die Datacenter-Branche steht vor großen Herausforderungen. Rechenzentrumsbetreiber müssen unvereinbare Ziele unter einen Hut bringen: steigende Leistungs- und Verfügbarkeitsansprüche, Wirtschaftlichkeit und ökologische Nachhaltigkeit. Über den aktuellen Stand von Debatte und Umsetzung hat Ariane Rüdiger im Auftrag von DataCenter-Insider mit Ulrich Terrahe, Geschäftsführer der Rechenzentrumsberatung DC-CE gesprochen.

Anbieter zum Thema

Die Frage, wie Rechenzentren nachhaltig werden können, bewegt in jüngster Zeit nicht mehr nur die Gemüter von Umwelt-Enthusiasten.
Die Frage, wie Rechenzentren nachhaltig werden können, bewegt in jüngster Zeit nicht mehr nur die Gemüter von Umwelt-Enthusiasten.
(Bild: dc-ce)

In Ihrem aktuellen Vortrag anlässlich des DataCenter Day im Frühjahr dieses Jahres kommen Sie zu dem Schluss, dass Rechenzentren in Zukunft entlang der Achsen Verfügbarkeit und Leistungsfähigkeit individueller gestaltet werden müssen. Gibt es schon praktische Umsetzungsbeispiele für diesen Trend?

Ulrich Terrahe: Definitiv. Beispielsweise wurde beim neuen Rechenzentrum der Gesellschaft für Schwerionenforschung (GSI) explizit auf höchste Leistung optimiert, nicht auf Verfügbarkeit. Ähnliches gilt für alle Höchstleistungsrechenzentren.

Warum geht beides nicht zusammen?

Ulrich Terrahe: Das liegt einfach daran, dass man für Hochverfügbarkeit alles doppelt oder mehrfach vorhalten muss, und das wird bei sehr leistungsfähigen Architekturen schlicht zu teuer. Wer ein Rechenzentrum baut, definiert in der Regel eine verfügbare Investitionssumme und überlegt, wofür das Geld ausgegeben wird.

Je dichter, also leistungsfähiger ein Rechenzentrum ist, desto mehr kostet es. Hochverfügbarkeit steht manchmal für Hochleistungslösungen nicht im Verhältnis zu den aufzuwendenden Investitionskosten, weil sie nicht zeitkritisch sind. Man rechnet nochmal oder später, wenn etwas ausfällt.

Nun kommt als dritter Zielparameter die Nachhaltigkeit hinzu. Wie passt sie da hinein?

Ulrich Terrahe: Für die IT und damit für Rechenzentren braucht man nun einmal Strom. Ohne Strom geht es ganz einfach nicht. Und weil die Ansprüche an die IT immer weiter steigen, steigt auch deren Stromverbrauch.

Wir sind in einem absoluten Wachstumsmarkt, denn der Verbrauch wächst schneller als die Effizienzsteigerung. Man kann allerdings auf verschiedenen Ebenen überlegen, wie man diesen Strom am effektivsten nutzen kann.

Welche Ebenen sehen Sie?

Ulrich Terrahe: Das fängt natürlich mit der Hard- und Software an. Wenn, wie an der Universität Stuttgart, eine Cray mit verschalteten 99.000 Prozessoren gebaut wird, dann ist das effektiver, als wenn ich genau so viele einzelne Server hinstellen würde. Ein anderes Beispiel für steigende Effizienz ist der Apple M1, der 30 bis 40 Prozent effektiver sein soll als die bisher von Apple verwendeten Intel-Prozessoren. Ein weiteres Thema sind die Multiprozessoren, die jetzt in Servern die Monolithe weitgehend ersetzen. Sie lösen teilweise das Problem der höhen Leistungen im Idle-Modus.

Hardware und Software rücken enger zusammen

Immer wieder hört man, dass der Weg aus Effizienzgründen wieder hin zu optimal aneinander angepasster Hard- und Software gehen muss. Was halten Sie davon?

Ulrich Terrahe: Es gibt durchaus solche Trends, man muss nur an die GPUs denken oder neuerdings an KI-Spezialchips. Hyperscaler auf der anderen Seite verwenden spezielle Software, um ihre gesamte Infrastruktur besonders effektiv zu steuern und auszulasten. Allerdings wird es wohl noch eine Weile dauern, bis Hard- und Software optimal aneinander angepasst sind.

Die meisten Server werden heute noch mit Luft gekühlt - die Abwärme ist meist nur 30 bis 35 Grad warm, was die Nutzbarkeit erheblich einschränkt.
Die meisten Server werden heute noch mit Luft gekühlt - die Abwärme ist meist nur 30 bis 35 Grad warm, was die Nutzbarkeit erheblich einschränkt.
(Bild: dc-ce)

Wo sehen Sie weitere ungehobene Effizienzpotentiale?

Ulrich Terrahe: Natürlich bei der Verwendung von grünem Strom. Deshalb wurden ja in den vergangenen Jahren viele Datacenter-Kapazitäten nach Nordeuropa verlagert. Dort gibt es billige Wasserkraft.

China baut derzeit Rechenzentren in Paraguay, weil es dort große Mengen Wasserenergie aus Stauseen gib, aber zu wenig Abnehmer. Allerdings stellt sich im Moment schon die Frage, woher, wenn nicht von Zertifikaten, in unseren Regionen all der grüne Strom kommen soll.

Wie sieht es mit Kühlung und Abwärme aus?

Ulrich Terrahe: Das ist der dritte Hebel. Bislang sind noch 80 Prozent der Rechenzentren luftgekühlt, obwohl Luft ein um Dimensionen schlechterer Wärmetransporteur ist als Wasser oder andere Flüssigkeiten. Luftkühlung, die ihre Abwärme anschließend mit Wärmetauscher auf Wasser überträgt, führt zu Wassertemperaturen von maximal 30 Grad.

Das ist für die meisten sinnvollen Zwecke viel zu wenig. Deshalb wäre Wasserkühlung wirklich sinnvoll, sie ermöglicht Temperaturen um die 60 Grad, die tatsächlich etwa zum Heizen taugen.

Woher rührt die Skepsis gegenüber der Wasserkühlung, wenn man bedenkt, dass auch die Mainframes mit Wasser gekühlt wurden?

Ulrich Terrahe: Man kann das Thema Wasserkühlung bei den Mainframes mit den Ansätzen für Flüssigkühlung, wie wir sie heute haben, überhaupt nicht vergleichen. Damals handelte es sich um Geräte, die so groß waren wie ein ganzes Zimmer, und auch in sie waren immer Komponenten mit Luftkühlung integriert.

Das ganze Konzept war vollständig anders. Heute geht es darum, gegebenenfalls ein Chip in der Größe eines Fingernagels gezielt zu kühlen, weil er sonst zum Hotspot wird.

Geht es nicht nur um Gewohnheiten?

Ulrich Terrahe: Das mag sein. Die Recehnezntrumsleiter*innen kennen das Thema Luftkühlung, sie wissen, wie sie funktioniert und dass sie sich am Ende rechnet, auch wenn sie teuer ist. Demgegenüber ist der Einstieg in die Wasserkühlung und die Abwärmenutzung heute noch ein Abenteuer. Einerseits sind die Technologien noch nicht perfekt, andererseits fehlen Anreize und Erfahrungen.

Was müsste passieren, damit sich das ändert?

Ulrich Terrahe: Es braucht Forschung, funktionierende Beispiele, Bewusstseinsbildung, etwas Regulierung und ökonomische Anreize. Insofern denke ich, dass ein steigender Kohlendioxidpreis schon einen richtigen Anreiz setzen würde.

Was die Forschung angeht: Wir sind derzeit an dem Projekt Hotfladbeteiligt, bei dem es um die Kombination von Adsorptionskältemaschine, Abwärmenutzung und Wasserkühlung geht. Aber es zeigt sich, dass das alles Zeit braucht. Flüssigkühlsysteme sind beispielsweise meist für Hochleistungs-Datacenter-Umgebungen ausgelegt, nicht für durchschnittliche RZ. Immerhin bearbeite ich gerade den Planungsauftrag einer öffentlichen Einrichtung, die vorsieht, dass das Rechenzentrum auf den Umstieg auf Flüssigkühlung in vier bis fünf Jahren vorbereitet wird.

Gibt es mehr gute Beispiele im Datacenter-Bau?

Ulrich Terrahe: Durchaus. Es gibt Rechenzentrumsbetreiber, die inzwischen wirklich Wert darauflegen, sich etwa von Kompressionskühlung zu verabschieden und ihre Abwärme so effizient abzuführen wie möglich, also mit möglichst wenig Energieaufwand. Denn ein Verbraucher für die Abwärme ist ja nicht immer in der Nähe.

Ein Beispiel ist das neue Telehouse-RZ in Frankfurt. Diese dreistöckige 3-MW-Anlage wurde etwa vor einem halben Jahr in Betrieb genommen. Hier hat man konsequent so weit wie möglich auf Kompressionskühlung verzichtet. Die Anlage wird zu 90 Prozent mit Freiluft gekühlt und setzt Adiabatik ein. Ein anderes Beispiel ist Tobol, ein Automatisierungsspezialist, der auch im Rechenzentrumsbereich aktiv ist. Das Unternehmen nutzt Geothermie, um die Datacenter-Abwärme abzuführen.

Wasserkühlung kann mehr Wärme wegkühlen und führt zu höheren Abwärmetemperaturen, die direkt für die Weiterverwertung etwa zum Heizen geeignet ist.
Wasserkühlung kann mehr Wärme wegkühlen und führt zu höheren Abwärmetemperaturen, die direkt für die Weiterverwertung etwa zum Heizen geeignet ist.
(Bild: dc-ce)

Welche Rolle spielt hier die Europanorm EN 50600?

Ulrich Terrahe: Die Norm definiert, was und wie gemessen werden sollte, und wie Rechenzentren einer bestimmten Kategorie ausgestattet sein müssen. Aber sie ist nicht verpflichtend, genau so wenig wie der Blaue Engel. Vielleicht sollte man auch das ändern. Im Übrigen sollten man auf Aufklärung und Bewusstseinsbildung setzen.

Strengere Vorgaben brauchen in einer Demokratie Mehrheiten. Die fehlen bislang. Wir wollen günstig streamen, unzählige Whatsapps schreiben, online spielen, Datenmassen erfassen und analysieren und mit digitalen Währungen handeln. Das alles macht Druck auf die IT, mehr zu leisten, schneller zu arbeiten und so weiter. Die Hoffnung ist, dadurch auf anderen Gebieten nachhaltiger zu werden. Die unmittelbare Folge ist ein höherer Datacenter-Stromverbrauch.

Was müsste passieren, damit Technologien wie Wasserkühlung, Adiabatik oder Abwärmenutzung sich schneller verbreiten? Wir haben es ja nicht mehr weit bis zum Jahr 2030, wenn wesentliche Schritte hin zur Klimaneutralität der Gesellschaft schon vollbracht sein sollen.

Ulrich Terrahe: Ganz grundsätzlich glaube ich, dass durch den unglaublichen sozialen, politischen und ökologischen Druck, der auf dem Thema Nachhaltigkeit liegt, sich noch mehr Augen auf die Branche richten und damit nicht nur Ressourcen und Kapital sondern auch Talent und noch mehr Innovationskraft frei gesetzt wird.

Aber selbstverständlich könnte ein höherer Kohlendioxidpreis etwas bewegen. Er könnte zum Beispiel Wärmepumpen lohnend machen, die man braucht, um Rechenzentrumsabwärme auf höhere Temperaturen zu bringen und diese auch mit Adsorptionskältemaschinen besser nutzbar zu machen, sofern sie mit regenerativem Strom betrieben werden. Das hat bei den fluorhaltigen Kühlmitteln gut funktioniert.

Wie kommt das?

Ulrich Terrahe: Die EU hat durch ein Verknappungsstrategie einen progressiv ansteigenden Preis erwirkt, der diese Stoffe nun sehr erfolgreich aus dem Markt drängt, ganz einfach, weil sie im Vergleich zu teuer werden. Heute steht in Ausschreibungen oft, dass fluorfreie Kältemittel eingesetzt werden sollen. Dadurch haben Newcomer wie die Efficient Energy GmbH, ein Startup, das sich mit Wasser als Kältemittel beschäftigt, plötzlich bessere Chancen.

Außerdem könnte ich mir vorstellen, dass mit jedem Datacenter-Bauplan auch ein Nachhaltigkeitskonzept abgegeben werden muss. So ein Konzept müsste die für die Nachhaltigkeit vorgesehenen Maßnahmen und ihre Wirkung im Detail beschreiben und verpflichtend sein.

(ID:47481957)