Facility Management und IT: Miteinander reden wäre hilfreich Krass: Das Missverhältnis zwischen dem Datacenter als Gebäude und der IT

Autor / Redakteur: Ariane Rüdiger* / Ulrike Ostler |

Was geht mich das an? IT-ler und die Elektronik- und Kühlungsspezialisten im Rechenzentrum wissen nicht viel voneinander. Sollten Sie aber – unbedingt. Denn wenn die IT sich verändert, kommt das Facility-Management oft nicht hinterher – das Resultat ist ein Missverhältnis zwischen den RZ-Infrastruktur und der IT. Manchmal fehlt schon die notwendige Power.

Anbieter zum Thema

Der Inhalt eines IT-Rack aus der Sicht eines Rechenzentrumsplaners.
Der Inhalt eines IT-Rack aus der Sicht eines Rechenzentrumsplaners.
(Bild: © foto_desch - stock.adob.com)

Eine ganze Weile galt ein niedriger PUE-Wert als wichtigster Ausweis eines gelungenen RZ-Designs. Doch die vermeintlich so aussagekräftige Zahl täuscht. Damit ein Rechenzentrum energetisch und auch technisch optimal läuft, ist eine umfassende Gesamtbetrachtung nötig.

Das zeigt ein einfaches Beispiel: Viele, gerade leistungsstarke Server oder die sich allmählich verbreitenden rechenstarken grafischen Verarbeitungseinheiten (GPU) nutzen eine On-Board-Kühlung. Die gilt, da in der IT befindlich, bei der PUE-Berechnung nicht als Bestandteil des Kühlsystems, sondern gehört zur IT.

Bildergalerie
Bildergalerie mit 5 Bildern

Denn PUE (Power Usage Effectiveness) definiert das Verhältnis zwischen Stromverbrauch für die externe Kühlung und Stromverbrauch für die IT. Letztere steht im Nenner der Gleichung. Wenn also die Summe von Stromverbrauch für Prozessor und On-board-Kühlung besonders hoch ist, sinkt der PUE-Wert – ein mathematisch richtiges, nichtsdestotrotz aber widersinniges Ergebnis.

Strom und Kühlung sind das Problem

Zudem befinden sich Kühlmöglichkeiten und IT heute ohnehin oftmals im Missverhältnis: Durch die umfassende Virtualisierung vormals vorhandener Einzel-Server leeren sich die Racks. Doch die neuen, leistungsstärkeren Rack-Server oder Blades, die die alten ersetzen und in virtualisierten Infrastrukturen stecken, verbrauchen mehr Strom und erzeugen damit mehr Abwärme.

So entstehen hohe Punktlasten dort, wo sich das betreffende Rack befindet, dem häufig keine adäquate Kühlmöglichkeit gegenübersteht: Der ganze Raum ließe sich zwar gut temperieren, nicht aber die räumlich konzentrierten Hotspots, die diese Systeme erzeugen – selbst dann nicht, wenn die Kühlleistung der vorhandenen Anlagen nominell durchaus im Stande wäre, die erzeugte Wärme abzuführen.

Deshalb ist bei der Einführung neuer Server das Dilemma häufig groß, weiß Peter Dümig, Senior Server Product Manager bei Dell EMC. „Die Rechenzentren sind oft zehn bis fünfzehn Jahre alt, auf alte Systeme ausgelegt und nicht an sich so stark ändernden Anforderungen ausgerichtet. Hat man Glück, lässt sich eine neue Klima-Anlage einbauen, doch auch das verursacht Downtime und zusätzliche Kosten“, weiß er.

Multicore-Server der neuen Generation, hier der „Poweredge C6420“ mit bis zu 56 Kernen erzeugen hohe Punktlasten, denen oft vor Ort keine adäquate Kühlleistung gegenübersteht, weil Infrastruktur im Rechenzentrum nicht an die Weiterentwicklung der Server-Technik angepasst ist.
Multicore-Server der neuen Generation, hier der „Poweredge C6420“ mit bis zu 56 Kernen erzeugen hohe Punktlasten, denen oft vor Ort keine adäquate Kühlleistung gegenübersteht, weil Infrastruktur im Rechenzentrum nicht an die Weiterentwicklung der Server-Technik angepasst ist.
(Bild: Dell EMC)

Punktuelle Kühlung ist schwierig

Oft seien die punktuellen Kühlmöglichkeiten so defizitär, dass in einem Rack, in dem eigentlich 42 HE untergebracht werden könnten, am Ende vielleicht nur ein Chassis mit 16 Einschüben eingebaut ist, weil diese Blades bereits die wegkühlbaren beispielsweise 9 Kilowatt beanspruchen. „Der Trend zu Multicore-Systemen verstärkt dieses Problem“, meint Dümig. Denn jeder weitere Core erhöht auch den Stromverbrauch und damit den Kühlbedarf.

Dr. David Hoeflmayr, Geschäftsführer und Vorstand der Thomas-Krenn AG.
Dr. David Hoeflmayr, Geschäftsführer und Vorstand der Thomas-Krenn AG.
(Bild: FRITSCH MEDIA)

Ähnliche Erfahrungen macht auch Dr. David Hoeflmayr, Geschäftsführer und Vorstand bei der Thomas Krenn AG, bei Kundengesprächen. „Werden Infrastrukturen virtualisiert, ist die alte Klima-Anlage gerade bei kleineren Rechenzentren oft derart überdimensioniert, dass die Kühlleistung selbst dann zu groß ist, wenn man sie weit weg vom optimalen Betriebspunkt dauerhaft auf niedrigster Stufe betreibt.“

Da der Umzug in einen neuen, besser geeigneten Raum häufig genauso zu teuer sei wie die Anschaffung eines neuen Klimageräts, komme es sogar vor, dass ein Heizlüfter im virtualisierten Server-Raum dafür sorge, dass die alte Klima-Anlage genügend zu kühlen hat und somit die eigentlich fällige Investition unterbleiben kann.

Unterschiedliche Sprachen

Gängig sei bei Facility- und IT-Verantwortlichen noch immer ein Lagerdenken. „Beide sprechen unterschiedliche Sprachen, haben unterschiedliche Zeithorizonte und sehen sich auch unterschiedlichen Anforderungen gegenüber“, betont Hoeflmayr. Dazu trage auch der von Herstellern und Entwicklern forcierte schnelle Technologiewandel maßgeblich bei – und natürlich der Drang mancher Administratoren, möglichst sofort von der jeweils aktuellen Technologie zu profitieren.

Bildergalerie
Bildergalerie mit 5 Bildern

Der wird von den Geschäftsleitungen angesichts stetig steigender Flexibilitätsansprüche im Kerngeschäft und entsprechenden Versprechungen der Hersteller manchmal durchaus geteilt. „Je nach dem Stil des jeweiligen IT-Managements werden Systeme zwischen jährlich und alle fünf Jahre ausgetauscht“, sagt Hoeflmayr. Fragen an die IT-Verantwortlichen, welche Entwicklung innerhalb der nächsten fünf Jahre on premise geplant werde, seien angesichts der bestehenden Veränderungsgeschwindigkeit tatsächlich kaum zu beantworten. „Das RZ-Gebäude plant man aber für ein bis zwei Jahrzehnte“, sagt er.

Hoeflmayrs Empfehlung: IT-Management und Facility Management sollten mehr miteinander reden und auch planen. Ansätze dafür gebe es aber bisher noch wenig. „In einigen wenigen Unternehmen bekommen IT- und Facility-Management inzwischen einen gemeinsamen Vorgesetzten, etwa den Finanzverantwortlichen oder den CEO. Dann sind sie gezwungen, sich besser miteinander abzustimmen“, sagt Hoeflmayr.

Wie wäre es mit Regulierung?

Helfen könne auch Regulierung: Die Stadt Frankfurt, ein besonders prominienter deutscher Datacenter-Standort, gebe seit diesem Jahr zukünftigen Rechenzentrumsneubauten einen maximalen Wärme-Output vor. Freilich nutzen solche Regulierungen erst dann wirklich, wenn sie flächendeckend verordnet werden.

Innovative, integrative technische Ansätze wie das im vergangenen Jahr anlässlich der Rechenzentrumsmesse „Future Thinking“ vorgestellte Hot-Fluid-Computing hätten es noch schwer, die Mauern in den Köpfen zu durchdringen, berichet Hoeflmayr. Bei dieser von der Thomas Krenn AG entwickelten Technologie wird die vom Serverblade erzeugte Wärme direkt durch eine Wärmeleit-Flüssigkeit abgeführt und zum Beispiel zu Heizzwecken verwendet.

Kühlkörper für das Mainboard: Die adaptiven Cold Plates kühlen jede Komponente des Boards, Hot Spots sind ausgeschlossen. Tropffreie und gasdichte Konnektoren sorgen für Betriebssicherheit und verhindern Leckage.
Kühlkörper für das Mainboard: Die adaptiven Cold Plates kühlen jede Komponente des Boards, Hot Spots sind ausgeschlossen. Tropffreie und gasdichte Konnektoren sorgen für Betriebssicherheit und verhindern Leckage.
(Bild: Copyright Thomas-Krenn.AG)

"Es gibt großes Interesse - wir verhandeln mit mehreren Kunden, konnten aber noch nirgends implementieren“, berichtet Hoeflmayr. Zudem finden viele Interessenten zwar das Energiesparpotential der Flüssigkühlung attraktiv, haben aber (noch) keine sinnvolle Nutzungsmöglichkeit für die Abwärme gefunden.

Um hier möglichst flexible Alternativen anzubieten, arbeitet Thomas-Krenn AG jetzt mit einem mittelständischen Anbieter innovativer Adsorptionskälteanlagen zusammen. „Dessen Aggregate könnten mit der Abwärme von Servern und Switches gefüttert werden und sie in Kälte umwandeln“; erkläutert Hoeflmayr.

Aktualisieren und Modularisieren

Doch es gibt auch im Rahmen konventioneller IT-Technologien einige Möglichkeiten, krasse Missverhältnisse zwischen IT und Kühlung zu vermeiden. So empfiehlt Dümig, die Infrastruktur regelmäßig anzupassen und inzwischen bewährte Maßnahmen wie die Einhausung von Warm- und/oder Kaltgängen durchzuführen oder Technologien wie gekapselte Racks einzusetzen.

Modernere Technik sei häufig besser als der gute, alte Doppelboden. „Oft reicht dessen Kühlleistung nicht, um auch die im Rack oben stehenden Geräte ausreichend zu kühlen.“ Sinnvoll sei es, auf Racks mit Seitenkühler auszuweichen, deren Leistung auf volle Belegung mit modernen Multicore-Systemen ausgelegt sei.

„Oft fehlen in Rechenzentren noch immer grundlegende Energie-Optimierungsmaßnahmen wie die Einhausung von Warm- und Kaltgängen“, Peter Dümig, Senior Server Product Manager bei Dell EMC Technologies.
„Oft fehlen in Rechenzentren noch immer grundlegende Energie-Optimierungsmaßnahmen wie die Einhausung von Warm- und Kaltgängen“, Peter Dümig, Senior Server Product Manager bei Dell EMC Technologies.
(Bild: Dell EMC)

Zudem sollten Systeme nicht, wie gern noch üblich, überdimensioniert gekauft werden. „Die CPU-Last von Servern liegt in der Regel bei 30 bis 35 Prozent, daher kann das Netzteil meist kleiner dimensioniert werden“, sagt Dümig. Nebenwirkung: weniger Kosten, Stromverbrauch und Kühlbedarf. Im Einzelfall überflüssige Komponenten wie DVD-Laufwerke solle man gleich weglassen. Und auch bei der Redundanz solle man das Nötige, des Guten aber nicht zu viel tun.

Ein wichtiges Konzept ist die modulare Bauweise von Rechenzentren. „Alles, was in Richtung schrittweiser Ausbau und Modularisierung des RZ-Gebäudes läuft, hilft, Missverhältnisse, unnötigen Raum- und Stromverbrauch zu vermeiden“, sagt Hoeflmayr.

* Ariane Rüdiger ist freie Journalistin und lebt in München.

(ID:45169808)