3D-Chips lassen Rechenzentren schrumpfen RZ-Planer Ulrich Terrahe: „80 Prozent der Datacenter sind viel zu groß“
Anbieter zum Thema
Wer seinen Whitespace plant, kalkuliert meist Pi mal Daumen. Doch das führt zu Überkapazitäten. Genauere Planung könnte helfen, diesen teuren Missstand zu beheben, meint Ulrich Terrahe, geschäftsführender Gesellschafter der DC-CE RZ-Beratung GmbH & Co. KG im Gespräch mit DataCenter-Insider.

Viele Unternehmen wollen heute nicht voll auf Public Cloud Services vertrauen, sondern betreiben eigene oder beim Co-Location-Anbieter untergebrachte Rechenzentren. Was bedeutet das für die Auslastung?
Ulrich Terrahe: Leider nichts Gutes. Wir sehen in solchen Rechenzentren häufig eine mittlere Auslastung der Server, die nur bei 20 Prozent liegen. 80 Prozent der Rechenzentren, die selbst verwaltet werden, sind deutlich überdimensioniert. Das ist teuer und verschwendet kostbare Ressourcen.
Woran liegt das?
Ulrich Terrahe: Im Vordergrund steht das an sich berechtigte Anliegen, zukunftsfähig zu sein. Man will die Wachstumsimpulse über die Lebensdauer des Rechenzentrums auffangen.
Und da wir in unserem Wirtschaftssystem Wachstum als gegeben oder Grundvoraussetzung für erfolgreiches Wirtschaften sehen, und die IT sich als Motor dieses Wachstums begreift, wird halt sehr groß dimensioniert. Dazu gibt es noch das Sicherheits- und Verfügbarkeitsthema.
Tier 3 wird in Frage gestellt
Wie wirkt sich das aus?
Ulrich Terrahe: Wenn ich wirklich alles doppelt und räumlich getrennt auslege, was die Klasse 3 entsprechend EN 50600 empfiehlt, sind die Mehrkosten erheblich. Anwender fragen sich zunehmend, ob sie das wirklich brauchen oder ob es auch etwas weniger tut.
Können Sie das beziffern?
Ulrich Terrahe: Ja. Wir benutzen intern ein Planungs-Tool für unsere Kosten- und ROI-Berechnung für Rechenzentren. Darin kann man verschiedene Parameter, angefangen von Fläche und Leistung pro Fläche über Strompreis, PUE und so weiter verändern und sieht unmittelbar die Auswirkungen auf die Kosten.
Leistungsdichte ist ein Kosten-Booster, sinkender PUE spart bares Geld
Geben Sie uns ein Beispiel!
Ulrich Terrahe: Nehmen wir mal die Faktoren Aufstellfläche, Leistungsdichte, PUE,, Strompreis und Klassifizierung. Angenommen, ein Rechenzentrum hat 2.000 Quadratmeter Whitespace und eine Leistungsdichte von 1.500 Watt pro Quadratmeter, der Strom kostet 26 Cent/kWh und es ist ein Klasse-3-Datacenter mit einem PUE von 1,5. Dann kommt das Tool auf 15-Jahres-Kosten von 28,35 Millionen Euro Investitionskosten und 177 Millionen Energiekosten.
Man kann nun gezielt einen Parameter verändern, die anderen aber gleich lassen, um die Wirkung verschiedener Parameter zu beurteilen. Steigert man beispielsweise die Leistungsdichte auf 3.500 Watt pro Quadratmeter, steigern sich die Investitionskosten auf über 47 Millionen und die Energiekosten auf 410 Millionen. Ein sich verdoppelnder Strompreis verdoppelt auch die logischer Weise die Energiekosten.
Ein von 1,5 auf 1,2 sinkender PUE bezogen auf das erste Beispiel spart über 15 Jahre 30 Millionen, weil man weniger Energie für die effizientere Kühlungsmethode braucht. Man spart, wie gesagt, auch durch geringere Verfügbarkeitsansprüche: Hier macht eine Stufe nach oben von 2+ auf 3 bei sonst gleichen Parametern rund 16 Millionen Euro mehr Investitionskosten aus.
Eine sorgfältige Analyse ist der Schlüssel zur richtigen IT-Dimensionierung
Wo liegen Hebel zur Kostensenkung, ohne dass man auf Leistung verzichten muss?
Ulrich Terrahe: Der Hebel zur Kostensenkung liegt in der Analyse der IT (Hardware) die eingesetzt werden soll. Wie zuvor beschrieben wird die Performance der installierten IT auf das gesamte Rechenzentrum betrachtet nicht genutzt. Hier ist tatsächlich noch sehr viel Luft.
Bei den Leistungs- und Flächenvorgaben glauben wir, dass man mehr als die Hälfte sparen kann, ohne dass die praktische Leistung im Einsatz verringert wird. Die Auswirklungen von mehr Energie-Effizienz, Verfügbarkeit und einer guten Abstimmung zwischen Gebäude und IT-Ausstattung wirken etwas geringer, erreichen aber immer noch Werte zwischen 20 und maximal 50 Prozent.
Der Bedarf wird überschätzt
Warum wird von diesen Möglichkeiten bislang kein Gebrauch gemacht?
Ulrich Terrahe: Das liegt an der Tendenz der IT, die eigenen Bedarfe eher zu über- als zu unterschätzen. Natürlich will niemand am Ende dastehen und eine Leistung nicht erbringen können, weil die Ressourcen fehlen. Aber im Schnitt steht wirklich zu viel in den Rechenzentren herum. Aber es gibt hier gleich mehrere Hoffnungsschimmer am Horizont.
Nämlich?
Ulrich Terrahe: Erstens hat sich gezeigt, dass die Leistungszuwachs in der Praxis nie so schnell entwickelt, wie die Theorie voraussagt [siehe Bild, Anm. d. Red.]. Zweitens ist es real so, dass dank technischer Fortschritte in der IT die Prozessoren dichter sind und mehr leisten, so dass man mehr Arbeit mit weniger IT-Ressourcen schafft.
IT-Leistungssteigerung lässt Rechenzentren schrumpfen
Können Sie auch dazu ein Beispiel liefern?
Ulrich Terrahe: Gern. Ein Rechenzentrum, das ich 2011 mit 9.000 kW Leistung und 3.500 Quadratmeter Fläche ausgelegt hätte, könnte man 2021 auf 2.000 kW und 1.500 Quadratmeter Fläche beschränken. Mit hochintegrierten dreidimensionalen Chipstrukturen, wie sie die neuesten 3D-Prozessorgenerationen mitbringen, ist sogar noch mehr möglich. Damit lässt sich ein Rechenzentrum, das 2021 noch 2000 kW beansprucht hätte, auf 400 kW und in der Fläche von 1.200 auf 350 Quadratmeter schrumpfen. Das ist eine enorme Veränderung.
Das ist beeindruckend. Gibt es weitere Möglichkeiten?
Ulrich Terrahe: Ja, nämlich eine realistische Betrachtung dessen, was man wirklich braucht. Praktisch macht man das heute Pi mal Daumen: Die IT definiert eine Ziel-Leistungsdichte pro Rack und eine Rack-Zahl.
Es findet häufig kein Abgleich statt, ob das tatsächlich für die genutzten Anwendungen gebraucht wird. Es fehlt ganz grundsätzlich die Brücke zwischen den Leistungsanforderungen der Applikationen und der Leistung der Maschinen, und im Zweifel wird dann eben zu groß konzipiert, was die niedrigen Auslastungen zur Folge hat.
Firmen-Datacenter besonders betroffen
Gilt das für alle Arten von Rechenzentren gleichermaßen?
Ulrich Terrahe: Das gilt insbesondere für das durchschnittliche Firmenrechenzentren, nicht so sehr für beispielsweise High-Performance-Umgebungen, wo der Leistungsbedarf natürlich nach oben offen ist. Wir wollen dafür sorgen, dass alle Beteiligten, zu einer realistischeren Einschätzung, damit zu einer besseren Auslastung und zu geringeren Kosten zu kommen. Dafür setzen wir ein innovatives Werkzeug ein.
Frage: Wie funktioniert das?
Ulrich Terrahe: Erstens haben wir praktisch ermittelt, wie viel man aus einem unterschiedlich dimensionierten Beispielsystem herausholen kann. Das ist jetzt keine hochgenaue Kalkulation, aber die Benchmark gibt zumindest einen Anhaltspunkt, was geht.
Zweitens haben wir auf Basis einer Gaming-Software ein dreidimensional darstellendes Software-Tool für die Bestückung von Whitespace entwickelt. Damit kann man virtuell innerhalb eines Tages einen ersten Klon vom Serverraum bauen. Man definiert einfach die Flächengröße, die Zahl der Schränke, ihre Höhe und Breite, Elemente wie den Doppelboden und schiebt dann virtuell das IT-Equipment hinein.
Das Tool teilt anschließend mit, wie viel Storage, wie viele Cores und mehr insgesamt in einem Rechnerraum zur Verfügung stehen. Vergleicht man das mit den gemessenen Benchmarks aus vergleichbaren Anwendungen, lässt sich zumindest grob einschätzen, ob das Ganze in etwa realistisch, zu klein oder – höchst wahrscheinlich – überdimensioniert ist.
Ein Dashboard bietet Überblick
Sind die Benchmarks in die Software integriert?
Ulrich Terrahe: Im Moment noch nicht, aber wir arbeiten an einem Dashboard, das einen schnellen Überblick geben soll. Bislang findet die Interpretation der Ergebnisse separat und händisch statt.
Ersetzt die Software eine klassische Datacenter-Planung?
Ulrich Terrahe: Nein, der eigentliche Datacenter-Bauplan wird nach wie vor mit anderen, speziellen CAD-Tools erstellt. Unser Werkzeug soll in erster Linie eine realistische Dimensionierung des Serverraumes (Whitespaces) ermöglichen und damit die derzeitige teure Verschwendung von Ressourcen begrenzen.
Das kommt in erster Linie dem Unternehmen zugute, dass das Rechenzentrum betreibt. Schließlich muss dieses alles bezahlen. Gleichzeitig dient es den gesellschaftlichen Nachhaltigkeitszielen. Aber natürlich bekommt man auch viele Informationen, die unmittelbar in die Planung einfließen können.
Wir das Tool auf den Markt kommen oder öffentlich zugänglich gemacht?
Ulrich Terrahe: Das ist bisher nicht geplant. Wir nutzen es, um zusammen mit unseren Kunden optimale Datacenter-Infrastrukturen zu planen.
Artikelfiles und Artikellinks
(ID:48612839)