Jedes Kilowatt an Leistung, welche im Whitespace verplant wird, verursacht Mehrkosten von 4.000 bis 10.000 Euro. Das gehört zu den Beispielen, die der Autor Peter auf dem Graben, Berater bei der DC-CE RZ-Beratung GmbH & Co.KG. für eine durchdachte Rechenzentrumsplanung anbringt. Wer seine IT kennt, macht weniger und teure Fehler in der Planung und dem Bau von Rechenzentren.
IT und Rechenzentrumsplaner wie -betreiber wollen den Energiebedarf von Rechenzentren soweit wie möglich reduzieren. IT, Datacenter-betrieb, -gebäude und Facility greifen im Idealfall Hand in Hand.
Der Bedarf an leistungsstarker und effizienter Hardware wird immer größer. Die hohe Nachfrage wird geprägt durch den rasch steigenden Bedarf von Rechenleistung für Enterprise- und Cloud-Anwendungen, High-Performance-Computing (HPC), Big Data, KI, Automatisierung und IoT beispielsweise. Die Menge der zu bewegenden, zu verarbeitenden und auszuwertenden Daten wird zunehmend größer. Die Hersteller sind also aufgefordert, die steigenden Anforderungen zu bedienen.
Zugleich wird der Druck in der Digitalisierung immer stärker, um dem Klimawandel entgegenzuwirken und den wirtschaftlichen Interessen nachzukommen. Hier werden Hard- und Softwarehersteller gleichzeitig angesprochen, den Anteil an CO2-Emissionen zu reduzieren.
Auf der Seite der Hardware zeichnet sich eine deutlich zunehmende Leistungsverdichtung ab. Auf der anderen Seite steigt trotz der Effizienzsteigerung durch die zunehmende Nachfrage an zentraler Rechenleistung die Gesamtleistungsaufnahme in den Rechenzentren.
Pi mal Daumen
Bisher stellte das Mooresche Gesetz einen Leitfaden dar, der einen linearen Verlauf in der Leistungsverdichtung zeigt. Seit gut 50 Jahren hat sich eine Verdoppelung der Transistoren auf einer zweidimensionalen Fläche etwa alle zwei Jahre bestätigt. Da die Entwicklung nun die physikalischen Grenzen dieser Verdichtung erreicht hat, wechseln die Hersteller auf eine dreidimensionale Architektur im Chipaufbau.
Diese neue Technologie verspricht eine deutlich höhere und schnellere Verdichtung auf einem Chip. Gleichzeitig zeichnet sich, gemessen an der IT-Leistung, eine geringere Stromaufnahme ab. So benötigt ein Prozessorkern einer CPU oder eine SSD, gemessen an einer bestimmten Speicherkapazität, weniger Strom wie die Vorgängermodelle der alten Technologie.
Genau wie bei der Hardware steckt auch in den Softwareprodukten viel Potenzial zur Optimierung, um bei gleichem Funktionsumfang der darunterliegenden Hardware weniger Leistung abzuverlangen. Angefangen bei den Hypervisor- und Serverbetriebssystemen, die ohnehin einer ständigen Weiterentwicklung unterliegen, um zum Beispiel die Verwaltung von Systemressourcen oder Prozessabläufe zu optimieren und Funktionen zu zentralisieren, wird auch hier die Nachfrage nach mehr Effizienz größer.
Emma Collins, Product Manager for Observability and Power Management bei Intel, (links) und Kate Mulhall ,Senior Cloud Software Engineering Manager bei Intel, vergleichen den Energiebedarf unterschiedlicher Programmiersprachen.
(Bild: Ulrike Ostler/Vogel IT-Medeien GmbH)
Gleiches gilt für die Applikationen. Zu dem Thema, wie Software effizienter und ressourcenschonender betrieben werden kann, hat der Bitkom e. V. einen Leitfaden zur „Ressourcenschonenden Programmierung“ veröffentlicht.
Einige Ressourcen- und Energie-effiziente Produkte lassen sich an dem Siegel „Blauer Engel“ erkennen. Gerade bei Softwareprodukten sind optimierte Produkte ansonsten schwer erkennbar und oftmals ist ein Produktvergleich nicht möglich.
Nutzt man mit der Besiedelung des neuen Rechenzentrums die Möglichkeit und hat den Vorteil der Entscheidungsfreiheit zum Einsatz solch optimierter Produkte, trägt dies dazu bei, die Energieaufnahme und die Gesamtkosten (TCO) im Rechenzentrum zu reduzieren und somit die Effizienz des Rechenzentrums zu steigern.
Die Beobachtung und Recherche der Trends in der IT- und RZ-Branche allgemein und speziell die der Hard- und Softwareentwicklung helfen, neue Technologien zu erkennen und entsprechend den Möglichkeiten in die Konzepte einzubeziehen.
Was liefern die Roadmaps der Hardwarehersteller?
CPUs oder GPUs fallen beim IT-Sizing besonders ins Gewicht, da sie sozusagen zu den Hauptstromverbrauchern im Serversystem zählen. Bei den Chip-Herstellern vergeht viel Zeit von der Entwicklung solcher Produkte bis zur Verfügbarkeit auf dem Markt. Diese Zeit nutzen die Hersteller gerne, um ihre neuen Produkte anzukündigen. Nicht selten lassen sich relativ detaillierte Produktfahrpläne mit einem Vorlauf von zwei Jahren finden.
Die Grafik zeigt am Beispiel der CPU, wie die Energiedichte über die Jahre zunimmt.
(Bild: Peter auf dem Graben/ DC-CE RZ-Beratung GmbH & Co.KG)
Insbesondere beim IT-Sizing für die Datacenter-Planung, ist der Blick auf die voraussichtlich verfügbaren IT- Systeme zum Zeitpunkt der Inbetriebnahme eines Rechenzentrums erforderlich. Mit den von den Herstellern angekündigten Produktinformationen werden oftmals Leistungsdaten genannt. Daher sind die Informationen, die Hersteller mit ihren Produktankündigungen veröffentlichen und mit welchen innovativen Technologien zu rechnen ist, enorm wichtig. Denn mitunter lassen sich geeignete Produkte finden, die sich einplanen lassen oder es bietet sich die Möglichkeit zur Einschätzung von Leistungsklassen anhand von Trends.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Nicht immer ist es möglich, in den Vorankündigungen Lösungsansätze komplett konfektionierter Systeme zu finden. Somit wird es zum Beispiel unmöglich sein, für eine in zwei Jahren angekündigte CPU ein komplett konfiguriertes Serversystem zu finden. Konzentriert man sich hierbei allerdings auf die Komponenten, die im Wesentlichen ein verantwortlicher Faktor für den Leistungs- und/oder Platzbedarf im Rechenzentrum sind oder sich durch ihre hohen benötigten Stückzahlen im RZ-Betrieb hervorheben, wie CPUs, SSDs und HDDs, lassen sich schon konkretere Annahmen treffen.
Auch die Preisentwicklung spielt bei der Planung eine große Rolle. Neuere Technik kann an einen Punkt ankommen sein, an dem sie auf den ersten Blick vielleicht einen etwas höheren Einkaufspreis haben, aber letztendlich deutlich wirtschaftlicher betrieben werden können und sich somit über die vorgesehene Betriebszeit im TCO wieder rechnen. Dies ist zurzeit derzeit beim Vergleich von HDD‘s und SSD‘s der Fall.
Gerade am Beispiel der Datenspeicher, die in recht großer Stückzahl im Rechenzentrum benötigt werden, lohnt sich eine genaue Betrachtungsweise, bei der die Roadmaps hilfreiche Unterstützung leisten können. So ist zu erkennen, dass beispielsweise die HDDs nach wie vor weiterentwickelt werden und somit in einigen Bereichen ihren Platz im Rechenzentrum behalten werden.
Einfluss von Leistungsverdichtung und Generationswechsel der Hardware im Rechenzentrum
Die Auswirkungen der Leistungsverdichtung bei einem IT-Generationswechsel lassen sich aus zwei Perspektiven betrachten. Bleiben die Applikationen, das Datenvolumen und die Anzahl der Nutzer, also die benötigte IT-Leistung, nahezu gleich, kann von einem reduzierten Strom- und Platzbedarf nach einer Modernisierung ausgegangen werden. Wird dies Anfangs mit eingeplant und das Rechenzentrum entsprechend modular aufgebaut, lassen sich somit Teile der Datacenter-Infrastruktur abschalten oder in anderer Form weiter nutzen.
Werden hingegen die frei gewordenen Kapazitäten zum Beispiel für Wachstum benötigt, lassen sich nun zusätzliche Systemressourcen einplanen und installieren.
Eine Leistungsverdichtung muss bei einem Generationswechsel nicht zwangsläufig auf eine geringere Stromaufnahme, etwa für einen Server, hinweisen. Es wäre durchaus wahrscheinlich, dass sich die IT-Leistung auf deutlich weniger, aber dafür leistungsstärkere Server konzentriert.
Dabei ist zu beachten, dass je nach Anwendungsfall und Aufbau die Leistungsaufnahme per Rack höher liegen könnte. Letztendlich bedeutet dies für das Rechenzentrum: Eine höhere IT-Leistung verteilt sich auf weniger Racks für IT-Equipment bei ähnlicher Gesamtstromaufnahme.
Dies sind lediglich Beispiele, um die Platz- und Leistungsverhältnisse bei einem solchen Umbau zu beschreiben. Welche Möglichkeiten zur Umsetzung sich im Detail tatsächlich anbieten, is individuell zu begutachten. Gerade mit Blick auf die Klimatisierung muss im Fall einer Leistungsverdichtung vermieden werden, dass sich „Hot Spots“ im Whitespace bilden!
Es gibt Vor- und Nachteile beider Varianten
Eine hohe Verdichtung hat in der Regel die Vorteile der besseren Systemauslastung und Effizienz. Weniger Systeme bedeuteten weniger Aufwand in der Administration und dem Management sowie letztendlich weniger Rechenzentrumsfläche. Modernste Hardware lässt sich, je nach Einsatzgebiet, gegebenefalls länger im Einsatz halten, da die Laufzeit für den Support bis zur Abkündigung einer Baureihe von Beginn an genutzt werden kann.
Auf der anderen Seite gibt es Nachteile. Die Rechenzentrumsinfrastruktur muss unter Umständen erst für bestimmte Voraussetzungen modifiziert werden, um die höher verdichteten Racks mit Energie zu versorgen beziehungsweise diese in Form von Wärme wieder abzuführen. Je höher die Leistungsdichte im Rack ist, desto präziser muss die Kühlung sein.
Je nach Verfügbarkeitslevel, Strategie und eingesetzter Technologie können die Serversysteme relativ ausfallsicher ausgelegt werden. Selbst dem Ausfall eines einzelnen oder sogar mehrerer Serversysteme aus einem Verbund (Cluster) wären keine User, Applikationen oder Services betroffen. Ansonsten wird mit zunehmender Leistungsdichte das Risiko größer, dass bei einem Ausfall eines einzelnen Host-Systems oder Racks gleich mehrere Applikationen und User davon betroffen wären. Hier ist erkennbar, dass die Redundanz- und Verfügbarkeitsanforderungen sowie die eingesetzten Technologien einen Einfluss auf die Anzahl der eingesetzten IT-Ressourcen und die Stromaufnahme nehmen.
Peter auf dem Graben: „Eine genaue Abstimmung zwischen der IT- und Datacenter-Infrastruktur ist zwingend zu beachten und muss erhalten bleiben.“
(Bild: DC-CE RZ-Beratung GmbH & Co.KG)
Daher sollte eine wirtschaftliche Betrachtung gesamtheitlich erfolgen. Meist liegen die Anschaffungskosten eines leistungsstarken Systems deutlich höher, können sich auf der anderen Seite aber auch schnell wieder relativieren. Betrachtet man dabei aber in der Summe der Systeme die Anschaffungs- und Verbrauchskosten bis hin zur Administration und dem reduzierten Flächenbedarf, also die TCO, kann die Kalkulation für den Einsatz neuester Technologie sprechen.
Werden nun noch Technologien zur Abwärmenutzung im neuen Rechenzentrum berücksichtigt, die ohnehin zumindest in Teilen für Datacenter-Betreiber verpflichtend werden wird, bieten sich andere Lösungsansätze. In der Regel wird heutzutage Luft als Träger für die Abwärme aus dem Rechenzentrum eingesetzt. Beim Einsatz von leistungsstarken Serversystemen, die beispielsweise im Bereich von Cloud- oder High Performance-Computing eingesetzt werden, bietet sich ein Flüssigkeitskühlkonzept an.
Hierbei können relativ hohe Wassertemperaturen von bis zu 60 Grad für eine weitere Nutzung zur Verfügung gestellt werden. Steht ein konstanter Abnehmer zur Verfügung, ließen sich heute etwa 70 bis 80 Prozent der Wärmeenergie aus solchen Systemen im Rechenzentrum weiter nutzen.
Eine Effizienzsteigerung der Hardware zeichnet sich nicht nur bei Serversystemen ab. Gerade bei Storage-Systemen ist durch den Einsatz moderner SSDs und optimiertem Management mit deutlichem Einsparpotenzial zu rechnen.
Auch die Netzwerksysteme werden ständig optimiert, sodass Systeme und einzelne Ports leistungsstärker und im Verhältnis sparsamer im Energieverbrauch werden. Gerade im Bereich der Netzwerksysteme entsteht schnell der Eindruck, dass das Einsparpotenzial nicht so gravierend ins Gewicht fällt, wie bei den anderen beschrieben IT-Systemen. Im Hinblick auf die rasant steigenden Datenmengen, die übertragen werden müssen, sollten die Netzwerkkomponenten unter gleichem Aspekt berücksichtigt werden.
Ein auf die Bedürfnisse des Betreibers angepasstes Rechenzentrum stellt den Idealfall in der Rechenzentrumsplanung dar.
(Bild: DE-CE RZ-Beratung GmbH & Co.KG)
Es bleibt festzuhalten, dass ein speziell auf die Bedürfnisse des Betreibers angepasstes Rechenzentrum den Idealfall der Rechenzentrumsplanung darstellt. Dies lässt sich erreichen, indem die Anforderungen mit den Strategien definiert werden und der IT-Bedarf schon in der Phase der Konzeptionierung analysiert und bestimmt wird. Somit lassen sich die Ergebnisse in die weiteren Schritte der RZ-Planungs- und Bauphasen einbinden.
Die im IT-Sizing eingesetzten Methoden helfen:
den Flächenbedarf für das neue Rechenzentrum zu optimieren
die Investitionskosten für die Anlagentechnik der Datacenter-Infrastruktur zu minimieren
die Energiekosten für IT- und RZ-Infrastruktur möglichst gering zu halten und damit auch den PUE-Faktor
die allgemeinen Betriebskosten durch weniger Administration, Wartung, Instandhaltung und Organisation zu optimieren.
Außerdem kann ein modularer Aufbau bei der Planung Vorteile der Flexibilität mit sich bringen, gerade in Verbindung mit den Einflussfaktoren Wachstum und Leistungsverdichtung. Hiermit kann die Möglichkeit der präzisen Abstimmung, zwischen der IT- und der Datacenter-Intrastruktur geschaffen werden. Diese Vorgehensweise einer Skalierung bildet die Basis zum effizienten und wirtschaftlichen Betrieb des Rechenzentrums.
Berücksichtigung der Einflüsse
Die Einflussfaktoren mit der Auslegung der Leistungsstärke, -Verdichtung und Optimierung bei der Hard- und Software bieten bei einer Modernisierung einen gewissen, nicht zu vernachlässigenden Spielraum. Ein Wachstum der IT-Leistung im gewissen Maße lässt sich im selben Whitespace ohne Flächenzuwachs im Rechenzentrum erreichen. Somit lassen sich unter Umständen bestehende Datacenter-Flächen und -Gebäude länger nutzen.
Berechnungen belegen, dass je nach Verfügbarkeitsklasse und Sicherheitsanforderung für jedes Kilowatt an Leistung, welche zusätzlich im Whitespace verplant wird, mit Mehrkosten zwischen 4.000 und 10.000 Euro zu rechnen ist.
Peter auf dem Graben
Dieses Beispiel verdeutlicht, welchen Einfluss das IT-Sizing beim Rechenzentrumsbau nehmen kann und welches Einsparpotential bereits im Bereich der RZ-Planung vorhanden ist.
Je später nachgesteuert wird und Änderungen vorgenommen werden müssen, sofern überhaupt noch möglich, umso höher wird der Preis, der dafür gezahlt werden muss.
Werden im späteren Betrieb ungenutzte Ressourcen im Rechenzentrum vorgehalten und Systeme nie im dafür vorgesehen Nennlastbereich betrieben, wird dies die laufenden Betriebskosten dauerhaft erhöhen.
* Peter auf dem Graben ist Senior Datacenter Consultant bei der DC-CE RZ-Beratung GmbH & Co.KG.