Mehr Leistung unter gegebenen Randbedingungen Effizienter und grüner mit Digital Twins vom Rechenzentrum

Autor / Redakteur: Michael Brüning* / Ulrike Ostler

Deutschland ist für Rechenzentren kein günstiger Standort. Die hiesigen Stromkosten sind die höchsten und damit der Anteil an den gesamten Betriebskosten erreicht nicht selten die 50-Prozent-Marke. Ähnlich ist es bei den Grundstückskosten. In erschlossenen Bereichen ist auch hier Deutschland bei den Quadratmeter-Preisen auf den vordersten Plätzen in Europa.

Firmen zum Thema

Michael Brüning: „Deutschland ist für Rechenzentren kein günstiger Standort.“
Michael Brüning: „Deutschland ist für Rechenzentren kein günstiger Standort.“
(Bild: AT+C EDV GmbH)

Dennoch boomt der Markt und es werden ständig neue Rechenzentren gebaut. Das ist aber weder eine Selbstverständlichkeit, noch fällt sich als Geschenk von Himmel. Diese Randbedingungen stellen die Betreiber vor große Herausforderungen, wollen sie doch konkurrenzfähig bleiben. Gerade in den zwei genannten Punkten Stromverbrauch und Flächenbedarf gilt es also, ständig am Optimum zu arbeiten.

Natürlich muss die im Rechenzentrum verbaute Infrastruktur, insbesondere die Kühlung und Stromverteilung, so effizient wie möglich ausgelegt sein; denn im weiteren Betrieb lässt sich dies nur schwer ändern. Auch kann die insgesamt zur Verfügung stehende Fläche häufig nicht erweitert werden. Die Stellschrauben für einen kosteneffizienten Betrieb sind somit der Stromverbrauch der Geräte – insbesondere der Server – und die optimale Ausnutzung der vorhandenen Fläche beziehungsweise der Einbauflächen in den Serverschränken.

Wie Digital Twins helfen können, die Stromkosten zu senken

Ein erster Schritt, Verbesserungen vorzunehmen, ist eine detaillierte Bestandsaufnahme. Um diese durchzuführen, ist es essenziell, eine detaillierte und aktuelle Dokumentation aller verbauten Assets zu besitzen: den so genannten Digital Twin des realen Rechenzentrums. Damit kann die Suche nach unnötigen oder energiehungrigen Verbrauchern beginnen.

Ein erster Ansatzpunkt sind Komponenten, die zwar in Betrieb sind, aber eigentlich nicht benötigt werden, zum Beispiel Grafikkarten oder nicht zugewiesene Laufwerke und Netzwerkkarten. In bestimmten Fällen lassen sich damit Rechner „entschlacken“ und freigewordene Ressourcen an anderer Stelle nutzen.

Fast schon ein Klassiker ist der Ersatz herkömmlicher Festplatten durch SSD- oder Flash-Laufwerke. Das gewählte Laufwerk muss auch für den späteren Einsatz geeignet sein. Über einen Digital Twin lassen sich die für einen Ersatz in Frage kommenden Geräte sehr einfach ermitteln.

Eine komplexere Aufgabenstellung ist dagegen die optimale Ausnutzung der Performance der Server-Hardware. Hier gilt es herauszufinden, auf welchen Rechnern noch weitere virtuelle Maschinen betrieben werden, da in deren Durchschnittsbetrieb Reserven vorhanden sind und Lastspitzen nicht konkurrieren. Ein genauer Blick auf den zeitlichen Verlauf der CPU-Last bietet hier weitere Ansatzpunkte.

Simulation beantwortet komplexe Fragen

Es ist ratsam, die Server-Performance im Software Defined Datacenter von einer Generation zur nächsten kontinuierlich zu erhöhen. So ist es möglich, zum einen die Rechenleistung pro Fläche, zum anderen auch die verbrauchte Energie bezogen auf die Rechenleistung ständig optimieren.

Die Frage, wann sich die Investition in einen Energie-effizienteren und leistungsfähigeren Server lohnt, ist objektiv nur sehr schwer zu beantworten. Eine verlässliche Grundlage zur Entscheidungsfindung liefert eine realitätsnahe Simulation. Die möglichen Um- und Ausbauvarianten werden im Digital Twin ausgeführt und anschließend sowohl mit Blick auf die Kosten als auch auf die möglichen Einsparungen bewertet. Hat sich ein Szenario als valide Lösung herauskristallisiert, erhält man zudem durch den Vergleich von Plan- zu Ist-Zustand eine gute Basis für Arbeitsanweisungen zur Umsetzung des Vorhabens.

Auch bei Maßnahmen im Bereich der Netzwerk-Infrastruktur hilft die Simulation, die Machbarkeit von Änderungen zu verifizieren. In vielen Rechenzentren wird in jedem Schrank ein eigener Switch eingebaut, um für jegliche Nutzungsszenarien ausreichend Konnektivität zur Verfügung zu haben. Meist sind jedoch nur die Hälfte oder sogar nur ein Drittel der Ports belegt. Sehr häufig reicht es daher aus, nur in jedem zweiten Schrank einen Switch vorzusehen. Ob trotzdem ausreichend Konnektivität und redundante Verbindungen vorhanden sind, kann ein simulierter Umbau im digitalen Zwilling beantworten.

Wie kommt es zum digitalen Zwilling?

Die banale Antwort ist: Durch den Einsatz einer Software, die mit den Daten zum Rechenzentrum „gefüttert“ wird. Was einfach klingt, hat in der praktischen Umsetzung jedoch einige Hürden. Zum einen muss die Software das Rechenzentrum in Gänze mit seiner gesamten Infrastruktur abbilden können. Zum anderen muss sie erlauben, geänderte Fassungen des IST-Zustands erstellen und auswerten zu können.

Die Software „VM.7“ von AT+C beispielsweise ist eine Anwendung, die diese Voraussetzungen erfüllt. Darüber hinaus bietet sie zahlreiche Möglichkeiten, um die Datenmigration beziehungsweise -erfassung zu vereinfachen. Gerade dieser Aufwand der initialen Erstellung des digitalen Zwillings ist häufig der Grund, warum Digital Twins noch nicht die Detailtiefe oder generelle Verbreitung erlangt haben, um deren hohen Nutzwert erschließen zu können.

Michael Brüning: „Deutschland ist für Rechenzentren kein günstiger Standort.“
Michael Brüning: „Deutschland ist für Rechenzentren kein günstiger Standort.“
(Bild: AT+C EDV GmbH)

Also: Digitale Zwillinge können in vielfältiger Weise helfen, im Rechenzentrums-Betrieb stetig an der Verbesserung der Energieeffizienz zu arbeiten. Wichtig ist es, dass Verantwortliche sich nicht durch „gefühlte“ Machbarkeitshürden davon abhalten lassen, einen Digitalen Zwilling auf den Weg zu bringen. Denn die Mühe lohnt: Nicht nur lassen sich Kosten sparen, durch die bessere Ressourcennutzung profitiert auch die Umwelt.

* Michael Brüning ist Geschäftsführer der AT+C EDV GmbH.

Artikelfiles und Artikellinks

(ID:47810021)