Häufig geht es beim Thema Green IT um Energieversorgung und Kühlung von Rechenzentren. Bei der Tagung „Ecocompute“, die Ende April in München stattfand, standen die Details von Infrastrukturen im Vordergrund. Denn hier lässt sich viel bewegen.
Die Veranstaltung „Ecocompute“ in München hat geezigt: Mit Arbeit am Detail lässt sich der Energieteufel beim Rechnen bekämpfen.
Dass das Thema grünes Computing aus der Nische kommt, zeigte sich wieder einmal auf der in München ausgerichteten Konferenz Ecocompute. Mehrere Hundert interessierte IT-Spezialisten und -Spezialistinnen waren zusammengekommen.
In der Konferenz ging es nicht darum, den hohen Kohlendioxid-Ausstoß der IT zu beklagen und dann auf der Datacenter-Infrastrukturseite anzusetzen, sondern ums Eingemachte der IT, um Fragen, die weit tiefer ins Detail abtauchen. Dort warten bislang ungenutzte Chancen, den Energieverbrauch zu senken, ohne die Arbeitsergebnisse zu beeinträchtigen.
Wichtige Fragen
Einige Beispiele für solche Themen:
Wie baut man Infrastrukturen so auf, dass sie möglichst wenig Energie verbrauchen, die gekühlt gehört?
Wie optimiert man die Settings von Betriebssystemen hinsichtlich der Energie-Effizienz?
Wie programmiert man Software von Anfang an so, dass sie die beteiligte Hardware nicht mehr als unbedingt nötig aktiviert, um die anstehende Aufgabe zu bewältigen?
Und wie misst man das alles wirklich genau?
Dazu gab es nicht nur Vorträge, sondern auch Workshops, bei denen die Teilnehmerschaft selbst an praktischen Beispielen sehen konnte, wie solche Mechanismen funktionieren. Schließlich, so Arne Tarara, Mitorganisator der Konferenz und Gründer der Softwareschmiede Green Coding Solutions: „Wir wollen Action und einen Unterschied machen.“
IEEE wird aktiv
Irene Kitsara, Direktorin der europäischen Standardisierungsinitiative bei der Standardisierungsorganisation IEEE, verwies auf das von der IEEE gegründete neue Technology Climate Center der IEEE in Wien. Das Zentrum gehört zu den Sponsoren der Konferenz. Kitsara betonte: „Die Zeit wird knapp, wir müssen vorwärts kommen!“
Ganz in diesem Sinn ging es vor allem um sehr pragmatische Themen. So berichteten einige große Unternehmen wie UBS, Siemens und Lufthansa Systems von ihren Bemühungen, mit Hilfe digitaler Mittel Kohlendioxid und Energie zu sparen und ein realistisches Reporting aufzubauen. Gleichzeitig wird oft auch die IT optimiert.
AI funktioniert auch mit weniger Energie
Sehr eindrucksvoll war der Bericht von Adesso zum Vorgehen bei der Optimierung eines energiefressenden AI-Systems. Yelle Lieder, Green IT Lead bei Adesso SE, konnte auf 34 Prozent Kosteneinsparung, 48 Prozent weniger Kohlendioxid und 30 Prozent weniger verwendete Daten verweisen. Zusätzlich sank die mittlere Fehlerwahrscheinlichkeit von 22 auf 7 Prozent.
Auf der münchner Veranstaltung „Ecocompute“ haben sich im April viele IT-Spezialisten getroffen, die die IT Energie-effizienter hinbekommen wollen.
(Bild: Rüdiger)
Um das zu erreichen, wurden beispielsweise die Rhythmen des Modell- Retrainings angepasst: Nur, was sich entsprechend schnell ändert, wird wöchentlich retrainiert, die übrigen Module je nach Bedarf seltener. Außerdem werden Modell-Nachtrainingsläufe in Zeiten gelegt, in denen Ressourcen brachliegen, statt in Spitzenzeiten dafür neue Ressourcen zuzukaufen.
Bei den Modellen wurde auf die Auswahl solcher geachtet, die weniger Energie verbrauchen, aber trotzdem für die Anwendung tauglich sind. Bei den Daten wurden sorgfältig obsolete Daten markiert und beseitigt. Nur nachweislich fürs Thema nützliche Daten wurden verwendet.
Zudem scheint noch mehr drin zu sein. Denn der Kauf Energie-effizienter Hardware wurde in dem bisherigen Vorgehen noch gar nicht berücksichtigt.
Optimierungspotentiale in Linux
Interessant für den Rechenzentrumspraktiker ist sicher, wie man das in Datacenter weit verbreitete Betriebssystem Linux auch in Embedded-Systemen so optimieren kann, dass es möglichst wenig Energie verbraucht. Hagen Paul Pfeifer, Chief Software Architect beim Messtechnik-Anbieter Rohde & Schwarz, benannte die dazu möglichen Grundmethoden: „Teile abschalten, also: CPU-Cores aus, Teile runterschalten, also: CPU-Cores heruntertakten und Algorithmen optimieren.“
Um die Energieverbräuche einzelner Komponenten und den Einfluss solcher Maßnahmen zu messen, gebe es inzwischen diverse Messlösungen, etwa den „Xiolix Power Estimator“. Andere Hersteller bieten Ähnliches an.
Ohne gute Hardware nutzt Software nichts
Der Kern sei aber, von Anfang an sorgfältig entwickelte Hardware auszuwählen. „Denn schlecht entwickelte Hardware kann kein Software-Stack kompensieren“, betonte Pfeifer.
Wichtige Faktoren sind die IT- beziehungsweise Prozessorarchitektur (hier kommen bei Embedded Anwendungen auch FPGAs und ASICs in Frage) beziehungsweise sie zu bewerten, etwa anhand der Werte für GFlops/Watt. Weitere Faktoren sind die unterschiedlichen Energiemodi einer CPU, zum Beispiel unterschiedliche Sleep-Modi oder dynamische Spannungs- und Frequenzanpassung, DVFS).
Weitere Themen sind die Interconnects, die fürs Deep Learning verwendet werden, Art und Konfiguration des Arbeitsspeichers, die verwendete Vernetzung, ob ein Transformator vorhanden ist und wie ein System gekühlt wird. Denn je heißer ein System wird, desto höher sind die Leckstöme.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Energie-Management-Tools in Linux
Für die Energie-Analyse bietet Linux selbst mehrere Tools an:
„Powertop“ zeigt eine dynamische Echtzeitsicht des Stromverbrauchs eines Systems und schlägt geeignete Optimierungsmethoden vor.
„Perf“ bietet besonders detaillierte Daten auch für die Task-Analyse.
„Sysfs“, das virtuelle Filesystem, exportiert Informationen über Devices und ihre Treiber. Außerdem eröffnet diese Standardschnittstelle Zugriff auf viele Linux-Subsysteme für das Energie-Management.
Besonders wichtig ist laut Pfeifer die Erfassung der Stromverbräuche einzelner Tasks. Denn Jobs werden als Tasks auf der CPU ausgeführt. Das heißt: Um den Stromverbrauch eines Jobs zu verstehen, muss man wissen, wann die einzelnen Tasks auf welcher CPU ablaufen.
Lastverteilung der Tasks kann Energieverbrauch reduzieren
Die Verteilung der Lasten auf die einzelnen Cores kann dann erhebliche Energie-Effekte haben. So verbrauchen Tasks, die oft hochfahren, aber nur kurz rechnen, viel Energie, die sich durch einen geschickteren Ablauf einsparen ließe.
„Kernelshark“ zeigt, wie die Tasks einer Last auf einzelne Prozessoren verteilt werden. Diese Verteilung lässt sich optimieren, um Energie zu sparen.
(Bild: Rohde & Schwarz)
Die dynamische Anpassung von Frequenz und Spannung kann man aus Linux heraus über den „CPUFreq Driver“ und den „CPUFreq Governor“ steuern. Dabei interagiert der Treiber mit der Harrdware, während der Governor die Regeln setzt. Die Arbeit mit diesen Tools erfordert viel Detailwissen und -analyse, kann sich aber am Ende energetisch erheblich lohnen, etwa wenn unnützes Idlen von Systemkomponenten durch geschickte Task-Verteilung vermieden wird.
Microservices sind Energieverschwender
Ein Vortrag von David Kopp, basierend auf einer Masterarbeit an der Uni Stuttgart in Kooperation mit Envite Consulting GmbH, verglich den Energieverbrauch der Nutzung eines Multi-Komponenten-Monolithen mit denen einer Mikroservice-basierten Kubernetes-Plattform. Das sicherlich für viele überraschende Ergebnis: Mikroservices sind energetisch durchaus nicht vorteilhaft.
Mikroservices versus modularer Monolith: Die Mikroservice-Architektur verbraucht wegen des Kommunikationsaufwandes mehr Energie.
(Bild: Universität Stuttgart/Envite/Kopp)
Simuliert wurde für die Mikroservices ein Online-Teeladen entsprechend dem „T2-Projekt“. Der modulare Monolith hatte dieselben Module wie die Webservices-Architektur. Als Messumgebung wurden das „Green Metrics“ Tool von Green Coding und für die Kubernetes-basierte Mikroservice-Umgebung „Kepler“ (Kubernetes Efficient Power Level Exporter) verwendet.
Zu viel Kommunikation
Der Grund dafür ist der erhebliche Kommunikationsaufwand, den die Mikroservice-basierte Architektur verursacht. Sie lohnt sich wegen ihres höheren Durchsatzes, so das Ergebnis, energetisch nur bei ebenfalls hohem Durchsatz der entsprechenden Anwendung. Ansonsten entsteht durch die Kommunikation bei Microservices ein erheblicher energetischer Overhead.
Fazit: Schon die wenigen Beispiele zeigen, dass energiebewusstes Design und energiebewusster Betrieb vor allem eins erfordern: Zeit und Sorgfalt. Beides kostet Geld, aber dieses wird man irgendwann sowieso investieren müssen - entweder in sorgfältige Entwicklung und Konfiguration von Hard- und Software oder in Kohlendioxid-Abgaben und Stromkosten.