Clean IT-Tagung Hasso-Plattner-Institut für Digitales Engineering Potsdam Akademischer Austausch: Zurück zu Moore's Law!

Von lic.rer.publ. Ariane Rüdiger Lesedauer: 4 min |

Anbieter zum Thema

Angesichts stromfressender Anwendungen und des langen Abschieds von fossilen Energieträgern wird die höchstmögliche Effizienz von IT-Systemen dringlicher. Eine neue Initiative will wieder zurück auf den Effizienzsteigerungspfad von Moore's Law.

In den nächsten 20 Jahren möchten die Unterzeichner der EES2-Verpflichtungserklärung die Effizienz von Halbleitern um den Faktor 1000 steigern.
In den nächsten 20 Jahren möchten die Unterzeichner der EES2-Verpflichtungserklärung die Effizienz von Halbleitern um den Faktor 1000 steigern.
(Bild: HPI)

Zum zweiten Mal stand 'Clean IT' im Mittelpunkt einer Tagung des Potsdamer Hasso-Plattner-Instituts für Digital Engineering. Spezialisten aus den USA und Deutschland waren nach Potsdam gekommen, um sich insbesondere über den Einfluss von Mikroelektronik, IT und AI auf die Nachhaltigkeit digitaler Systeme auszutauschen. Wie groß ist ihre Energie-Effizienz, wie kann man sie steigern und was intelligente Systeme zu mehr Nachhaltigkeit in anderern Wirtschaftsbranchen beitragen?

Die Dringlichkeit der Fragen machte in seiner Eröffnungsansprache Professor Ralf Herbrich deutlich. Er leitet das Potsdamer HPI. „Ein AI-Modell zu trainieren, kann heute so viel Energie verschlingen wie fünf Autos über ihren gesamten Lebenszyklus hinweg“, rechnete er vor. Dagegen müsse etwas getan werden.

Unsichere Zahlen

Freilich, so stellte sich während eines Panels heraus, sind gerade die Zahlen bezüglich des klimatischen Einflusses der IT eher unsicher. Lynn Kaack, Head of Computer Science and Public Policy an der Hertie School: „Wir brauchen mehr Forschung denn die Zahlen weichen voneinander ab und die Dynamik der Entwicklung ist noch nicht gut verstanden.“

Professor Johan Rockström, Direktor des Potsdamer Instituts für Klimaforschung (PIK) wies darauf hin, dass KI sich anders als etwa die Luftfahrt auf dem „elektrischen Pfad“ befinde. Denn die Erzeugung erneuerbaren Stroms verdoppele sich alle fünf Jahre. Es komme darauf an, wie man AI anwende.

Das Glas halb voll oder halb leer?

Professor Berhhard Schölkopf, Direktor für empirische Inferenz des Max-Planck-Instituts für intelligente Systeme, beklagte, dass die Kultur der gemeinsamen Wissensproduktion in der AI seit Microsofts Open-AI-Vorstoß verloren gehe und damit auch die dadurch in den Forschungsprozess eingebauten Kontrollmechanismen.

Optimistischer zeigte sich John Platt, Distinguished Scientist bei Google. Es gebe viele industrielle Prozesse, bei denen AI weit mehr Nutzen bringe als sie selbst an Energie verschlinge, beispielsweise bei der Optimierung industrieller Produktionsprozesse oder beim Erd-Monitoring.

Intelligentes Erd-Monitoring schützt Wald

Rockström konnte hier ein Beispiel beisteuern. Fortschrittliches Erdmonitoring könne sehr frühzeitig den Bau von neuen, nicht genehmigten Straßen in bislang unerschlossene Urwaldgebiete aufdecken. Sie bilden regelmäßig den ersten Schritt zur Zerstörung dieser Urwälder.

Panel zum Klimaeinfluss von Organisationen. Moderation: Prof. Dr. Ralf Herbrich, HPI, (v.l.n.r.): Dr. John Platt, Google, Prof. Dr. Lynn Kaack, Hertie School, Prof. Dr. Johan Rockström,  Potsdamer Institut für Klimaforschung, Prof. Dr. Bernhard Schölkopf, MPI für Intelligente Systeme, Dr. Tina Marie Kaarsberg, US-Department of Energy
Panel zum Klimaeinfluss von Organisationen. Moderation: Prof. Dr. Ralf Herbrich, HPI, (v.l.n.r.): Dr. John Platt, Google, Prof. Dr. Lynn Kaack, Hertie School, Prof. Dr. Johan Rockström, Potsdamer Institut für Klimaforschung, Prof. Dr. Bernhard Schölkopf, MPI für Intelligente Systeme, Dr. Tina Marie Kaarsberg, US-Department of Energy
(Bild: HPI/Herschelmann)

Inzwischen würden solche durch Satelliten und Erdmodelle mit extrem hoher Auflösung zugänglich gemachten Informationen sofort an lokale Polizeidienststellen weitergereicht. Sie rücken dann aus und zerstören die illegalen Baumaschinen vor Ort.

Mehr Effizienz!

Trotz aller dieser Fortschritte wäre das ideale intelligente IT-System sicher Energie-effizienter als heutige Lösungen, da waren sich alle einig. Doch Abhilfe ist in Sicht oder wird zumindest mit Vehemenz angestrebt.

Als Keynote-Referentin war Tina Marie Kaarsberg angereist, die im US-Energieministerium (US Department of Energy) das Programm EEE2 ( Energy Efficiency Scaling 2) leitet. „Die Effizienz des gesamten Computing muss um Größenordnungen besser werden“, forderte sie.

„Schon eine Million mal effizienter geworden“

Das Ziel von EES2: In den nächsten 20 Jahren soll die Effizienz von IT-Systemen insgesamt um den Faktor 1000 steigen. Kaarsberg: „Wir müssen auf den Effizienzpfad von Moore's Law zurück.“ Dabei gelte es, den gesamten Stack – von den Materialien bis zu den Applikationen – zu betrachten. Besonders große Potentiale lägen heute bei der Software.

Kaarsberg ist überzeugt, dass das ohne Weiteres möglich ist. „Seit den Anfängen des Transistors ist die Effizienz ja bereits um das Millionenfache gestiegen, da sollte der Faktor 1.000 in den nächsten 20 Jahren kein Problem sein – man muss nur dranbleiben!“

Rückfall-Lösungen bereithalten

Zugleich forderte sie aber, man müsse Rückfall-Lösungen bereithalten für den Fall, dass digitale Lösungen einmal nicht verfügbar sind. „Wir sollten nicht alles Alte wegwerfen, zum Beispiel sollten unsere Schüler weiter lernen, auf Papier zu schreiben.“

Tunneling-Feldeffekttransistoren (TFET): Viel schneller und energieeffizienter als ihre CMOS-Vorläufer -vTFETs (vertikale TFETS) sind noch besser.
Tunneling-Feldeffekttransistoren (TFET): Viel schneller und energieeffizienter als ihre CMOS-Vorläufer -vTFETs (vertikale TFETS) sind noch besser.
(Bild: Intel)

Schließlich sei auch die IT möglicherweise durch die Klimakrise beeinflusst. Das gelte etwa dann, wenn nach wochen- oder monatelangen Hitzeperioden kein Kühlwasser mehr verfügbar sei.

Große Leistungsreserven

Als Beispiel dafür, was in Sachen Optimierung geht, führte Kaarsberg einen neuen Typ von Feldeffekttransistoren (FET), den so genannten vTFET, an. Das mit atomarer Präzision arbeitende Bauteil sei zehnfach effektiver als sein Vorläufer MOSFET (Metall-Oxid-Silizium-FET).

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Einige weitere Beispiele für Verbesserungsmöglichkeiten im Stack: Professor Christian Mayr, Lehrstuhl für hochparallele VLSI-Systeme und Neuro-Mikro-Elektronik, beklagte, das Training von Modellen brauche siebenmal mehr Energie als erforderlich.

Neuromorphes Computing: Inspiriert vom Gehirn

Der Spezialist befasst sich mit neuromorphem Computing. Darunter versteht man Datenverarbeitung, die versucht, die Mechanismen im Gehirn nachzuahmen. Nebenbei ist er Gründer der Spinncloud GmbH, einer Gründung, die an entsprechenden Designs arbeitet.

Mayr nennt drei wesentliche Unterschiede zur IT die das Gehirn unvergleichlich viel effizienter machen. Erstens liegen Compute und Daten, also Storage, nah beieinander. Zweitens brauche das Gehirn keine hochpräzisen und entsprechend langen und rechenintensiven Datenformate. „Das Gehirn arbeitet nicht mit sechzehn, sondern einem Bit Genauigkeit und kommt trotzdem zu guten Ergebnissen.“

Weniger rechnen, mehr generieren

Drittens arbeite das Gehirn in jedem Moment nur zu einem sehr geringen Anteil von etwa zehn Prozent. Der Rest ruhe. Dazu müsse auch Computerhardware in der Lage sein.

Auch Professor Sadasivan Shankar, technischer Forschungsmanager bei SLAC (Stanford Lab of Applied Computing) am Nationalen Beschleunigerlaboratorium (USA) zeigte sich überzeugt: „Wir rechnen zu viel, um an Informationen zu kommen.“

Prof. Dr. Ralf Herbrich und Dr. Tina Marie Kaarsberg unterzeichnen die Verpflichtung, die Effizienz von Mikroelektronik in den kommenden 20 Jahren um den Faktor 1000 zu verbessern.
Prof. Dr. Ralf Herbrich und Dr. Tina Marie Kaarsberg unterzeichnen die Verpflichtung, die Effizienz von Mikroelektronik in den kommenden 20 Jahren um den Faktor 1000 zu verbessern.
(Bild: HPI/Nicole Krüger)

So brauche man heute eine Million Flop/s (Fließkomma-Operationen pro Sekunde), um ein Bit neue Informationen zu generieren. Das gehe anderes und besser.

HPI widmet sich effektiven Algorithmen

Wie, damit wird sich nun auch in Potsdam beschäftigt: Mit dem Hasso-Plattner-Institut für Digitales Engineering unterzeichnete noch auf der Veranstaltung die erste wissenschaftliche Einrichtung in Deutschland die EES2-Verpflichtung. Dabei will sich das HPI besonders um das zum eigenen Schwerpunkt passende Thema „Optimierung von Algorithmen“ kümmern.

Die Hoffnung hinter EES2: Sollte die Verpflichtung die erwarteten Früchte tragen, könnte sie den Optimismus, der sich lange an die Fortschritte in der IT knüpfte, wieder beleben.

Artikelfiles und Artikellinks

(ID:49771159)