Steigender Energiebedarf erfordert Umdenken Zeit für nachhaltigere KI-Modelle?

Von Christoph Ertl, Solutions Architect von Nasuni 5 min Lesedauer

Anbieter zum Thema

Im Zuge des zunehmenden KI-Einsatzes rückt auch das Thema Nachhaltigkeit in den Fokus der Rechenzentrumsbetreiber. Der immense Energiebedarf erfordert neue Ideen und Strategien, um langfristig tragbar zu sein. Der Hybrid-Cloud-Spezialist Nasuni hat sich detailliert mit diesem Thema auseinandergesetzt.

Der in Zeiten von KI deutlich ansteigende Energiebedarf von Rechenzentren erfordert neue Strategien.(Bild:  Cliff Hang /  Pixabay)
Der in Zeiten von KI deutlich ansteigende Energiebedarf von Rechenzentren erfordert neue Strategien.
(Bild: Cliff Hang / Pixabay)

Der Energiebedarf von KI steigt rapide. Moderne KI-Modelle wie ChatGPT, Claude und Gemini nutzen die Rechenleistung riesiger Rechenzentren. Die Grafikprozessoren (GPUs), auf denen fortschrittliche KI-Modelle betrieben werden, benötigen deutlich mehr Prozessoren (CPU) als herkömmliche Rechenarbeit – GPUs stellen vier- bis fünfzehnmal höhere Rechenanforderungen.

Die Internationale Energieagentur (IEA) schätzt bereits, dass eine Google-Suchanfrage mit integrierter KI, einschließlich einer LLM-gestützten Zusammenfassung der gescannten Seiten, zehnmal so viel Energie verbraucht wie eine traditionelle Suchanfrage.

Das Trainieren der Grundmodelle, auf die sich die neuesten KI-Tools stützen, wird immer energieintensiver, wobei der Bedarf jährlich um das Vier- bis Fünffache steigt. Es ist kein Wunder, dass die IEA auch vorhersagt, dass sich der Strombedarf der Rechenzentren weltweit bis 2026 verdoppeln könnte.

Angesichts der drastischen Auswirkungen des menschengemachten Klimawandels auf unseren Planeten - sei es durch zunehmende Hitzeperioden, Dürren, Überflutungen und andere extreme Wetterereignisse - können wir diesen Weg nicht weitergehen.

Es stimmt, die Hyperscaler der Tech-Branche haben sich ehrgeizige Ziele gesetzt, um ihre Abhängigkeit von herkömmlichem, mit fossilen Brennstoffen erzeugtem Strom für die Energieversorgung und von Wasser für die Kühlung ihrer Rechenzentren zu verringern. Diese Nachhaltigkeitsbemühungen sind jedoch ins Stocken geraten, was zum Teil auf die rasche Expansion von Rechenzentren zur Deckung der Nachfrage nach Cloud-Diensten und das unerwartet stark gestiegene Interesse an energieintensiver KI in den letzten 18 Monaten zurückzuführen ist. Während Amazon angibt, seine Klimaneutralitätsziele erreicht zu haben, sprechen Google und Microsoft in ihren jüngsten Nachhaltigkeitsberichten von einem deutlichen Anstieg der Emissionen.

Als Innovatoren, Entwickler und Anwender müssen wir mehr tun, um diesen Trends zu begegnen und sie abzuschwächen. Möglicherweise müssen wir jedoch unsere Prioritäten und Strategien früher neu ausrichten, als viele in der Branche erwarten. Diese fünf Wege sollten beschritten werden, um diesen Wandel zu gestalten.

Smarte KI-Bereitstellung

Man kann selektiv vorgehen. Wenn zum Beispiel der Gehweg vor dem eigenen Haus einige Zentimeter hoch verschneit ist, reicht eine Schaufel aus, um das Problem zu lösen. Eine Schneefräse ist nicht nötig. Ebenso müssen Unternehmen keine technisch überdimensionierten KI-Engines einsetzen, um einfache Aufgaben zu lösen. Die von Gemini generierten Zusammenfassungen, die bei einigen Google-Suchen ganz oben angezeigt werden, sind ein gutes Beispiel für eine selektive, nicht missionskritische Anwendung.

Sucht man nach etwas Einfachem und Bestimmtem, erscheinen einige der üblichen Verlinkungen zu Webseiten. Wird die Suchanfrage jedoch erweitert, erscheint oben eine KI-Zusammenfassung, die aus einer Liste relevanter Seiten generiert wurde. Aber selbst hier ist es fraglich, ob ein energieintensives LLM verwendet werden muss. Ist dieses Maß an Intelligenz wirklich notwendig, wenn man bedenkt, wie gut die traditionelle Suche seit Jahren funktioniert?

Kleinere KI-Modelle

Dieser Beitrag wurde, wie viele andere, in Microsoft Word verfasst. Das Programm ist zwar im Laufe der Jahre immer ausgereifter geworden, aber auch die Rechenanforderungen sind gestiegen. Die erste Version von MS Word, die 1990 für Windows veröffentlicht wurde, benötigte 640 KB RAM. Heutzutage empfehlen PC-Hersteller einen verfügbaren Arbeitsspeicher von mehr als 4 GB RAM. Sicher, die moderne Version ist besser, aber ist sie wirklich 6.400-mal besser?

In einer Zeit, in der der Klimawandel immer spürbarer wird, können wir nicht zulassen, dass KI-Modelle für Unternehmen denselben Weg einschlagen. Die nächste Generation von KI-Tools sollte nicht nur für kritische Aufgaben eingesetzt werden, sondern auch mit Blick auf Energieeffizienz entwickelt werden. Die Größe des Kontextfensters und die Leistungsbenchmarks sollten nicht die einzigen Gradmesser für Fortschritt sein. Wir brauchen kleinere, effizientere Sprachmodelle, die für bestimmte Aufgaben genau richtig dimensioniert sind und nur so viel Rechenleistung benötigen, wie nötig ist, um effiziente Ergebnisse zu erzielen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Der Weg zu nachhaltigen Rechenlösungen

Dieses Prinzip sollte keine wirkliche Überraschung sein, aber KI selbst kann dazu beitragen, dieses Energiedefizit zu verringern, wenn sie sinnvoll eingesetzt wird. Forscher und Unternehmen könnten KI-Tools nutzen, um Verluste bei der Energieverteilung im Stromnetz zu überwachen und zu reduzieren, neue und nachhaltigere Materialien für den Einsatz in Rechenzentren zu identifizieren oder energieeffizientere Chips zu entwickeln.

Google behauptet, einer seiner neuen Chips sei 67 % energieeffizienter als frühere Versionen und es seien Prozessverbesserungen identifiziert worden, die den Energiebedarf für das Training eines Modells um das Hundertfache reduzieren können. Diese Art von ausgeklügelter Berechnung und Energieeinsparung bei großen Sprachmodellen muss von allen gemeinsam vorangetrieben werden.

Ausbau erneuerbarer Optionen

Da der Energiebedarf in der Tech-Branche weiter steigt, müssen wir möglicherweise über Wind- und Solarenergie hinausdenken, um den schnell wachsenden Bedarf mit CO2-freundlichen Energiequellen, einschließlich Geothermie und Kernenergie, zu decken. Letztere Option ist aus gutem Grund eine umstrittene Technologie, insbesondere da die Industrie seit vielen Jahrzehnten Kraftwerke weitgehend auf die gleiche Weise konzipiert. Eine mögliche Lösung, die von mehreren führenden Herstellern in den USA, China und in Europa bereits geplant und umgesetzt werden, sind kleinere modulare Reaktoren (SMR).

Optimieren und regulieren

Angesichts der weltweiten Herausforderung des Klimawandels sollte ein so energie- und wasserintensiver Rechenprozess, optimiert und reguliert werden. Wir sollten es nicht einzelnen Unternehmen überlassen, zu entscheiden, wie viel Strom und Frischwasser sie verbrauchen – vor allem nicht, wenn es sich bei beiden um knappe Ressourcen handelt. Wir müssen vernünftige Grenzwerte und pragmatische Kontrollen festlegen, die den Energiebedarf der Hyperscaler mit dem der umliegenden Gemeinden und Länder, in denen sich ihre Rechenzentren befinden, in Einklang bringen.

Die Befürchtungen in Bezug auf die Fähigkeiten der KI konzentrieren sich in der Regel auf superintelligente Maschinen, die ihre eigenen Ziele entwickeln. Die Risiken, die sich aus dem schnell wachsenden Energiebedarf der KI ergeben, sind jedoch ebenso wichtig und dringlich, und wir können den Kopf nicht in den „Tech-Sand“ stecken und diesen entscheidenden Risikofaktor nicht analysieren und angehen.

Energieprobleme von KI jetzt angehen

Es reicht nicht aus, die Fähigkeiten dieser KI-Modelle zu bewundern. Ihre Auswirkungen auf das Versorgungsnetz müssen mit analysiert werden. Der Energiehunger der KI ist ein Problem, mit dem sich die Verantwortlichen in den Unternehmen jetzt auseinandersetzen müssen, bevor es noch schlimmer wird.

(ID:50236575)