Effiziente Architekturen für Künstliche Intelligenz Wer KI richtig nutzt, investiert in Basis-Infrastruktur

Ein Gastkommentar von Jeff Wittich* 2 min Lesedauer

Anbieter zum Thema

Anlässlich des gerade vergangenen „AI Appreciation Day“ am 16. Juli schenkt die Tech-Branche weltweit dem Thema Künstliche Intelligenz (KI) mehr Aufmerksamkeit. Jeff Wittich von Amprere Computing schreibt, was wirklich von Bedeutung in Sachen KI ist.

Die Branche bewegt sich weg von veralteten, energie-intensiven Architekturen hin zu zweckoptimierten Designs, die auf die KI-Anforderungen zugeschnitten sind.(Bild: ©  Starmarpro - stock.adobe.com)
Die Branche bewegt sich weg von veralteten, energie-intensiven Architekturen hin zu zweckoptimierten Designs, die auf die KI-Anforderungen zugeschnitten sind.
(Bild: © Starmarpro - stock.adobe.com)

KI wird gefürchtet und gefeiert. Dabei rücken häufig jedoch nur die erstaunlichen Fähigkeiten der Technologien ins Rampenlicht der Feierlichkeiten – von autonomen Systemen und Sprachmodellen bis hin zu Echtzeitentscheidungen. Allerdings beginnt die Wertschätzung für KI bereits tiefer, und zwar auf Infrastrukturebene. Sie macht den Fortschritt erst möglich.

Denn KI baut nicht allein auf Modellen auf. Die Technologien sind auf eine gigantische Rechenleistung angewiesen, die über zunehmend verteilte Umgebungen fließt. Da KI-Workloads immer größere Dimensionen annehmen und komplexer werden, hat der Energiebedarf von Rechenzentren einen kritischen Wendepunkt erreicht.

Laut der International Energy Agency (IEA) erreichte der globale Verbrauch durch Rechenzentren im Jahr 2022 rund 460 Terawattstunde (TWh). Bis 2026 soll sich dieser Wert sogar verdoppeln, was vor allem auf KI-Workloads zurückzuführen ist. In einigen Regionen sind KI-Rechenzentren auf dem besten Weg, den Energiebedarf ganzer Städte zu übersteigen.

Würden Verbrauch und Bedarf hierzulande in diesem Tempo weiter steigen, benötigten Rechenzentren im Jahr 2030 doppelt so viel Energie wie 2024 in Deutschland 2024 insgesamt verbraucht hat. Ohne eine Veränderung hin zu einer Energie-effizienteren Datenverarbeitung steht die Nachhaltigkeit von KI-Technologien auf dem Spiel.

Um KI langfristig zu unterstützen, muss die Infrastruktur künftig:

  • skalierbar sein und so exponentiell wachsenden Rechenbedarf abdecken.
  • eine für die Echtzeitverarbeitung fortgeschrittener Modelle notwendige hohe Leistung aufbringen können.
  • Nachhaltigkeit fördern, damit sowohl der Energieverbrauch als auch der Kohlenstoffausstoß über den gesamten Stack hinweg reduziert werden können.

Eine neue Generation von Prozessoren macht derzeit von sich reden, die den Anforderungen moderner KI-Infrastrukturen entsprechen soll. Speziell für Cloud-Umgebungen konzipiert, verbinden und priorisieren sie Energie-Effizienz, konstante Leistung und Skalierbarkeit. Mit jedem Schritt, mit dem sich die Branche von Legacy-Architekturen entfernt, setzt sie zunehmend auf Designs, die Energiemehraufwand reduzieren, Leistungsschwankungen minimieren und die Anforderungen verteilter, inferenzlastiger Workloads gezielt adressieren. Dadurch lässt sich KI nachhaltiger über Rechenzentren, unternehmensweiten Implementierungen und Edge-Umgebungen hinweg skalieren.

Für Unternehmen, die KI unternehmensweit bereitstellen, ist eine effiziente Architektur schon lange kein Nice-to-have mehr, sondern ein strategisches Unterscheidungsmerkmal.

Diese Innovation macht deutlich, dass ein breiterer Wandel innerhalb der Branche stattfindet: weg von veralteten, Energie-intensiven Architekturen hin zu zweckoptimierten Designs, die auf die Anforderungen moderner KI zugeschnitten sind. Für Unternehmen, die KI unternehmensweit bereitstellen, ist eine effiziente Architektur schon lange kein Nice-to-have mehr, sondern ein strategisches Unterscheidungsmerkmal. Bei gleichem Energieverbrauch ermöglichen moderne Prozessoren mehr Leistung und senken so sowohl die Betriebskosten als auch die Umweltbelastung.

In dieser Woche sollten wir mehr feiern als den KI-Fortschritt. Wir müssen das Thema weiter ausweiten. Während sich die Technologie unaufhaltsam weiterentwickelt, hängt ihr Erfolg nicht nur von intelligenteren Modellen, sondern auch von besseren Infrastrukturen ab, die sie mit der nötigen Energie versorgen. Jetzt ist der ideale Moment, in eine Computing-Infrastruktur zu investieren, die KI verantwortungsvoll und im großen Stil in die Zukunft führt.

*Jeff Wittich ist Chief Product Officer bei Ampere Computing

Bildquelle: Ampere

Artikelfiles und Artikellinks

(ID:50489375)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung