AI jenseits der hyperscale und hyperteuer Angebote Edge-Rechenzentren erschließen die Zukunft Künstlicher Intelligenz

Von Chad McCarthy* 6 min Lesedauer

Anbieter zum Thema

Künstliche Intelligenz (KI) verändert zahlreiche Branchen. Um ihr Potenzial voll auszuschöpfen, braucht sie jedoch die richtige Infrastruktur – hier kommen Edge-Rechenzentren ins Spiel.

Für KI-Leistung in Echtzeit, Kosteneinsparungen und eine nachhaltigeren Zukunft sind Edge-Rechenzentren unerlässlich. (Bild:  Yucel Yilmaz - stock.adobe.com)
Für KI-Leistung in Echtzeit, Kosteneinsparungen und eine nachhaltigeren Zukunft sind Edge-Rechenzentren unerlässlich.
(Bild: Yucel Yilmaz - stock.adobe.com)

KI ist im Begriff, nahezu jede Branche zu revolutionieren. Anwendungen wie virtuelle Assistenten, Echtzeitübersetzung und generative KI – einschließlich Large Language Models wie „ChatGPT“ – zeigen das immense Potenzial dieser Technologie. KI ist heute nicht mehr nur ein Forschungsthema, sondern ein integraler Bestandteil von Bereichen wie dem Gesundheitswesen, dem Verkehr und der Industrie.

Diese Fortschritte bedingen jedoch auch neue Herausforderungen: KI-Systeme benötigen enorme Rechenressourcen und erzeugen riesige Datenmengen, was zu einem exponentiell steigenden Energieverbrauch führt und die bestehende IT-Infrastruktur belastet.

Ein Blick auf die neueste GPU-Generation (siehe: „Die GPU Technology Conference 2025 sprengt erneut Leistungsgrenzen; Nvidia stellt DIE Infrastruktur fürs AI-Zeitalter in Aussicht“von Nvidia zeigt, wie dramatisch dieser Bedarf steigt: Standard-OEM-Baugruppen dieser GPUs benötigen schon jetzt bis zu 120 Kilowatt (kW) pro Rack – weit mehr als herkömmliche Unternehmens- oder Cloud-Racks, die etwa zwischen 3 und 10 kW/Rack verbrauchen - es deuten sich aber bereits Racks mit je 350 kW, mit 600 kW und mehr an.

Darüber hinaus verbrauchen generative KI-Modelle etwa 33 Mal mehr Energie als herkömmliche Büro- oder Cloud-Systeme. Um mit dieser wachsenden Nachfrage Schritt halten zu können, ist eine Umstellung der Infrastruktur erforderlich.

Warum traditionelle Rechenzentren an ihre Grenzen stoßen

Für das ressourcenintensive KI-Training großer Sprachmodelle ist eine neue Generation von Mega-Rechenzentren entstanden. Die nutzbare Seite der KI liegt jedoch in der Inferenz, bei der vorab trainierte KI-Modelle neue Inhalte erstellen, Entscheidungen in Echtzeit treffen und Arbeitsabläufe in vielen Branchen automatisieren. Diese generative KI ist sichtbar und schafft einen echten Wert für Unternehmen, indem sie den Bedarf an Rechenleistung innerhalb des lokalen Datenökosystems beschleunigt.

Betrachtet man die neuesten Entwicklungen rund um die chinesische KI-Plattform „Deepseek“, wird deutlich, dass die Zukunft der KI hocheffizienten Trainingsmethoden gehört, die nicht mehr ausschließlich von riesigen, kapitalintensiven Mega-Rechenzentren abhängig sind (siehe auch: „KI auf Diät; Neue Trainingsmethode für Neuronale Netze reduziert den Strombedarf deutlich“. Stattdessen können sowohl das Training als auch die Inferenz dieser Modelle mithilfe von verteilten Edge-Rechenzentren durchgeführt werden, wodurch die Infrastrukturbelastung von den fünf wichtigsten FLAP-D-Standorten verlagert wird und ein dezentraler Ansatz bei gleichzeitiger Wahrung der Skalierbarkeit ermöglicht wird.

Edge-Rechenzentren als Lösung für Echtzeit-Inferenz und Skalierbarkeit

Edge-Rechenzentren spielen eine zentrale Rolle bei der Inferenz von KI-Modellen, indem sie Latenz minimieren und eine effiziente Echtzeit-Datenverarbeitung ermöglichen. Während das initiale Training nach wie vor in zentralisierten Rechenzentren stattfindet, bietet die Kombination aus zentralen und dezentralen Strukturen eine optimale Balance zwischen Rechenleistung und Effizienz.

Doch KI-Modelle müssen zunehmend auch angepasst werden. Dieser Prozess, bekannt als Live-Lernen, ermöglicht es, Modelle fortlaufend auf neue Daten zu optimieren. Hier kommen Edge-Rechenzentren erneut ins Spiel: Sie ermöglichen kontinuierliches Lernen direkt an der Datenquelle, wodurch die Datenübertragung reduziert und die lokale Anpassungsfähigkeit verbessert wird.

Darüber hinaus passen kleinere, verteilte Arbeitslasten besser zur Versorgungsinfrastruktur von Edge-Rechenzentren. Der Strombedarf von KI-Arbeitslasten kann dort besser mit den verfügbaren Versorgungsanschlüssen und erneuerbaren Energiequellen in Einklang gebracht werden. Gleichzeitig werden Nachhaltigkeitsinitiativen wie die lokale Rückgewinnung und Wiederverwendung von Abwärme ermöglicht – in zentralen Rechenzentren mit einer Leistung von etwa 1 Terawatt (tW) sind solche Maßnahmen aufgrund von eingeschränkten Möglichkeiten beim Wärmetransport unrealisierbar.

Stromverfügbarkeit und die Rolle erneuerbarer Energien

Einer der größten Vorteile von Edge-Rechenzentren ist ihre Fähigkeit, die Rechenleistung der KI an die verfügbare Energie anzupassen. Im Gegensatz zu zentralisierten Rechenzentren, die eine massive Infrastruktur erfordern und oft durch das regionale Stromnetz eingeschränkt sind, können Edge-Rechenzentren strategisch an Orten platziert werden, an denen erneuerbare Energiequellen häufiger vorkommen und die Möglichkeiten etwa zur Wärmerückgewinnung größer sind. Dies ermöglicht ein nachhaltigeres Rechenmodell, verringert die Abhängigkeit von kohlenstoffintensiver Energie und macht KI-Computing umweltfreundlicher.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die enorme Abwärme, die große zentralisierte Rechenzentren bei der Verarbeitung von KI-Workloads erzeugen, ist ebenfalls eine große Herausforderung. Aufgrund der Schwierigkeiten, Wärme-Energie über große Entfernungen zu transportieren, wird der Großteil davon verschwendet. I

m Gegensatz dazu ermöglichen kleinere, dezentrale Edge-Rechenzentren eine lokale Wärmerückgewinnung, die zur Beheizung von Wohngebieten, Bürogebäuden oder Industrie-Anlagen in der Nähe genutzt werden kann. Dieser Ansatz verbessert nicht nur die Energie-Effizienz des Rechenzentrums, sondern bietet auch greifbare wirtschaftliche und ökologische Vorteile für die umliegenden Gemeinden und Gewerbe.

Skalierbarkeit durch verteiltes Rechnen und parallele Verarbeitung

Die steigende Nachfrage nach KI-Rechenleistung erfordert eine skalierbare Infrastruktur, die Arbeitslasten effizient verteilen kann, anstatt eine einzelne, zentralisierte Einrichtung zu überlasten. Edge-Rechenzentren unterstützen die parallele Verarbeitung, sodass KI-Workloads dynamisch auf mehrere Standorte verteilt werden können, wodurch Skalierbarkeit ohne Engpässe gewährleistet wird. Durch die Bündelung der Rechenleistung in einem Netzwerk verteilter Rechenzentren können Unternehmen die Verarbeitungseffizienz steigern und gleichzeitig die Gesamtbelastung der Infrastruktur reduzieren.

Reduzierung der Kosten für den Datentransport und Erhöhung des Gesamtvolumens an Datenbewegung

Letztendlich sind Unternehmen die Hauptnutzer von KI und setzen KI-gestützte Anwendungen ein, um ihre Effizienz zu steigern, Prozesse zu automatisieren und Innovationen voranzutreiben. Je mehr Daten jedoch über weite Strecken transportiert werden müssen, desto höher sind die Kosten.

Edge Computing minimiert unnötigen Datentransport und ermöglicht es Unternehmen, Informationen näher an dem Ort zu verarbeiten, an dem sie generiert und genutzt werden. Dies senkt nicht nur die Transportkosten, sondern ermöglicht auch ein höheres Gesamtvolumen an Datenbewegungen, wodurch intensivere KI-Anwendungen unterstützt werden, ohne dass die Unternehmen dabei höhere Kosten tragen müssen.

Niedrigere Latenz für leistungsstarke KI-Anwendungen

Einer der wichtigsten Vorteile von Edge-Rechenzentren ist schließlich ihre Fähigkeit, die Latenzzeit drastisch zu reduzieren. KI-Anwendungen wie Augmented Reality, Video-Inferenz, Gaming und KI-Echtzeit-Analysen erfordern Verarbeitungsgeschwindigkeiten von Sekundenbruchteilen, um effektiv zu funktionieren. Ein Paradebeispiel hierfür ist die vorausschauende Wartung in der Fertigung, bei der die KI mithilfe der Echtzeit-Datenverarbeitung Anomalien erkennen, Geräteausfälle vorhersehen und die Produktionseffizienz optimieren kann, bevor Probleme auftreten.

Bei herkömmlichen zentralisierten Rechenzentren kommt es aufgrund der physischen Entfernung, die Daten zurücklegen müssen, zu unnötigen Verzögerungen. Durch die Bereitstellung einer Recheninfrastruktur in der Nähe der Endnutzer bieten Edge-Rechenzentren ultraschnelle Reaktionszeiten und sind daher besonders geeignet für datenintensive KI-Anwendungen, die sofortige Entscheidungsfindung und Interaktion erfordern.

Die nächste Generation von KI mit Edge-Rechenzentren

Die rasante Entwicklung im Bereich der Künstlichen Intelligenz erfordert ein grundlegendes Überdenken der Infrastruktur von Rechenzentren. Während Mega-Rechenzentren für das KI-Training nach wie vor unerlässlich sind, bieten sie möglicherweise nicht immer das beste Gleichgewicht zwischen Skalierbarkeit, Latenz und Effizienz für die KI-Inferenz. Ein hybrider Ansatz, der zentrale und dezentrale Rechenzentren kombiniert, bietet genau dieses Gleichgewicht und bringt die KI-Datenverarbeitung näher an den Ort, an dem sie am dringendsten benötigt wird, während die Stärken beider Modelle genutzt werden.

Durch die Nutzung erneuerbarer Energiequellen, die Ermöglichung der Wärmerückgewinnung, die Senkung der Datentransportkosten und die Verringerung der Latenzzeiten stellen Edge-Rechenzentren sicher, dass KI-Arbeitslasten mit maximaler Effizienz und minimaler Umweltbelastung bewältigt werden. Da KI-Einführung in allen Branchen weiter zunimmt, wird ein verteilter Rechenansatz der Schlüssel zur Erschließung von KI-Leistung in Echtzeit, Kosteneinsparungen für Unternehmen und einer nachhaltigeren Zukunft sein.

*Der Autor
Chad McCarthy ist Mitgründer und CTO von Nlighten, eine digitale Infrastrukturplattform und Vorreiter auf dem europäischen Markt für Rechenzentren. McCarthy ist ein Veteran der europäischen Rechenzentrumsbranche und war in führenden Positionen intern und als Berater für einige der weltweit größten Co-Location-Unternehmen tätig. Zuletzt war er Global Head of Engineering Development and Master Planning bei Equinix und maßgeblich an der Entwicklung der Equinix-Hyperscale-Plattform „Xscale“ beteiligt.

Bildquelle: Nlighten

Artikelfiles und Artikellinks

(ID:50362860)