Verschnaufen ist verschoben 1,6T und mehr - die Rechenzentren im KI-Zeitalter

Von Carlo Mora und Cindy Ryborz* 5 min Lesedauer

Anbieter zum Thema

Der erste KI-Hype ist vorbei und die Rechenzentrumsbetreiber bekommen damit eine Verschnaufpause. Das stimmt so nicht. Im Gegenteil. Jetzt geht es erst richtig los. Als geneigter Beobachter lässt sich der Eindruck nicht vermeiden, dass kein Stein auf dem anderen bleibt - von den aktiven wie passiven Netzen bis zu Anwendungen und zur Compute-Power.

Wie teifgreifend KI die Rechenzentren verändert, zeigt sich erst jetzt. Glasfaser, Glasfaser, Glasfaser ist das Netztwerk-Credo im Allgemeinen, doch schon 2025 wird man erste 1,6T-Netzwerkgeschwindigkeiten basierend auf 2x800G-Kombitransceivern sehen können. (Bild:  stockphoto02 - stock.adobe.com / KI-generiert)
Wie teifgreifend KI die Rechenzentren verändert, zeigt sich erst jetzt. Glasfaser, Glasfaser, Glasfaser ist das Netztwerk-Credo im Allgemeinen, doch schon 2025 wird man erste 1,6T-Netzwerkgeschwindigkeiten basierend auf 2x800G-Kombitransceivern sehen können.
(Bild: stockphoto02 - stock.adobe.com / KI-generiert)

Im Jahr 2024 haben viele Organisationen erste Schritte in Richtung KI-Einführung unternommen, entweder durch Pilotprojekte und vollständige Umsetzung oder einfach durch die Entwicklung von KI-Strategien. Die McKinsey-Studie „Global Survey on AI: The state of AI in early 2024: Gen AI adoption spikes and starts to generate value“ vom 30. Mai 2024 ergab, dass 65 Prozent der befragten Organisationen regelmäßig generative KI einsetzen, fast doppelt so viele wie gemäß einer Umfrage 10 Monate zuvor. Obwohl dies einen signifikanten Anstieg gegenüber dem Vorjahr darstellt, zeigt eine separate Studie der Boston Consulting Group („BCG Research on AI Adoption: Where’s the Value in AI?“) vom 24. Oktober desselben Jahres, dass nur 22 Prozent der Unternehmen ihre KI-Strategie vollständig umsetzen konnten und erhebliche Gewinne verzeichnen.

Offensichtlich gibt es Fortschritte, doch es wird erwartet, dass das Jahr 2025 ein echter Wendepunkt für diese Technologien sein kann. Damit verstärkt sich aber auch die Diskussion über die Rolle der Rechenzentrumsbranche und den enormen Anstieg des Strombedarfs, den diese Entwicklung mit sich bringt.

Es ist klar, dass Betreiber von Rechenzentren sowie Unternehmen, die ihre KI-Kompetenzen nutzen oder ausbauen wollen, zeitnah einige wichtige Entscheidungen treffen müssen: von der Wahl des Designs bis hin zu den speziellen Komponenten, die sie zur Platzoptimierung einsetzen wollen. Schauen wir uns einige dieser Überlegungen detaillierter an.

Glasfaser, und zwar sehr viel Glasfaser

Ohne Glasfaser funktioniert das KI-Ökosystem nicht. Nur sie kann die hohen Anforderungen an Bandbreite, Dichte und Anpassungsfähigkeit erfüllen, die durch KI entstehen. Und es wird immer mehr davon benötigt, um dafür benötigte Netzwerk-Architekturen zu unterstützen.

Die gängige Spine-and-Leaf-Architektur, die in Rechenzentren mit verstärkter Ost-West-Kommunikation für eine hohe Netzwerkleistung bevorzugt wird, durchläuft eine signifikante Evolution, einschließlich des starken Anstiegs an Glasfaserbedarfs. Denn anders als in herkömmlichen Rechenzentren, müssen in KI-Rechenzentren Glasfasern bis zum GPU-NIC selbst verlegt werden, wobei eine zusätzliches Network Layer, das so genannte Back-End-Network, zum Einsatz kommt. Dadurch erhöht sich die Anzahl der Verbindungen von Gerät zu Gerät um etwa das Zehnfache pro Schrank.

Möglicherweise wird auch eine steigende Anzahl an Betreibern verschiedene Verbindungsmethoden nutzen, um die Netzwerkkapazität zu erweitern, einschließlich Weitverkehrsverbindungen zwischen Rechenzentrums-Campus. Auch das bedeutet den Einsatz von deutlich mehr Glasfasern.

Platzoptimierung gewinnt an Bedeutung

Mit diesem Bedarf an mehr Glasfasern geht die Notwendigkeit einher, den vorhandenen Platz bestmöglich zu nutzen und auch Kapazitäten für langfristiges Wachstum zu schaffen. Dies wird wahrscheinlich eine der grundlegendsten Überlegungen für Rechenzentrumsbetreiber im Jahr 2025 sein.Zum Glück hat die Industrie dies schon lange im Fokus und es gibt viele Innovationen in der Verkabelungs- und Anschlusstechnik, um eine größere Packungsdichte im Rechenzentrum zu ermöglichen.

Die jüngsten Netzwerk-Switches, die zur Interkonnektivität von KI-Servern in einem Rechenzentrum verwendet werden, sind für die Unterstützung von 800G-Verbindungen bereits gut gerüstet. Häufig arbeiten die Transceiver-Ports dieser Netzwerk-Switches im Breakout-Modus, bei denen 800G in zwei Mal 400G oder acht Mal 100G unterteilt werden. Dadurch können Rechenzentrumsbetreiber die Netzwerkfähigkeit des Switches erhöhen und mehr Server miteinander verbinden.

Selbst wenn für optische KI/ML-Schnittstellen MPO-Verbindungstechnik erwartet wird, ist die Miniaturisierung für KI-Rechenzentren ein Muss. Dies wird durch die Nutzung von Multifaser-Steckverbindern in Kleinstformat (VSFFC) wie MMC oder SN-M ermöglicht. So kann der Platzbedarf für das Patchen bei der Implementierung einer strukturierten Verkabelung reduziert werden. Parallel dazu sorgen biegeoptimierte Glasfasern mit geringen Dämpfungsverlusten für eine bessere Ausnutzung von Kabelwegen.

Anwender der ersten Stunde wechseln zu 1.6T

Zusammen mit anderen datenintensiven Anwendungen wie Streaming-Diensten führt KI zu einem Bandbreitenbedarf, der uns schließlich über die 40G- oder 100G-Geschwindigkeiten hinausführen wird, mit denen viele Unternehmensnetze derzeit arbeiten. Wann genau dieser Wendepunkt erreicht sein wird, bleibt offen, aber es ist durchaus möglich, dass wir 2025 eine Beschleunigung bei der Anzahl der Rechenzentren erleben werden, die den Übergang zu 800G und darüber hinaus vollziehen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die Verkaufszahlen von 400G- und 800G-Transceivern steigen bereits an, und 2025 können wir definitiv mit ersten Einsätzen von 1,6T-Netzwerkgeschwindigkeiten basierend auf 2x800G-Kombitransceivern rechnen. Auch hier werden Steckgesichter im Kleinstformat für die optischen Transceiverschnittstellen entscheidend sein.

2025 können wir definitiv mit ersten Einsätzen von 1,6T-Netzwerkgeschwindigkeiten basierend auf 2x800G-Kombitransceivern rechnen.

Obwohl die Wahl der Steckverbinder für 1,6-T-Transceiver möglicherweise bei „belly-to-belly“ installierten LC-Duplex-Steckern für FR4- und MPO8-Steckern für DR4-Technologien bleibt, wird ganz allgemein die Verwendung von VSFF-Steckern wie MMC16 oder SN-MT [für diese höheren Geschwindigkeiten] notwendig werden. Dies ist darauf zurückzuführen, dass die Backbone-Verkabelung 864 oder mehr Fasern pro KI-Serverschränken in den Spine-Core-Netzwerkschränken aggregieren muss - diese Schränke können über 9.000 Faserstränge aufnehmen.

Das Bewusstsein für Nachhaltigkeit wächst

Künstliche Intelligenz wird voraussichtlich die Entwicklung vieler neuer Rechenzentren erfordern, die in Deutschland teilweise bereits als kritische Infrastruktur eingestuft werden. Mit dem erhöhten Energiebedarf von KI-Rechenzentren werden darüber hinaus auch die Auswirkungen auf die Emissionen auf globaler Ebene stärker unter die Lupe genommen.

Ansätze wie die Co-Packaged Optics, auf der Leiterplatte integrierte optische Bauelemente, die die Optik viel näher zu den ASICs bringt, etablieren sich als Lösung zur Erhöhung der Energie-Effizienz.

2025 wird auch die Kühlung eine wichtige Rolle spielen. Jahrelang war Luft das wichtigste Medium für den Wärmeaustausch im Rechenzentrum, aber herkömmliche luftbasierte Kühllösungen sind für anspruchsvolle KI-Rechenzentren immer weniger geeignet. Flüssigkeitsbasierte Wärmeleitmittel werden in der Branche zunehmend als tragfähige Lösung anerkannt. Bei der am weitesten verbreiteten Methode wird Wasser durch isolierte Rohre um wärmeerzeugende Komponenten wie Hauptprozessoren (CPUs) und Grafikprozessoren (GPUs) geleitet, wobei isolierte wärmeleitende Platten zum Einsatz kommen.

Wie geht es weiter?

In den kommenden Jahren werden einige wichtige Entscheidungen zu treffen sein – für Unternehmen, Rechenzentrumsbetreiber und auch für Entscheidungsträger auf internationaler Ebene. Für die vielen Akteure, die die Rechenzentrumsbranche am Laufen halten, gibt es eine Menge zu tun, um weiterhin eine belastbare KI-fähige Infrastruktur zu entwickeln, aufzubauen und zu erhalten, um die neuen Herausforderungen zu bewältigen, die die Technologieentwicklung mit sich bringt.

Die Branche ist gut vorbereitet und hat diese Entwicklungen bereits vorhergesehen. Für die Betreiber von Rechenzentren wird es 2025 vorrangig darum gehen, die notwendigen Anpassungen an ihrer Infrastruktur vorzunehmen, um agil und zukunftsfähig zu bleiben. Es ist von Vorteil, bereits jetzt Vorbereitungen zu treffen, anstatt später unter noch größerem Zeitdruck nachrüsten zu müssen.

*Die Autoren
Cindy Ryborz ist Marketing Manager DC EMEA bei Corning Optical Communications.

Bildquelle: Cindy Ryborz/Linkedin




Carlo Mora ist Market Development Manager bei Corning Optical Communications.

Bildquelle: Carlo Mora/Linkedin



Sie schreiben: Bei Corning haben wir beispielsweise in den letzten vier Jahren unsere Glasfaser-, Kabel- und Verbindungslösungen neu konzipiert, um unsere Kunden auf die Dichte-Anforderungen der generativen KI vorzubereiten.

(ID:50322011)