Die Ära der 1000 Fasern Rechenzentrumsnetze stehen vor der nächsten Dichtestufe

Von Benoit Fleury* 5 min Lesedauer

Anbieter zum Thema

KI-Workloads führen zu einem erheblichen Anstieg der Bandbreite und Verbindungsdichte in Rechenzentren. Daher ist der Übergang zu Co-Packaged Optics (CPO) nicht mehr eine Frage des „Ob“, sondern des „Wann“. Betreiber, die beabsichtigen, CPO-fähige optische Netzwerke einzusetzen, sei es jetzt oder in Zukunft, müssen entsprechend planen.

Die direkte Integration der Glasfaserkonnektoren am Chip-Package minimiert die elektrische Signalstrecke und maximiert die Bandbreite.(Bild:  Corning)
Die direkte Integration der Glasfaserkonnektoren am Chip-Package minimiert die elektrische Signalstrecke und maximiert die Bandbreite.
(Bild: Corning)

Datenpfade, die einst auf einigen Hundert Fasern basierten, umfassen heute Tausende. Switch-ICs in Rechenzentren erreichen mittlerweile Kapazitäten von 100 Terabit pro Sekunde (Tb/s), und optische Ports mit 1,6 Tb/s werden eingeführt. Um diese höheren Switch-Kapazitäten und Port-Geschwindigkeiten zu ermöglichen, rücken die optischen Verbindungen viel näher an die Chips heran, was den Bedarf an kompletten optischen Baugruppen innerhalb dieser Systeme zur Folge hat.

Diese optische Verdichtung erfordert grundlegende Änderungen im Rack-Design und in der Topologie und legt den Grundstein für die nächste Integrationsstufe: CPO - Co-Packaged Optics.

Dichte als neues Leitprinzip

KI hat das Konzept der Netzwerkauslastung neu definiert, bei dem jede GPU Teil eines Clusters wird, das als hochgradig vernetztes System arbeitet. Die Kommunikation zwischen diesen Einheiten ist kein einfacher Datentransfer mehr; sie ist ein wesentlicher Bestandteil der Rechenleistung. Die Anforderungen an Bandbreite, Latenz und deterministische Leistung entwickeln sich entsprechend.

Noch vor wenigen Jahren galten 400G-Steckmodule als die technologische Obergrenze. Heute erreichen optische Module 1,6 Tb/s, und CPO verspricht, diese Zahl etwa alle zwei Jahre zu verdoppeln.

Gleichzeitig haben Switch-ASICs die 100-Tb/s-Schwelle bei erhöhter Frontplattendichte erreicht. Dies führt zu einem exponentiellen Anstieg des Bedarfs an physischen Verbindungen, was zu einer zehnfachen Zunahme der Faser-Ports pro Einschub und letztendlich zu einer deutlich höheren Verkabelungsdichte auf Rack-Ebene führt.

Ein hochmoderner 100-Tb/s-CPO-Switch benötigt rund 1.000 Faserverbindungen auf einer einzigen Rack-Einheit-Frontplatte. In einem Multi-Rack-Cluster mit mehreren hundert GPUs kann sich die Gesamtzahl der optischen Verbindungen in einem Switching- oder Server-Rack je nach Technologie und Architektur auf mehr als 10.000 summieren.

Dies ist mit herkömmlichen Installationsmethoden nicht mehr wirtschaftlich zu bewältigen, da das effiziente Verwalten, Verlegen und Anschließen dieser Fasern zeitaufwändig und fehleranfällig wäre. Ein schrittweiser Ansatz könnte Hunderte von Arbeitsstunden erfordern. Die effiziente Bereitstellung setzt daher zunehmend auf vorkonfektionierte, hochdichte Module und systematisch organisierte Faserstrategien.

Betreiber müssen vorausplanen

Erhöhte Faserdichten haben direkte Auswirkungen auf Rack-Layouts, Bereitstellungsgeschwindigkeiten und die nachgelagerte Wartung. Physische Einschränkungen erhöhen die Komplexität weiter: Da die thermischen Lasten steigen, werden Kühlsysteme kritischer, nehmen Platz in Anspruch und beeinflussen die Faserführung.

Flüssigkeitskühlung wird in Hochleistungs-Racks immer häufiger eingesetzt. Rohre, Pumpen und Kühleinheiten verändern den verfügbaren Platz im Rack und setzen Grenzen für Biegeradien und die Platzierung von Steckverbindern. Ohne eine vorausschauende Planung riskieren Betreiber übermäßige Zugbelastungen oder Mikrobiegeverluste. Netzwerkarchitekten und Infrastrukturingenieure müssen daher frühzeitig einbezogen werden, um mechanische, optische und thermische Anforderungen in Einklang zu bringen.

Auf zu Co-Packaged Optics!

Der Übergang zur Co-Packaged Optics wird schrittweise erfolgen, aber vorbereitende Schritte sollten jetzt unternommen werden, um den Weg für immer höhere optische Verbindungsdichten zu ebnen. Neue Steckverbinderschnittstellen wie MMC-16 werden zunehmend benötigt, um die dichteren Faseranschlüsse zu ermöglichen, die in CPO-Systemen erforderlich sind. Betreiber, die heute ausreichend Platz für Kabelmanagement, Biegeradien und Servicezugang einplanen, sparen erhebliche Nachrüstkosten beim Übergang von steckbaren Optiken zu CPO.

Langfristig werden auch glasbasierte Wellenleiter eine Rolle spielen. Obwohl sie nicht direkt auf dem Chip verwendet werden, können sie mittels siliziumkompatibler Prozesse in Substrate integriert werden, was eine höhere Packungsdichte und eine verbesserte thermische Stabilität bei gleichbleibender Leistung ermöglicht. Es ist entscheidend, dass alle Komponenten – Faser, Steckverbinder, Substrate und Baugruppe – gemeinsam entwickelt und optimiert werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Neben Wellenleitern wird die präzise Integration von Steckverbindermodulen und das Faser-Management immer wichtiger. Organisierte Einschub-Layouts, modulare Kabelbündel und standardisierte Steckverbinderpositionen ermöglichen eine reproduzierbare Installation, vereinfachen die Wartung und tragen erheblich zur Zuverlässigkeit von Netzwerken mit hoher Dichte bei. Diese grundlegenden Technologien werden bereits in frühen Hyperscale-Feldeinsätzen getestet.

Praktische Einblicke aus frühen Projekten

CPO ist keine neue Technologie, da das Konzept bereits vor mehr als zwei Jahrzehnten im Hochleistungsrechnen erforscht wurde. Neu ist die Anpassung an Hyperscale-Umgebungen mit massiv parallelen KI-Workloads.

Frühe Feldtests zeigen, dass CPO-Systeme herkömmliche steckbare Optiken nicht nur in Bezug auf Energie-Effizienz und Dichte übertreffen, sondern auch hinsichtlich Zuverlässigkeit und Signalqualität. Diese Erfahrungen helfen uns, Fertigungstoleranzen und die Wartbarkeit von Systemen zu verstehen. Beispielsweise könnten zuverlässigere optische Verbindungen weniger Wartung auf der Ebene des optischen Ports erfordern, aber mehr Betonung auf der Ebene des integrierten Systems in Bezug auf Planung, Überwachung und vorausschauende Wartung.

Übergang zur nächsten Integrationsstufe

Die erste Generation von CPO konzentriert sich auf die Netzwerkebene mit Hochleistungs-Switch-Systemen von 51,2 Tb/s und mehr, wo Bandbreite und thermische Dichte am höchsten sind. Die Planung der Integration von Glasfaserkabelwegen, Steckverbinderstandorten und Kühlinfrastruktur wird zu einem Schlüsselfaktor für die zukünftige Migration zur vollständigen Co-Packaging.

Die nächste Phase der CPO-Implementierungen wird sich in Richtung der Compute-Ebene verlagern, angetrieben durch den Bedarf an direkten optischen Verbindungen zwischen GPUs innerhalb eines KI-Clusters. Dies wird zu einer erheblich erhöhten Anzahl optischer Verbindungen in jedem Rack führen, was eine vorausschauende Planung in Bezug auf physische Infrastruktur, Rack-Layout, Installationsstrategie und Wartbarkeit erfordert.

*Der Autor
Benoit Fleury ist Commercial Director für Photonics Connectivity Solutions bei Corning Optical Communications. Zuvor führte er den OEM-Bereich an, einschließlich des Produktteams für Mikrooptik. Benoit hat einen Master-Abschluss in Elektrotechnik von der Concordia University in Montreal, ist Senior-Mitglied des IEEE und fungiert jährlich als Jurymitglied beim internationalen MBA-Fallwettbewerb der John Molson School of Business der Concordia University. Neben seinen beruflichen Aktivitäten ist er ein begeisterter Segler und Motorradfahrer.
Sein Fazit lautet: Die Einführung von CPO ist evolutionär. Indem sie die Infrastrukturbereitschaft, die frühzeitige Architekturplanung und die Bereitstellungseffizienz angehen, werden Rechenzentrumsbetreiber besser darauf vorbereitet sein, die Lücke zu CPO zu schließen, sobald die vollständigen Implementierungen im Gange sind. Dies umfasst eine ganzheitliche Sicht auf Systemebene, die Stromversorgung, Kühlinfrastruktur, Verkabelung auf Rack-Ebene und hochdichte Frontplattensteckverbinder umfasst.
Diejenigen, die entsprechend planen, werden sich in der nächsten Generation von CPO-fähigen Rechenzentren einen Wettbewerbsvorteil verschaffen, zunächst für die Netzwerkebene, bald aber auch für die Compute-Ebene, wo die Anzahl der optischen Verbindungen voraussichtlich erheblich höher sein wird.

Bildquelle: Corning

(ID:50812676)