Datacenter Interconnect Bewältigung der DCI-Flut in der KI-Ära

Ein Gastbeitrag von Tim Doiron* 4 min Lesedauer

Anbieter zum Thema

Traffic, der sich in weniger als zwei Jahren verdoppelt, lässt sich zweifellos als Sintflut bezeichnen. Aber ist das beschleunigte Wachstum von DCI einzig auf Künstliche Intelligenz (AI) und Maschinelles Lernen (ML) zurückzuführen?

Schwimmen auf oder untergehen in der Datenflut? Besser wäre, sie zu kanalisieren und die Power für einen sinnvollen Aufbau zu nutzen. (Bild:  Dall-E / KI-generiert)
Schwimmen auf oder untergehen in der Datenflut? Besser wäre, sie zu kanalisieren und die Power für einen sinnvollen Aufbau zu nutzen.
(Bild: Dall-E / KI-generiert)

Eine Sintflut wird im Wörterbuch als eine „überwältigende Menge“ definiert. In Gesprächen mit Kommunikationsdienstleistern und Internet-Content-Providern (ICPs) entsteht gegenwärtig der Eindruck, dass der Datenverkehr im Bereich Datacenter Interconnect (DCI) um 50 Prozent oder mehr pro Jahr zunimmt. Sind also KI und ML schuld an der Flut?

Die kurze Antwort lautet: zum Teil. Aber wir befinden uns noch in den Anfängen der KI/ML und insbesondere der generativen KI. Der Beitrag von KI/ML zum DCI-Verkehr wird mit der Zeit deutlich zunehmen. Mit mehr Anwendungen, mehr Menschen, die die Vorteile von KI/ML nutzen (man denke nur an die medizinische Bildanalyse zur Erkennung von Krankheiten), und generativer KI, die neue Bilder und Videos erzeugt (etwa in der Zusammenarbeit von Künstlern und Grafikern mit Marketing/Branding), wird der Nord-Süd-Verkehr von und zu Rechenzentren weiter zunehmen.

Rechenzentren existieren nicht in einem Vakuum. Sie müssen mit anderen Rechenzentren verbunden werden - Rechenzentren, die zunehmend modular aufgebaut und verteilt sind, um die Auswirkungen auf lokale Immobilien und Stromnetze zu verringern und um für latenzempfindliche Anwendungen näher am Endnutzer zu sein.

DCI nimmt unaufhörlich zu

Eine frühere Schätzung besagt, dass 9 Prozent des gesamten Datenverkehrs in Rechenzentren in Ost-West-Richtung verlaufen, das heißt: DCI oder Konnektivität zu anderen Rechenzentren. Auch wenn dieser Prozentsatz für die heutigen Rechenzentren hoch erscheint, werden die Inbetriebnahme weiterer Rechenzentren und der zunehmenden KI/ML-Verkehr zu und von Rechenzentren dazu beitragen, dass DCI seine hohe Wachstumsrate in den kommenden Jahren beibehält.

Wie lassen sich folglich die zunehmende Modularität und Verteilung von Rechenzentren angehen und gleichzeitig die DCI-Flut unterstützen, die bereits ein hohes Volumen erreicht hat und möglicherweise durch die beschleunigte KI/ML-Nutzung weiter steigen wird? Die Antwort ist dreifach: beschleunigen, verteilen und stapeln.

Die Terabit-Ära

Mit der Entwicklung von 1,2+ Tb/s-Engines (Terabit pro Sekunde), die 1,2 Tb/s-Wellenlängen über Hunderte von Kilometern und 800G-Wellen über bis zu 3.000 Kilometer übertragen können, bewegen sich die heutigen eingebetteten optischen 800G-Engines auf die Terabit-Ära zu. Betreiber von Rechenzentren, die Glasfaserkabel leasen, können eingebettete optische Engines mit hoher spektraler Effizienz nutzen, um die Datenübertragung über ein einziges Glasfaserpaar zu maximieren und so die mit dem Leasen zusätzlicher Glasfaserkabel verbundenen Zusatzkosten zu vermeiden.

Während kohärente 400G ZR-Pluggables in DCI-Metroanwendungen immer häufiger eingesetzt werden, befinden sich kohärente 800G-Pluggables in der Entwicklung und sollen Anfang 2025 ausgeliefert werden. Diese neueste Generation kohärenter Pluggables, die auf der 3-nm-Digital-Signalprozessor-Technologie basiert, erweitert die Kapazitätsreichweite beträchtlich, da sie 800G-Wellenlängen bis zu 2.000 Kilometer liefern kann.

Mit solchen Fähigkeiten in kleinen QSFP-DD- oder OSFP-Gehäusen wird IP over DWDM (IPoDWDM) in einigen DCI-Anwendungen weiterhin realisiert werden. Dabei können die Pluggables direkt in Routern und Switches eingesetzt werden.

Ausbreiten mit Super C

Dank der Fortschritte bei optischen Leitungskomponenten wie Verstärkern und wellenlängenselektiven Schaltern kann jetzt das Übertragungsspektrum von Glasfasern kostengünstig von 4,8 Terahertz (THz) auf 6,1 THz erweitert werden, um eine Super-C-Übertragung zu ermöglichen. Mit Super C lässt sich ein um 27 Prozent erweitertes Spektrum realisieren, das eine Übertragungskapazität von bis zu 50 Terabit pro Sekunde (Tb/s) pro Band ermöglicht.

Ein ähnlicher Ansatz kann zur Schaffung eines Super-L-Übertragungsbandes angewendet werden. Die Super-C- und Super-L-Übertragung sind kosteneffiziente Möglichkeiten, um mehr aus den vorhandenen Glasfasern herauszuholen und mit dem Kapazitätsbedarf von Datacenter Intercnnects Schritt zu halten.

Die Super-C-Erweiterung kommt auch kohärenten Pluggables in DCI-Implementierungen zugute, da sie die durch die geringere spektrale Effizienz von Pluggables bedingte Verringerung der Gesamtfaserkapazität wieder wettmacht. Die Kombination von kohärenten Pluggables mit Super C ermöglicht es Netzbetreibern, die Vorteile von Pluggables in Bezug auf den geringeren Platzbedarf und die Energienutzung zu nutzen, ohne die Gesamtübertragungskapazität der Glasfaser zu opfern.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Stapeln mit kompakter Modularität

Die heutigen kompakten, modularen optischen Plattformen der nächsten Generation unterstützen die Kombination von optischen Leitungssystemen und eingebetteten und steckbaren optischen Engines. Netzbetreiber können mit einem einzigen 1RU-, 2RU- oder 3RU-Gehäuse beginnen und diese nach Bedarf stapeln, um die Kosten an die Kapazität anzupassen und gleichzeitig die Komplexität zu minimieren.

Durch die Unterstützung von Leitungssystem- und Optical-Engine-Funktionalität in einer gemeinsamen Plattform können Netzbetreiber kleine, mittlere und große DCI-Kapazitätsanforderungen kosteneffizient unterstützen und gleichzeitig die Menge der benötigten Ausrüstung im Vergleich zu dedizierten Alternativen pro Funktion minimieren. Wenn der Kapazitätsbedarf steigt, können zusätzliche Pluggables, Sleds und Chassis einfach hinzugefügt werden - alles wird als eine einzige Netzwerkeinheit verwaltet, was den Betrieb vereinfacht.

*Der Autor
Tim Doiron, ist Vice President Lösungsmarketing bei Infinera.

Bildquelle: Infinera

(ID:50338685)