Die Datenrennstrecken des Cloud-Zeitalters Was ist 400GBASE Ethernet?
Anbieter zum Thema
Hochleistungs-Rechenzentren in der Cloud benötigen superschnelle Verbindungen nach innen und nach außen. 400GBASE-Ethernet auf Glasfaserbasis ist genau auf diesen Bedarf hin ausgerichtet.

Lang ist der Weg von 10BASE5 Ethernet auf Koaxialkabel und in Busarchitektur in den 1980er Jahren über Ethernet mit verdrillten Kupferadern in Sternarchitektur bis zu 400GBASE Ethernet mit ein- oder mehrwegigen Glasfaserleitungen in der Jetztzeit. Der Standard IEEE 802 hat sich in den letzten 30 Jahren zum dominierenden Vernetzungstyp in der Telekommunikation und Computertechnik entwickelt und wird wohl auch in abgespeckter (industrietauglicher) Version für die Verbindung in die IoT-Sensorik eine wichtige Rolle spielen.
Denn als Basis für das Internet-Protokoll ist Ethernet fast so etwas wie ein Synonym für das Internet-Zeitalter. Letztlich sind wohl die Wandlungsfähigkeit bezüglich Topologie und Leitungsmaterial sowie vor allem die Rückwärtskompatibilität über Jahrzehnte hinweg für den weltweiten und stetigen Erfolg der Ethernet-Technik verantwortlich.
400GBASE nur für Glasfaser standardisiert
Die Cloud-Architekturen heutiger (Groß-)Rechenzentren machen immer größere Übertragungsraten erforderlich. Die Protagonisten der Ethernet-Technologie (Standardisierungsgremien sowie Entwickler und Hersteller der entsprechenden Komponenten) müssen also „liefern“. Bis spätestens 2026 erwartet die Ethernet Alliance Übertragungsraten im Terabit-Bereich (1,6 TBit/s).
Die gegenwärtigen 400G-Spezifikationen umfassen ausschließlich Glasfaserverbindungen und holen das äußerste heraus, was an Geschwindigkeit auf einzelnen optischen Verbindungsstrecken und an Anzahl der Fasern bei einer Verbindung technisch möglich ist. Und an jeder neuen Spezifikation hängt ein „Rattenschwanz“ von neu zu definierenden Formfaktoren, Transceiver, Laser, Stecker, Kabel und vieles mehr, die bei den jeweiligen Herstellern einen Entwicklungsschub auslösen und sie noch geraume Zeit entwicklungsmäßig beschäftigen werden.
Bei der Standardisierung von 400GBASE setzte das Standardisierungsgremium IEEE auf der bestehenden 100GBASE-Technologie auf. Die maximalen Übertragungsraten der einzelnen optischen Kanäle („Lanes“) liegen beim 100-Gbit/s-Standard bei 25 Gbit/s, so dass man mit vier Kanälen auskommt. Für den 400 Gbit/s-Standard konnte man die maximalen Übertragungsraten auf 50 beziehungsweise sogar 100 Gbit/s hochsetzen. Dabei kam man noch mit der bestehenden „Elektrik“ zurecht, für den Schritt in den Terabit-Bereich, wie er oben kurz skizziert wurde, muss man sich dann Neues überlegen.
Leistung und Kosten müssen im Gleichgewicht sein
Um die traditionelle Netzwerk-Technologie, sprich: die Technologie, die man für 100GBASE und 200GBASE einsetzt, auch bei 400GBASE verwenden zu können, muss man gute technische Kompromisse finden. Klar ist, dass die Anzahl der Fasern in einer Verbindung der springende Punkt ist.
Es wäre gewiss praktisch und bequem, wenn man die 400G einfach mit 16 parallelen optischen Kanälen à 25 Gbit/s technisch abbilden könnte. Dafür wären für Senden und Empfangen 32 parallele Fasern notwendig. Eine solche Multi-Mode-Verbindung eignet sich aber maximal für Längen von bis zu 500 Metern, bei längeren Strecken nehmen die Streueffekte der Lichtwellen überhand und Maßnahmen, die Streueffekte in den Griff zu bekommen, machen eine solche Architektur sehr teuer.
Die Entwickler und „Spezifizierer“ von 400GBASE haben deshalb eine ganze Reihe von technischen Parameter-Sets definiert, die Lösungen mit unterschiedlichen Kanal-Raten und Faserbündeln definieren, bei der Leistung und Kosten jeweils in einem vernünftigen Verhältnis stehen. Gleichzeitig war man bestrebt, einen praktikablen Migrationspfad von 200GBASE nach 400GBASE anzubieten.
Das neue Codierungsverfahren PAM4
Eine Kanalrate von 50 GBit in der Sekunde ist unabdingbar, um 400GBASE in der Praxis sinnvoll umsetzen zu können. Für eine solche Übertragungsrate musste aber eine neue Modulationstechnik verwendet werden, mit deren Hilfe der binäre Datenstrom in ökonomischer Weise in elektrische Signale verwandelt wird.
Man entschied sich für die so genannte 4-Puls-Amplituden-Modulation (PAM4), bei der vier Signalpegel verwendet werden. Das bisherige „Non-Return-to Zero“-Verfahren (NRZ) verwendet nur zwei Signalpegel.
PAM4 ermöglicht mehr Daten auf der Glasfaser, so dass die Bandbreite deutlich erhöht werden kann, ohne dass in einem Rechenzentrum mehr Glasfasern installiert werden müssen. Das PAM4-Verfahren war schon bei der 100GBASE-Technologie im Gespräch, es gab damals aber noch keine ausgereiften Produkte am Markt.
400G auf Basis 50G PAM4 gehört die Zukunft
Auch für 400GBASE wurde das PAM4-Verfahren zunächst nicht angewendet. Der Standard 400G IEEE 802.3b, einer der ersten Standardisierungsschritte bei 400GBASE, definierte eine Schnittstelle (400G SR16) mit 25 Gbit/s NRZ. Hiermit konnte man eine Entfernung von bis zu 100 Meter abdecken. Dazu wird aber eine große Anzahl von Fasern gebraucht, was letztlich nicht wirtschaftlich ist. Auch der Stromverbrauch ist sehr groß.
Alles in allem ist deshalb 400 G SR-16 für Rechenzentren kaum geeignet. Eine neue PAM4-Schnittstellen-Norm für 400 GBASE ist 400G LR8/FR8. 400G LR8 ist dabei für Verbindungen von bis zu 10 Kilometer ausgelegt, 400 G FR8 für Verbindungen von bis zu 2 Kilometer, beide mit Single-Mode-Fasern.
Mit Multimode-Fasern arbeiten die Standards 400GBASE SR8 und 400GBASE SR 4.2 Mit beiden lassen sich Entfernungen von bis zu 100 m abdecken.
400G auf der Basis von 50G PAM4- oder auch 100 PAM4-Übertragungsraten wird wohl künftig den Markt für sehr schnelle Verbindungen im Datacenter-Bereich dominieren. Und an PAM4 führt kein Weg vorbei, so dass immer mehr Hersteller entsprechende Produkte, Chips, Laser, Stecker, Kabel, Transceiver und mehr, auf der Basis dieses Codierungs-Verfahrens auf den Markt bringen werden.
Artikelfiles und Artikellinks
(ID:46739344)