Suchen

Grundlagen moderner Netzwerktechnologien im Überblick – Teil 52

Relevante Standards für das Carrier Ethernet im Überblick

Seite: 2/4

Die Grenzen der Skalierbarkeit von Ethernet

Traditionelle geswitchte Ethernet-Netzwerke haben zwei wesentliche Charakteristika, die sie daran hindern, von der Topologie her eine gewisse Größe zu überschreiten: Lernprozesse und Prozesse zur Schleifenvermeidung.

Erhält ein Switch ein Paket, von dem er nicht weiß, wo es hingehört, repliziert er das Paket auf alle Ausgangsleitungen. Dieser unangenehme Effekt ist als Flooding bekannt. Da der Switch jedes Paket, das er erhält, ansieht, lernt er die Zusammenhänge zwischen sendenden Stationen und Eingangsleitungen. Jeder Switch in einer Layer-2-Domäne lernt also mit der Zeit Adressen und dazugehörige Links für jedes Gerät im Netz.

Bildergalerie

Bildergalerie mit 9 Bildern

Das kommt daher, dass der Switch in seinem Herzen nichts anderes als eine Multiport-Brücke ist. Natürlich haben sich die Hersteller in der Vergangenheit redlich bemüht, diesen ganzen Prozess zu optimieren, damit der Switch schneller arbeitet, aber das findet seine Grenzen einfach darin, dass ein Switch eben grundsätzlich so tickt. Wenn heute Gigabit oder 10 GbE-Switches extrem schnell arbeiten, liegt das daran, dass die in ihnen eingesetzten Schaltmatrizen und Prozessoren außerordentlich schnell sind und man sich auch manchmal eigentlich unerlaubter Tricks bedient, wie dem Cut Through Switching, bei dem wie der Name schon sagt, nur ein Teil der Adresse verarbeitet wird und man die damit entstehende Fehlerwahrscheinlichkeit hinnimmt. Für die Übertragung von Speicherverkehr wie FCoE müsste man dieses „Feature“ jedoch ausschalten, weil sonst wirklich Pakete verloren gehen – aber nicht aufgrund von Staus, sondern weil der Switch diese einfach in die falsche Richtung abfeuert.

Ein Provider- oder Metronetz muss prinzipiell Zehntausende oder Hunderttausende Adressen (der angeschlossenen Kunden) richtig weiterverarbeiten. Das bedeutet für einen Metro-Kernswitch, dass er mit Tausenden oder Zehntausenden Adressen umgehen können muss. Das ist nicht nur kostenintensiv, sondern hat Implikationen auf die Protection Switching Schemata, die wir von SONET ja schon kennen und die wir in ähnlicher Konstruktion auch bei einem Carrier Ethernet benötigen. Denn wenn ein Link oder ein Gerät einen Fehler hat, muss das Netz darauf angemessen reagieren und mit der neu entstandenen Topologie umgehen. Daher gibt es einen Zusammenhang zwischen der Anzahl der Adressen und der Dauer für das Wiederaufsetzen nach Fehlern.

Abgesehen von den Kosten gibt es also noch eine Reihe weiterer Gründe, in einem Core Netzwerk, sei es nun ein Corporate Core, ein MAN-Core oder ein WAN-Core, soweit wie möglich auf den Einsatz von L3-Technologien zu verzichten.

Wie bereits dargestellt, flooden L2-Netze den Verkehr, sofern er unbekannte Ziele betrifft. Viele Mesh-, Hub- und Ringtopologien enthalten physikalische Schleifen in Form von redundanten und manchmal wirklich überflüssigen Verbindungen zwischen Geräten. Diese Schleifen müssen im Rahmen der Logik eines Netzes verhindert werden, um das Flooden richtig zu ermöglichen. Würden Schleifen zugelassen, würde sich der gefloodete Verkehr vervielfachen und schließlich das Netz überfluten und zum Stillstand bringen. Um das zu vermeiden, wurden entsprechende Protokolle wie Spanning Tree (STP), Multiple Spanning Tree (MSTP) und Rapid Spanning Tree (RST) entworfen. Sie können die Loops entdecken und ausschalten.

Abbildung 1 zeigt ein Providernetz mit Mesh-Struktur, welches verschiedene Geräte auf der Basis von Ethernet-Switches miteinander verbindet, die wir jetzt Provider Bridges nennen und die unter der Kontrolle eines Providers stehen.

Diese Geräte unterstützen eine oder mehrere Ethernet Service Transport Technologien, wie z.B. nach dem Standard IEEE 802.1ad PB (Provider Bridging).

Wie man sieht, enthält die Topologie eine Reihe von Schleifen, die eine gewisse Redundanz realisieren. Abbildung 2 zeigt die gleiche Struktur mit IEEE 802.1w RSTP der die Schleifen entdeckt und einige Links sperrt.

Jetzt existieren keine Schleifen mehr, Switch-basiertes Flooding und Learning funktionieren wie gewohnt. Die blockierten Links bleiben auf Standby für den Fall, dass ein aktiver Link ausfällt.

Abbildung 3 zeigt den Weg, den ein Carrier Ethernet Service über das Provider Netzwerk nehmen kann.

Links, die durch RSTP gesperrt sind, werden umgangen und alle Kundenlokationen können untereinander verbunden werden.

weiter mit: RSTP und MSTP im Carrier Umfeld

Artikelfiles und Artikellinks

(ID:2041628)