Die Revolution der Rechenzentrumsnetze – North-South goes East-West

Data Center Fabrics – die Konzepte der neuen Rechenzentrumsnetze im Überblick

21.06.2011 | Autor / Redakteur: Michael Brandenburg, Andreas Donner / Andreas Donner

Data Center Fabrics revolutionieren die Netzwerkarchitektur im Rechenzentrum – doch die Herstellerkonzepte sind unterschiedlich; Bild Alcatel-Lucent
Data Center Fabrics revolutionieren die Netzwerkarchitektur im Rechenzentrum – doch die Herstellerkonzepte sind unterschiedlich; Bild Alcatel-Lucent

Die Grundlagen des „Data Center Fabric“-Konzeptes

Die Hersteller von Netzwerk-Infrastrukturkomponenten für Rechenzentren haben dies seit langem erkannt und entwickeln mit „Data Center Fabric“ im Moment eine vollkommen neue Rechenzentrumsvernetzung, bei der Daten von jedem beliebigen Port zu jedem beliebigen Node mit geringster Latenz und einer möglichst geringen Anzahl an Zwischenstationen (Hops) übertragen werden können.

Unabhängig vom individuellen Herstellerkonzept basieren sämtliche „Data Center Fabrics“-Ansätze grundsätzlich auf der Verwendung von High-Speed-Ports, auf neuen Multipathing-Alternativen zu Spanning Tree und auf einem vereinfachten und vereinheitlichten Management. Darüber hinaus spielt die Automation bzw. der Grad der Automatisierung hier eine entscheidende Rolle.

TRILL und SPB

Viele Netzwerkhersteller greifen bei der Umsetzung ihrer „Data Center Fabric“-Konzepte auf diverse Verbesserungen des Ethernet-Standards zurück. Zwei Ethernet-Schlüsseltechnologien um echte Any-to-Any Links zwischen einzelnen Services – also Servern, virtuellen Maschinen oder Applikationsebenen – im Rechenzentrum zu ermöglichen sind „Transparent Interconnection of Lots of Links“ (TRILL) und „Shortest Path Bridging“ (SPB).

Der im Moment bei der Internet Engineering Task Force (IETF) in Verabschiedung befindliche Stadard-Anwärter TRILL ist ein Layer-2-Protokoll, das es den Switches im Rechenzentrum ermöglicht, den Status all ihrer Link-Ports zu broadcasten. Diese gesammelten Informationen kann eine TRLL-basierende Data Center Fabric nuten, um den kürzesten und schnellsten Weg zum Ziel für jedes einzelne Datenpaket zu ermitteln.

Der vom IEEE unter der Bezeichnung 802.aq ins Rennen geschickte Standard Shortest Path Bridging (SPB) arbeitet sehr ähnlich wie TRILL, ist aber mit dem bestehenden Spanning Tree Protocol (STP) kompatibel. Im Gegensatz zu TRILL kann SPB zudem mit bestehenden Ethernet-Chipsätzen umgesetzt werden.

Multichassis Link Aggregation (M-LAG und MC-LAG)

Einige Hersteller setzen das geforderte Multipathing und die Ablösung von STP mit einer dritten Option um: der so genannten „Multichassis Link Aggregation“ (M-LAG oder auch MC-LAG). Dieses Feature erlaubt es jeweils einem Paar von Switch-Interconnects, gleichzeitig aktiv zu sein und Datenverkehr abzuwickeln. M-LAG kann damit gemeinsam mit dem Spanning-Tree-Protokoll zum Einsatz kommen und dessen Aufgaben im Falle einer Schleifenbildung übernehmen.

Die einzelnen „Data Center Fabric“-Konzepte im Vergleich – Alcatel-Lucent

Bei Alcatel-Lucent bildet der OmniSwitch 10k das Zentrum der „Data Center Fabric“-Strategie des Unternehmens. Der 5-Tbps-Chassis-Switch unterstützt aktuell MC-LAG und soll in Zukunft auch für SPB gerüstet sein. Der OmniSwitch 6900 des Unternehmens stellt mit 64 10-GbE-Ports in einer Single-Rack-Unit die Top-of-Rack-Option des Systems dar. Sowohl den Chassis- als auch die Top-of-Rack-Switches wird der Hersteller ab der späteren zweiten Hälfte dieses Jahres mit 40-GbE-Uplink-Ports ausstatten.

Damit wird es im Rahmen der Alcatel-Lucent Data Center Fabric möglich, eine Farm von Top-of-Rack-Switches der OmniSwitch-6900-Klasse über ihre 40-GbE-Uplinks so zu verschalten, dass eine Any-to-Any-Konnektivität via MC-LAG möglich wird. Diese Top-of-Rack-Farm bildet gemeinsam mit dem OmniSwitch 10k dann das Fabric-System.

Interessanterweise ist Alcatel-Lucent der einzige Hersteller, der im Rahmen seines Data-Center-Fabric-Portfolios auch einen Gigabit-Switch anbietet – den OmniSwitch 6580E. Mit bis zu vier 10-GbE-Uplinks und entweder 24 oder 48 GbE-Ports kann dieser Fixed-Configuration-Switch durchaus eine preisgünstige Alternative für Kunden sein, die zwar ihr Rechenzentrumsnetzwerk modernisieren, aber aktuell keine neuen Server kaufen wollen.

Avaya Virtual Services Platform (VSP)

Die Virtual Services Platform von Avaya basiert auf einer vom Unternehmen angereicherten Version des Pre-Standards SPB, trotzdem garantiert Avaya in seinen online verfügbaren Datenblättern schon jetzt auch eine zukünftige Kompatibilität von VSP mit dem finalen SPB-Standard.

Die VSP-Produktlinie besteht aus dem Top-of-Rack-Switch VSP 7000 und dem VSP-9000-Chassis. Dabei preist Avaya den Route-Switch-Prozessor (RSP) des VSP 9000 als herausragenden Vorteil gegenüber den Lösungen des Mitbewerbs an. Beim RSP handelt es sich um eine hoch spezialisierte High-Performance Network Processing Unit (NPU), die im Gegensatz zu einem in Silizium gegossenen ASIC per Firmware-Update aktualisiert werden kann.

Brocade Virtual Cluster Switching (VCS)

Die „Virtual Cluster Switching“-Architektur von Brocade automatisiert die Detektion und Konfiguration der Switches innerhalb einer Data Center Fabric. Basierend auf dem TRILL-Draft stimmt VCS das traditionelle Fibre Channel Storage Network von Brocade auf die Herausforderungen der Data Center Fabric ab.

VCS ist im Moment erst in einer einzigen Produktlinie verfügbar – dem VDX 6720, einem Fixed-Configuration Switch mit Modellen von zwölf bis 60 10-GbE-Ports. Aber Brocade hat bereits Chassis-basierende VDX-Switches mit wesentlich höherer Kapazität auf seiner Roadmap fixiert.

Cisco Unified Computing system (UCS)

Ciscos Vision einer Data Center Fabric umfasst sowohl das Unified Computing System (UCS) des Unternehmens als auch die Bereiche Firewalls und WAN-Optimierung. Auf der Netzwerkseite basiert Ciscos Data-Center-Farbric-Konzept auf „FabricPath“, einem oft als TRILL-Superset bezeichneten Herstellerprotokoll.

FabricPath wird mit den Nexus-Switches ausgeliefert und ermöglicht Low-Latency Any-to-Any-Verbindungen im Rechenzentrum. Cisco verspricht bereits im Vorfeld Kompatibilität zum ratifizierten TRILL-Standard, weist aber gleichzeitig darauf hin, dass seine Data-Center-Netzwerkrodukte nur entweder in einem TRILL-kompatiblen oder in einem FabricPath-kompatiblen Modus arbeiten werden.

Die aktuell von Cisco verfügbaren Switches füllen mit Produkten vom Top-of-Rack-Switch Nexus 2000 Series Fabric Extender bis hin zum großen Nexus 7000 Chassis die gesamte Leistungs-Range im Rechenzentrum aus. Cisco war einer der ersten Verfechter der Data-Center-Fabric-Vision und entwickelt seine diesbezügliche Strategie bis heute kontinuierlich fort. Gerüchten zufolge arbeitet das Unternehmen aktuell an einer neuen Data-Center-Fabric-Architektur mit dem Codenamen „Jawbreaker“. Jawbreaker soll im Vergleich zu FabricPath die Netzwerkstrukturen im Rechenzentrum weiter abflachen und überflüssige Ebenen abbauen.

Extreme Networks Open Fabric

Open Fabric profitiert vom frühen Engagement des Herstellers im Bereich 40-Gb-Ethernet und den damit bei Extreme längst üblichen High-Speed-Uplink-Ports für Verbindung zwischen den einzelnen Rechenzentrums-Switches.

Extreme Networks hat sich zudem noch nicht für eine der beiden Pre-Standard-Seiten TRILL oder SPB entschieden. Das aktuelle Design von Extreme Networks setzt M-LAG ein, um das Spanning-Tree-Problem zu lösen und multiple aktive Links zwischen den Rechenzentrums-Switches zu etabieren. Die Produktpalette von Extreme reicht dabei vom Top-of-Rack-Switch Summit X670 bis hin zum High-End BlackDiamnond System X8 und bietet bei allen Produkten 40GbE-Uplinks sowie M-LAG-Support.

Force10 Distributed Core Networking (DCN)

Das Data-Center-Fabric-Konzept von Force10 basiert auf TRILL. Dabei realisiert Force10 eine Distributed-Core-Networking-Lösung (DCN), indem es seine 32-Port/40-GbE-z9000-Top-of-Rack-Switches untereinander verknüpft.

Für den Anschluss von 10-GbE-Servern an den z9000 stellt Force10 ein 4-Port-Break-out-Kabel bereits, das jeden einzelnen QSFP+-Port in vier 10-GbE-Ports aufteilt. Diese Technik erlaubt dem z9000 eine Skalierung von bis zu 128 10-GbE-Server-Ports auf einem 2-RU-Form-Faktor (2 RU = zwei Höheneinheiten im Rack).

Für einen Enterprise-Einsatz mit höheren Anforderungen hält Force10 den z9512 Chassis-Switch mit vier 100-GbE-Linecards und 8 40-GbE- bzw. 40 10 GbE-Optionen bereit. Mit TRILL auf seiner Roadmap wird der Core Switch z9512 die Bandbreitenauslastung im Rechenzentrum weiter nach oben treiben.

Juniper Networks QFabric

Junipers Data Center Fabric heißt „QFabric“ und stellt ein ganzes Set an Produkten dar, die gemeinsam so zusammenarbeiten, als wären sie ein einziger großer Switch.

Um dies zu erreichen trennt Juniper die Steuer und Datenleitungen bzw. -planes nicht nur logisch sondern physikalisch. Die Top-of-Rack-Switches der Serie QFX3500 arbeiten dabei aus Sicht des Management-Interfaces wie Linecards. Juniper vernetzt diese QFabric-Switches mit dedizierten optischen Verbindungen. Auch die Verbindungen der Switches mit dem zentralen Midplane Device, den QF/Interconnects, erfolgt auf Basis optischer Verkabelungen. Gesteuert wird das Ganze vom QF/Director, der als Supervisor-Engine für das gesamte System zum Einsatz kommt.

Juniper proklamiert damit die Reduktion der Hierarchie der Rechenzentrumsnetze auf nur mehr eine einzige Ebene bei gleichzeitiger Entkopplung des Managements von der Fabric-Administration, was einer deutlichen Reduzierung der Management-Komplexität gleichkommt.

Obwohl der QFX3500 bereits erhältlich ist, wird Juniper die anderen Elemente seiner Architektur nicht vor Ende Q3 bzw. Anfang Q4 2011 auf den Markt bringen.

weiter mit: Data Center Fabrics – begrenzte Kompatibilität inklusive?

Inhalt des Artikels:

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 2052013 / Versorgung)