Suchen

Back to the Roots: die Mainframe-Architektur lebt im Rechenzetrum neu auf Shortest Path Bridging: radikal neue Konzepte auf bekannter Basis

| Autor / Redakteur: René Princz-Schelter / Dipl.-Ing. (FH) Andreas Donner

Das Zauberwort für die Konsolidierung moderner Rechnerarchitekturen lautet Virtualisierung. Doch diese Virtualisierung steigert den Inter-Server-Traffic rasant und benötigt daher völlig neue, speziell dafür ausgelegte Netzwerkarchitekturen. Die Stichworte hierzu lauten: Single-Hop-Netzwerk und Shortest Path Bridging (SPB).

Firmen zum Thema

Der durch die Virtualisierung wachsende Ost-West-Traffic im Rechenzentrum erfordert neue Netzwerkarchitekturen
Der durch die Virtualisierung wachsende Ost-West-Traffic im Rechenzentrum erfordert neue Netzwerkarchitekturen

Um die Energieeffizienz im Rechenzentrum zu steigern, setzen die Betreiber seit einigen Jahren sehr stark auf Konsolidierung: Mit möglichst wenig Komponenten soll möglichst hohe Leistung erzielt werden. Dieser bereits in Mainframe-Tagen geübte Ansatz war mit der Einführung von Client-Server-Architekturen mehr und mehr verloren gegangen und muss jetzt quasi neu erfunden werden.

Ein erster Schritt in diese Richtung war die Zusammenfassung von Servern, Speichern und weiteren Komponenten wieder an einem zentralen Ort – eben dem Rechenzentrum. Je nach Anforderungen in den Unternehmen kann es auch mehrere Rechenzentren an unterschiedlichen Orten geben und ihre Leistung mag bedarfsweise durch Anmietung externer Kapazitäten ergänzt werden – Stichwort Cloud. Egal wie die Konstellation aussieht – immer geht es darum, alle Ressourcen möglichst konzentriert und kompakt vorzuhalten.

Konsolidierung in Client-Server-Architekturen funktioniert jedoch nur sehr bedingt, wenn es allein bei der räumlichen Konzentration von Ressourcen bleibt. Das Zauberwort für die Konsolidierung moderner Rechnerarchitekturen lautet Virtualisierung. Die Einführung einer abstrakten Rechnerebene hebt den Konsolidierungsfaktor nicht nur auf mindesten gleiche Ebene die wie bei Mainframes, sie bietet zugleich ein mit Mainframes niemals umsetzbares Maß an Flexibilität und – in Sachen Energieeffizienz der entscheidende Punkt, eine mit Mainframes niemals erreichbare der Ressourcenverwaltung.

In einer virtualisierten Umgebung suchen sich Arbeitsprozesse automatisch und dynamisch den jeweils am besten geeigneten Server. Auf diese Weise ist die Auslastung der Ressourcen nicht mehr unberechenbare Glücksache, sondern sehr genau steuer- und damit optimierbar. Ein gängiger Richtwert besagt, dass die rund um die Uhr laufenden Server in Rechenzentren ohne Virtualisierung nur zu durchschnittlich zehn Prozent ausgelastet sind. Zugleich können sie bei Spitzenlasten dennoch überfordert sein. Mit Virtualisierung lässt sich der Grad der Auslastung von Seiten des Rechenzentrumbetreibers vorgeben (temporär nicht benötigte Ressourcen werden abgeschaltet) und Überlastung ist durch die automatische Verteilung der Prozesse abgewendet.

Virtualisierung ist nicht notwendiger Weisee an ein einziges Rechenzentrum gebunden, sie lässt sich auch in einem Verbund mehrerer Rechenzentren sehr gut einsetzen, auch wenn diese global verteilt sind. Die Verbindung zwischen diesen Rechenzentren fordert das Netzwerk allerdings in besonderem Maße.

Herausforderungen für die Netzwerk Infrastruktur

So berechenbar die Ressourcenauslastung durch die Virtualisierung ist, so unberechenbar wird dadurch der Netzwerkverkehr. Ohne Virtualisierung ist es einfach zu ermitteln, wo welche Prozesse laufen und welche Netzwerkressourcen dafür nötig sind. Der Verkehr verläuft dabei auch fast ausschließlich auf der Achse zwischen Servern und Anwendern („Nord-Süd-Verkehr“).

In einer virtualisierten Umgebung, in der Prozesse laufend automatisiert auf Wanderschaft gehen, ist eine Vorausplanung der Netzwerkkapazitäten schlicht unmöglich. Zudem erzeugt der Ortswechsel der Prozesse eine immense Verkehrslast zwischen den Servern („Ost-West-Verkehr“) – bis dato planungstechnisch praktisch irrelevant.

Weitreichende Herausforderungen

Für die Lieferanten der Netzwerkinfrastruktur ergeben sich durch diese Situation zwei weitreichende Herausforderungen. Die erste besteht darin, den Prozessen an der gerade eingenommenen Stelle die erforderlichen Kapazitäten bereitzustellen. Dazu muss der Faktor Netzwerk zusammen mit den anderen Parametern, die einen Prozess vor Wanderschaftsaufbruch analysieren, mit untersucht werden. Natürlich machen sich die virtuellen Maschinen nicht im Blindflug auf den Weg – vielmehr werden geeignete Ziele zuvor hinsichtlich ihrer Ressourcen identifiziert.

Setzt sich ein Prozess schließlich in neuen Zielservern nieder, muss die Virtualisierungsebene, der sogenannten Hypervisor, dafür sorgen, dass dort die zum störungsfreien Ablauf nötigen Parametersätze konfiguriert werden können. In Sachen Kommunikation betrifft das beispielsweise Bandbreiten, Priorisierungsstufen, Verkehrsflusssteuerung etc., damit die vereinbarten Service Level Agreements eingehalten werden können.

Für das Netzwerkmanagement bedeutet das, dass es sich laufend mit der Virtualisierungsplattform, beispielsweise VMware, Microsoft Hyper-V, XEN, KVM etc., austauschen muss, um Informationen darüber zu erlangen, wo gerade welcher Prozess mit welchem Kommunikationsressourcenbedarf abgesetzt werden soll. Anhand dieser Infos muss es schließlich automatisch und dynamisch die Umprogrammierung der Parameter am Zielserver vornehmen. In der Praxis läuft das meist über Kommunikationsprofile, die für jede Anwendung mit hinterlegt werden.

Rasant gestiegener Ost-West-Verkehr

Die zweite Herausforderung ist im Wesentlichen eine Konsequenz aus dem von Null auf ziemlich heftig gestiegenen Ost-West-Verkehr, also dem Inter-Server-Traffic innerhalb des Rechenzentrums. Um dieses Phänomen aufzufangen, ist letztlich die Einführung völlig neuer, speziell dafür ausgelegter Netzwerkarchitekturen unerlässlich. Das Stichwort hier lautet: Single-Hop-Netzwerk – also ein möglichst einfaches und flaches Netzwerk mit möglichst kurzen Wegen zwischen den virtualisierten Server-Prozessen.

Mit den klassischen Architekturen stößt man schnell an die Grenzen, weil die Kommunikationswege über den Umweg der Nord-Süd-Achse abgebildet werden müssen, von daher sehr lang und mit großen Verzögerungen verbunden sind. Gibt es aber große Verzögerungen, wird ein reibungsloses Arbeiten unmöglich, und das gesamte Konzept der Virtualisierung führt sich schnell ad absurdum. Zudem liegen in klassischen Netzwerk-Konzepten häufig redundante Wege brach und können für die Praxis nicht genutzt werden (Spanning Tree).

Single-Hop im Rechenzentrum

Um ein Single-Hop-Netzwerk für die Verbindung von Servern in einem Rechenzentrum zu realisieren, war die Entwicklung einer Reihe neuer Technologien und Übertragungsverfahren notwendig. Bei den Technologien, die zusammen die neue Architektur bilden, gehen die einschlägigen Hersteller jeweils zumindest in Teilen eigene Wege – und auf ihren Wegen zum Ziel sind sie unterschiedlich weit vorangekommen.

Nur wenige haben das Werk bereits vollendet. Einer davon ist Alcatel-Lucent, deren Pod- und Mesh-Architektur bereits im Praxiseinsatz seinen Dienst tut und mit einer Verzögerung von zwei Mikrosekunden im Pod (Server-zu-Server-Netzwerk) beziehungsweise fünf Mikrosekunden im Mesh (Pod-Verbund) hervorragende Ergebnisse abliefert. Im Mesh entsteht eine Switch-Matrix mit einer Kapazität von derzeit bis zu 169 Terabit pro Sekunde. Die Architektur basiert auf 40-Gigabit-Ethernet und ist auch bereits für künftige 100-Gigabit-Ethernet-Verfahren ausgelegt.

Spanning Tree (STP) vs. Shortest Path Bridging (SPB)

Beim Übertragungsverfahren erwies sich das klassische Spanning-Tree-Protokoll als Bestandteil des Ethernets als völlig ungeeignet. Das neue Protokoll, welches ideal für Single-Hop-Netze ausgelegt ist, nennt sich Shortest Path Bridging (SPB).

Dabei handelt es sich um ein international genormtes Standard-Protokoll (IEEE 802.1aq), wodurch Single-Hop-Netze unterschiedlicher Hersteller in der Lage sind, zusammenzuarbeiten. Natürlich gibt es dazu auch Gegenentwürfe – etwa das maßgeblich von Cisco vorangetriebene TRILL, welches in Konsequenz in die Abhängigkeit von einem einzelnen Hersteller führt.

802.1aq revolutioniert die Netzwerktechnologie indem es im Wesentlichen auf die Vereinfachung bei der Installation und den Betrieb von Carrier- und Enterprise- Netzwerken sowie von Cloud-Diensten abzielt. Die Technologie bietet logische Ethernet Netzwerke auf der Basis von nativen Ethernet-Strukturen. Dafür wird ein Linkstate-Protokoll verwendet, um die Netzwerklogik, die Größe und Abhängigkeiten zu übermitteln. Dabei werden die eigentlichen Ethernet-Pakete (Nutzdaten) in SPB eingekapselt und zwischen den verschiedenen Knoten innerhalb des Rechenzentrums aber auch zwischen mehreren Rechenzentren hin und her transportiert. Alle verfügbaren physikalischen Verbindungen können dabei ausgenutzt werden. Das Netzwerk konfiguriert sie quasi von selbst und bietet zudem noch eine Schnittstelle zur Qualitätsüberwachung. Mit Ethernet OAM (IEEE 802.3ah, 802.1ag und ITU-T Y.1731) wird die Überwachung von Service Level Agreements (SLA’s) zu einem Kinderspiel.

weiter mit: Desktop-Virtualisierung

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 32891280)