Netzwerkstrukturen für virtuelle Umgebungen und Cloud Computing, Teil 1

Netzwerkvirtualisierung als letztes Glied der Kette – Das Netzwerk wird flach und virtuell

31.05.2011 | Autor / Redakteur: Johann Baumeister / Andreas Donner

Eine Verschiebung von virtuellen Maschinen bedeutet häufig ein Verlassen der Single-Hop-Zone und führt damit zu Leistungseinbußen; Bild: Juniper
Eine Verschiebung von virtuellen Maschinen bedeutet häufig ein Verlassen der Single-Hop-Zone und führt damit zu Leistungseinbußen; Bild: Juniper

Virtualisierung und Cloud Computing sind auf dem Vormarsch. Nach den Servern, dem Speicher und den Desktops stellen die Netzwerke das letzte Glied dar, das sich dem Paradigma der Virtualisierung beugen muss.

Netzwerke verknüpfen Server, Storage und Benutzergeräte miteinander. Dies klingt einfach – die Realität aber ist weitaus komplexer und fußt meist auf einem komplexen Netzwerkdesign. Die heutigen Netzwerkstrukturen sind in der Regel mehrstufig und als Baumstruktur realisiert. Deren unterste Ebene stellt meist der Standardrouter für die Endgerät dar. Hierbei spricht man auch vom Access- oder Edge-Switch. Diese Switches ermöglichen den Endgeräten den Zugang zum Netzwerk des Unternehmens.

In der zweiten Stufe, den Aggregation-Switches, werden die Zugänge der Endgeräte zusammengefasst (aggregiert). Durch die Aggregation-Switches erfolgt darüber hinaus oftmals auch die Lastverteilung und Bündelung mehrerer Kanäle zu einer logischen Netzwerkverbindung. Das oberste Ende bilden schließlich die Core Switches. Sie stellen das Rückgrat (das Backbone) der Netzstruktur dar und sorgen für eine schnelle und sichere Kommunikation der Server mit ihrem Speicher oder Benutzergeräten.

Diese vereinfachte Einteilung lässt sich aber auch weiter verfeinern und wird oftmals in unterschiedliche Gerätetypen aufgebrochen. HP beispielsweise unterscheidet in seiner Darstellung 13 unterschiedliche Anforderungen und Produktgruppen. Bezüglich des Core Routings sind dies beispielsweise die Aggregation Switches und die Produktgruppen für Campus Core oder Enterprise Core. Bei den Edge Switches wiederum unterscheidet HP nach jenen Modellen für den SMB-Markt, den Wireless-Zugang, den Campus Switches und den Zugang zum Enterprise. Hinzu kommen eine Gruppe an Security-Appliances und Access Gateways, sowie die Verwaltungswerkzeuge für den Netzwerkpark.

Beim Einsatz von Blade-Systeme erweitert sich der Umfang der Netzwerkschnittstellen um eine zusätzliche Ebene bzw. eine weitere Netzwerkschicht. Diese befindet sich dann meist im Blade-Chassis. In der Summe ergibt sich somit ein komplexer und mehrstufiger Netzaufbau.

Die Abstimmung der Netzwerkkomponenten zu- und aufeinander ist alles andere als trivial. Denn was nützt beispielsweise eine schnelle Anbindung der Endgeräte über 1-GBit-Leitungen, wenn gleichzeitig das Backbone die gesammelten Datenströme nicht bewältigen kann? Dasselbe gilt natürlich auch umgekehrt. Nur wenn die Baugruppen bestmöglich aufeinander abgestimmt sind, lassen sich auch die gewünschten Leitungskapazitäten erreichen. Im Rahmen des End-to-End Monitoring soll diese Abstimmung überwacht und austariert werden.

Strukturierung hat sich bewährt...

Die Strukturierung des gesamten Netzwerks in mehrere Ebenen und Baugruppen ist sinnvoll und hat sich in der Vergangenheit auch bewährt. Sie erlaubt eine Optimierung des gesamten Netzaufbaus und eine passgenaue Abstimmung der Netzwerkbandbreite auf die Geräte. Zwei Server mit hohem Kommunikationsbedarf werden dabei kurzerhand direkt verknüpft. Dabei werden diese zusammen in ein Rack gepackt und durch einen „Top-of-Rack“-Switch verbunden. Sind die Server nicht direkt miteinander zu verknüpfen, so kann dies auch direkt – also über einen einzigen Hop – über das Backbone erfolgen. Dies gilt oftmals für Backupsysteme, die schnell und ohne Verzögerung große Datenmengen von Dateiservern abholen und sichern müssen.

Sind die Anforderungen allerdings geringer, so lassen sich die Systeme auch über mehrere Ebenen (Hops) verbinden. Um die Zugriffe untereinander abzusichern, erfolgt dies oftmals auch über spezielle Sicherheitssysteme.

...aber nicht in virtuellen Szenarien

Die Segmentierung und Strukturierung der Netzwerke hat sich in der physischen Serverwelt bewährt. In virtuellen Szenarien und Cloud-Umgebungen aber hat die Segmentierung ihre Nachteile. Die dedizierte Abstimmung der Netzwerkbaugruppen mitsamt deren Kapazitäten auf Server und Speicher ist hier anders zu lösen.

Die fortgeschrittenen Techniken der Virtualisierung und des Cloud Computings basieren auf einer dynamischen Lastverteilung und -zuweisung. Dabei werden Pools aus den Rechnerressourcen gebildet. Die virtuellen Maschinen erhalten nur bei Bedarf und zur Laufzeit die benötigten Ressourcen aus diesen Pools zugewiesen. Dies erfolgt durch Automatisierungstools und größtenteils ohne manuelle Eingriffe. Das Ergebnis ist eine schnelle und automatisierte Aktivierung der Dienste, verbunden mit der bestmöglichen Auslastung der vorhandenen Serverhardware.

Die Ressourcenzuweisung der Netzwerkzugänge an die Services erfolgt im Rahmen des Deployments der Dienste, der Aktivierung der Services. Dieses Deployment eines Anwendungsdienstes auf einer IT-Ressource erfolgt durch Automatismen und Skripte, um schnell zu sein.

weiter mit: Poolbildung der Ressourcen und Live Migration braucht dynamische Netzwerkverbindungen

Inhalt des Artikels:

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 2051709 / Hardware)