Anbieter zum Thema
Poolbildung der Ressourcen
Damit diese dynamische Zuweisung der Rechenlast (Applikationen) an die Serverhardware überhaupt funktionieren kann, muss aber noch ein Kriterium erfüllt sein: Der IT-Dienst (Applikation) muss unabhängig von der Hardware sein und darf keine spezifische Plattform verlangen. Dazu müssen diese Ressourcen soweit als möglich standardisiert sein. Als Voraussetzung dafür müssen auch der Netzzugang und die Ports vereinheitlicht werden. Für einen IT-Service darf es keinen grundlegenden Unterschied zwischen den Netzwerkports geben.
Nur dann sind Szenarien im Sinne einer Public oder Private Cloud mit vertretbarem Aufwand realisierbar. Würde hingegen für eine Anwendung eine spezielle Hardware oder Lokation vorausgesetzt, so könnte diese kaum schnell und dynamisch auf einer „beliebigen“ Hardware in der Public oder Private Cloud platziert werden.
Live Migration braucht dynamische Netzwerkverbindungen
Aber auch aus einer zweiten Perspektive passt die strukturierte, mehrstufige Netzwerkstruktur nicht so recht zu den Anforderungen der Virtualisierung und des Cloud Computings.
Um die vorhandene Serverhardware bestmöglich auszulasten, werden die Anwendungsdienste nach Bedarf zwischen den Systemen verschoben. Hierzu haben alle führenden Hersteller von Virtualisierungslösungen entsprechende Funktionssets in ihre Produkte implementiert. VMware bezeichnet dies als vMotion, Microsoft spricht von Live Migration und Citrix nennt es XenMotion.
Wenn nun aber von zwei Servern, die direkt und schnell über das Backbone oder einen Top-of-Rack-Switch verknüpft sind, einer kurzerhand auf eine andere Hardware transferiert wird, so ändert sich meist auch dessen Kommunikationsweg über das Netzwerk: Dies gilt insbesondere immer dann, wenn der Zielserver eine andere Anbindung an das Netzwerk aufweist, als der Quellserver hatte. Unter Umständen muss nun die Kommunikation von zwei vorher benachbarten Servern über mehrere Netzwerkknoten und Switches (Hops) erfolgen. Dies bläht nicht nur den Kommunikationsaufwand auf, sondern kann auch zu erheblichen Leistungseinbußen und Latenzen führen. Aus diesem Grund müssen bei der Virtualisierung und Cloud-Computing auch die Netzwerkstrukturen betrachtet werden.
Dynamische Zuweisung der virtuellen Ressourcen
Mittelfristig wird die Virtualisierung und Flexibilisierung der Netzwerkverbindungen daher notwendig und unumkehrbar sein. Warum? Weil alle anderen Baugruppen und Konzepte der IT dies verlangen werden! Durch Virtualisierung und Cloud Computing lassen sich Ressourcen wahlfrei und schnell zuweisen. Logische (virtuelle) CPUs können schnell und einfach hinzu- oder weggenommen werden.
CPU-Takte lassen sich seit Jahrzehnten durch Multitasking dynamisch nach Bedarf den Anwendungen zuweisen. Gleiches gilt für den Arbeitsspeicher. Durch Paging und Swaping erfolgt eine Anpassung des Arbeitsspeichers an den Bedarf. Virtualisierer wie VMware mit seinem ESX bieten darüber hinaus durch Memory Overcommit eine bestmögliche Speichernutzung. Auch die Virtualisierung des Plattenspeichers wird seit Jahren erfolgreich angewandt. Mehrstufige Dateisysteme virtualisieren den Speicherplatz seit Jahrzehnten. Hinzu kommen Techniken wie Thin Provisioning oder Tiered Storage, die beide den Virtualisierungsgrad erweitern.
Somit sind nahezu alle Ressourcen, die zum Betrieb von Anwendungen notwendig sind, virtualisiert und standardisiert. Bis auf eine Ausnahme: die Netzwerke. Um aber Virtualisierung und Cloud Computing weiter voranzutreiben müssen auch sie vereinheitlicht und virtuell umgesetzt werden.
Fazit
Die mehrstufigen Netzwerkstrukturen sind meist relativ starr. Virtualisierung und Cloud Computing verlangen aber nach dynamisch schaltbaren Netzanbindungen. Die strukturierte Verkabelung mit fest zugewiesene Ports, Bandbreiten und Kabeln wird flexibler werden müssen. Die Virtualisierung des Netzwerks stellt das letzte Glied in der Kette einer vollständig dynamisierten IT dar.
Weiter mit Teil 2 dieser Reihe
(ID:2051709)