Netzwerk-Grundlagen – Rechenzentrumsnetze im Umbruch, Teil 7 Virtual I/O und optimierte Prozessorarchitekturen eröffnen neue Leistungsniveaus
Virtualisierte Systeme haben heute oft noch deutliche Grenzen hinsichtlich ihrer I/O-Fähigkeiten. Das wird sich aber sehr schnell ändern und auch virtuelle Systeme werden schon bald 10 oder 40 Gb-Anschlüsse nutzen können. Virtualisierungsbewusste Prozessorarchitekturen und geschickte funktionelle Verlagerungen ermöglichen dies. Dieser Beitrag benennt konkrete Systeme und Standards, die ein wesentlich höheres Leistungsniveau ermöglichen.
Anbieter zum Thema
Realisiert man, wie in Folge vier dargestellt, die Kommunikation mittels Hypervisor, stößt man schnell an Grenzen. I/O und besonders die Kommunikation mit externen Speichersystemen können einen Hypervisor unter ungünstigen Bedingungen in die Knie zwingen. Die Grenze liegt ohne Hardware-Auslagerung bei ca. 3 Gb/s.
Aufgrund der vielfältigen Funktionen eines Hypervisors kann man nicht davon ausgehen, dass die Probleme einzig und alleine durch eine weitere Optimierung seiner Funktonalität zu lösen wären. Vielmehr benötigt er wirkliche konstruktive Hilfe durch die Hardware, genau wie wir das schon für die Unterstützung der Speicherunktionalität gesehen haben .Letztlich geht es darum, den Hypervisor von an und für sich unnützen Aufgaben zu entlasten.
Server I/O ist ein absolut essentieller Kernbereich der Virtualisierung. Virtualisierte Server benötigen mehr Bandbreite und Verbindungen zu mehr Netzen und Speichern als nicht-virtualisierte Systeme, um den VMs, die sie beherbergen, ein gutes Arbeiten zu ermöglichen. Herstellerempfehlungen, wie die „Best Practices“ von VMware, empfehlen dedizierte Konnektivität für kritische virtuelle Maschinen.
Nach einer neueren Umfrage unter Benutzern von Virtualisierungssoftware hat ein typischer virtualisierter Server sieben oder mehr I/O-Verbindungen, mit einer starken Tendenz zu 16. Außerdem muss er viel häufiger neu konfiguriert werden, wenn sich die Anforderungen durch die VMs ändern. Das steht natürlich in krassem Gegensatz zu den Erwartungen, die man an Vereinfachungen durch die Beweglichkeit virtueller Maschinen von der einfachen Lastverteilung über den unterbrechungsfreien Betrieb bis hin zur Disaster Recovery mit wandernden Virtuellen Maschinen eigentlich hat.
Traditionelle Server haben nicht notwendigerweise die gleichen Anforderungen wie virtualisierte Server. Sie sind oft nach den Maßgaben des bekannten dreilagigen RZ-Modells angeordnet, nach dem Server hinsichtlich ihrer I/O exakt so konfiguriert werden, wie es die Anwendungen auf ihnen erfordern.
Server-Virtualisierung ändert dieses Modell dramatisch. Denn das Ziel ist es hier, die Ausnutzung von Servern dadurch zu verbessern, dass man einen dynamischen Pool von Computing Ressorcen schafft, die so benutzt werden können, wie man es braucht. Um dieses Ziel erreichen zu können, müssen verschiedene Anforderungen erfüllt werden:
- Flexible Verteilung von Anwendungen: die meisten Anwendungen sollten auf einem beliebigen Rechner des Pools laufen können
- Multiple Anwendungen pro Server: ist ein Server nicht richtig ausgelastet, soll man weitere Anwendungen dazu packen können, um ihn besser auszunutzen
- Mobilität von Anwendungen: Anwendungen sollten über möglichst alle Server portierbar sein, um Hochverfügbarkeit oder Load Balancing zu erreichen.
weiter mit: Anforderungsauswirkungen auf die Server I/O
Artikelfiles und Artikellinks
Link: Übersicht aller Grundlagenbeiträge von Dr. Kauffels
Link: Video "Netzwerk-Technologien der nächsten Jahre"
Link: ComConsult Study.TV
Link: ComConsult-Report "Konsolidierung im Rechenzentrum"
Link: ComConsult-Report "100G und 100G Ethernet: Anwendungen, Technik, Standards, Produkte"
Link: ComConsult-Report "Aktuelle Netzwerkstandards in der Analyse"
Link: ComConsult-Kongress "Rechenzentrum Infrastruktur-Redesign Forum 2010"
(ID:2045900)