Grundlagen für Virtualisierung Serverkonsolidierung und Business Continuity

Autor / Redakteur: DataCenter-Insider.de / Florian Karlstetter

Virtualisierung hat sich in den letzten Jahren zu einer wichtigen Grundlage moderner IT entwickelt. Beispielsweise setzen bereits mehr als 20.000 Firmen und über eine Million Anwender weltweit die Virtualisierungslösung VMware Infrastructure 3 (VI3) produktiv ein.

Anbieter zum Thema

VI3 überführt die oftmals bunt gemischten, auf unterschiedlichster Hardware laufenden Systeme in ein homogenes Rechenzentrum. Bereits zwei leistungsfähige physische Maschinen können dutzende virtuelle Server beherbergen.

Virtualisierung gibt es schon lange: Mainframes und Unix-Server mit ihren RISC-CPUs bieten schon seit den 60er Jahren Möglichkeiten der Partitionierung von Hardware-Ressourcen. Zunächst handelte es sich dabei um relativ starre elektronische Schaltungen.

Schnell kamen dann aber die Methoden der logischen Partitionierung mithilfe einer Abstraktionsschicht ins Spiel. Unix-System-Virtualisierung war von Anfang an leicht umzusetzen, bot Sicherheit und Performance, weil sie prozessorseitig unterstützt wurde.

Virtuelle Maschinen für x86-Rechner gibt es erst seit knapp sieben Jahren. Von CPU-seitiger Unterstützung war hier bislang noch keine Spur zu sehen. Die ersten Host-basierten Produkte wie VMwares Workstation oder Virtual PC von Microsoft adressierten damals vor allem Soft ware-Entwickler.

Vorteile der Virtualisierung

In den meisten Rechenzentren wuchs in den letzten Jahren die Serverzahl ständig an, wogegen die Auslastung der einzelnen Systeme eher sank. Viele Gründe sprechen daher für eine Virtualisierung der IT-Infrastruktur:

  • Explodierende Serverleistung führt zu unterforderten Servern mit wenigen Prozent Auslastung, erst recht durch moderne Dual-Core- und Quad-Core-CPUs.
  • Inkompatible Anwendungen oder Supportrichtlinien der Soft ware-Hersteller verlangen die Isolation von Anwendungen auf jeweils eigenen Systemen. Das führt zu noch mehr unausgelasteter Hardware.
  • Zusätzlich führt die Vielzahl von Systemen zu Platz- und Energieproblemen im Serverraum, also zu einer weiteren Ressourcenvergeudung.
  • Die Verwaltung und Überwachung der wachsenden Infrastruktur aus unterschiedlichen physischen Systemen wird immer komplizierter, arbeitsintensiver und fehleranfälliger.
  • Lösungen zur Ausfallsicherheit sind in der ausufernden Umgebung immer schwerer zu implementieren. Im Fehlerfall verursachen Stillstandszeiten weitere hohe Kosten.

Eine etablierte Lösung auf dem Weg hin zur effizienten Ausnutzung aller Ressourcen in der mittelständischen IT ist Virtualisierung. Virtuelle Infrastrukturen konsolidieren heterogene Systeme auf einheitliche Hardware und zentralisieren die Verwaltung und Überwachung.

In Folge einer zweiten Produkt-Evolutionsstufe sind heute performantere, sogenannte Hypervisor-basierte Serverlösungen auf dem Markt erhältlich. Anwendungsgebiete sind IT-Departments großer Unternehmen und Internet Service Provider. Bekannte Produkte für die Server-Virtualisierung sind ESX Server von VMware, das Open-Source-Projekt Xen, Virtuozzo von SWsoft sowie Virtual Server von Microsoft.

DataCenter im Fokus

Ein Haupteinsatzgebiet Hypervisor-basierter Lösungen werden in Zukunft die Rechenzentren sein. Dort kann durch die Virtualisierung eine vollständige Entkopplung von Software und Hardware, also eine komplett virtualisierte Infrastruktur erreicht werden.

Dies erlaubt es nicht nur, jeder Software die Hardware anzubieten, die sie benötigt. Vielmehr lassen sich auch Ressourcen zwischen den virtuellen Maschinen im laufenden Betrieb beliebig verteilen, falls höhere Anforderungen dies notwendig machen. Neben der Skalierbarkeit erhöht Virtualisierung auch die Ausfallsicherheit, denn der Absturz eines virtuellen Servers beeinträchtigt die anderen oder gar das Host-System in keinster Weise.

Es wird noch dauern, bis die Virtualisierung vollständig in den Rechenzentren ankommt. Denn selbst in der darunter liegenden Marktstufe, der Server-Virtualisierung in großen IT-Organisationen, ist die Verbreitung von virtuellen Maschinen nicht wirklich fortgeschritten. Marktforscher Tim Klasell von der Unternehmensberatung Thomas Weisel Partners zufolge sind derzeit gerade einmal vier Prozent aller Server mit virtuellen Maschinen bestückt.

Alles im Griff

Um breite Verwendung zu finden, bedürfen die Virtualisierungsprodukte der Verbesserung. Nicht in Bezug auf Performance oder Ausfallsicherheit – vielmehr fehlen hochwertige Ma-nagementtools und (SLA-basierende) Automatisierungsfunktionen zur Planung, Implementierung, Kontrolle, Steuerung, Lastverteilung oder Disaster Recovery in virtuellen Umgebungen.

In diesem Bereich sind nicht alle Anbieter in der Lage, eine anwenderfreundliche und einfache Managementumgebung anzubieten. VMware ist in diesem Punkt schon weiter als einige der Mitbewerber, doch die folgen auf dem Fuß. Novell zum Beispiel arbeitet derzeit am Xenworks-Orchestrator, einer Managementlösung zur Automatisierung heterogener virtueller Umgebungen im Rechenzentrum, die VMware, Xen und Microsoft unterstützen soll.

Systemmanagementlösungen entwickeln auch Xen-Source sowie BMC, Mercury und Quest. Auf der Hardware-Seite kommt Unterstützung von den Marktgrößen Intel und AMD. Mit den Vanderpool- und Pacifica-Prozessoren und der in der Hardware implementierten Features können die Software-Layer der Virtualisierungslösungen schlanker ausfallen.

Dies verringert deren Overhead, wodurch sich die Performance erhöht. Zudem erübrigt sich die Para-Virtualisierung, also die Modifizierung der Betriebssysteme und gegebenenfalls die der Applikationen.

(ID:2013631)