Virtualisierung und Management im Rechenzentrum Die Allokationsfrage: Tipps zur Planung einer virtualisierten Infrastruktur

Autor / Redakteur: Nils Meyer* / Ulrich Roderer

Loriots Sketch „Auf der Rennbahn“ ist Komik vom Feinsten. Insbesondere die berühmt-berüchtigte Frage „Wo laufen sie denn...?“. Die Fragestellung besitzt besonders in virtualisierten Umgebungen eine hohe Virulenz.

Anbieter zum Thema

Die Virtualisierung erhöht die Flexibilität und Effizienz in der IT. Sie ebnet den Weg zu mehr Agilität und Ressourcenauslastung. Angesichts dieses Leistungsversprechens wäre es beinahe schon fahrlässig, sich nicht mit dieser Technologie zu befassen. Zumal der Einstieg heute allgemein keine technischen Probleme bereitet.

Neue Hürden

Im konkreten Fall birgt die Umgestaltung jedoch einige Stolperfallen und Risiken. Zum einen sind diese in der gewachsenen Infrastruktur des Unternehmens begründet. Zum anderen widersprechen sich die Motive „bessere Auslastung“ und „mehr Flexibilität“ zum Teil. Die Einführung einer oder mehrerer Virtualisierungstechniken mündet wiederum in weitere Abhängigkeiten, die sich bis auf die unterliegende physische Infrastruktur auswirken.

Ein Blick auf den traditionellen Betrieb verdeutlicht die grundlegende Problematik: Wenn in einem Unternehmen eine neue Anwendung oder ein zusätzlicher Service eingeführt werden muss, werden in einem ersten Schritt die Ressourcen-Anforderungen analysiert und im Anschluss die notwendige (physische) Umgebung bereitgestellt. Zu beachten ist in der Regel nur eine Nutzlast. Aus Sicht der Planung lässt sich daher die Frage der ausreichenden Kapazität verhältnismäßig einfach lösen.

Allerdings ist der gravierende Nachteil dieses Vorgehens zugleich Auslöser der Virtualisierungsüberlegungen: Zumeist sind die Ressourcen über die Zeit nicht vollständig ausgelastet, da sie mit Blick auf Spitzenwerte angeschafft wurden. Im Falle der Virtualisierung werden mehrere, zum Teil unterschiedliche Nutzlasten auf demselben physischen Server kombiniert. Auch wenn diese jeweils in unabhängigen Umgebungen ausgeführt werden, konkurrieren die VMs letztlich um die Ressourcen ihres physischen „Gastgebers“. Werden Prozessor, Speichersystem und Netzwerkanschluss von mehreren VMs beansprucht, kann dies aus Sicht einer konkreten Anwendung zu erheblichen Leistungseinschränkungen führen.

Allokation optimieren

Die Allokation zwischen physischen und virtuellen Ressourcen entscheidet letztendlich über Erfolg oder Misserfolg einer Virtualisierungsstrategie. Die IT-Administratoren sind hier gefordert, abhängig von den verfügbaren Ressourcen, erwarteten Nutzlastprofilen und auftretenden Abhängigkeiten eine Bestandsaufnahme geeigneter Virtualisierungskandidaten zu erstellen.

Fraglos besitzen nicht alle Anwendungen die gleiche Bedeutung für ein Unternehmen noch den identischen Nutzlastcharakter. Zu beachten ist ferner der Faktor Zeit. Bestimmte Anwendungen und Services wie die Anmeldung im Netzwerk oder das Provisionieren der Standard-Arbeitsumgebung führen in den Morgenstunden zu höchster Server-Last.

Für andere Anwendungen, etwa Datenbank-Reorganisation oder das Befüllen eines Data Warehouses mittels ETL(Extract, Transform and Load)-Funktion, die ebenfalls Spitzenlasten hervorrufen, zählen zu den typischen Nachtarbeitern einer IT-Umgebung.

Geeignet für Virtualisierung?

Ebenso steht außer Frage, dass nicht für jede Aufgabe die Virtualisierung zusätzlichen Nutzen stiftet. Die Daumenregel lautet hier: Je standardisierter die nachgefragte Leistung, desto besser die Eignung zur Virtualisierung; je spezieller die Aufgabe, desto weniger ist eine Virtualisierung zu empfehlen.

Eine Produktionsanwendung, deren Ausfall die gesamte Wertschöpfungskette im Unternehmen gefährdet und die eine Server-Leistung weitgehend für sich beansprucht, sollte nicht zusätzlich durch das Hinzufügen einer Virtualisierungsschicht belastet werden. Wenn Verfügbarkeit und Leistung höchste Priorität genießen, ist es in der Regel am sinnvollsten, die Nutzlast auf einem dedizierten, bei Bedarf geclusterten physischen Server auszuführen.

Andere Lösungen beispielsweise aus dem Engineering-Segment stellen gesonderte Anforderungen mit direktem Durchgriff auf Spezial-Hardware zur 3D-Beschleunigung o.ä. In einigen Anwendungsfällen muss beachtet werden, dass die benötigte Ablaufumgebung nicht in der Liste der offiziell vom Hersteller unterstützten Konfigurationen aufgeführt ist. Selbst wenn die Anwendung auf der Plattform korrekt funktioniert, stellt dies ein ernsthaftes Hindernis bei der Virtualisierung unternehmenskritischer Ressourcen dar.

Best Practises

Die Quintessenz lautet daher: Nutzen Sie virtuelle Maschinen, wenn Sie können; nutzen Sie dedizierte physische Server, wenn Sie müssen. Eine weitere simple Regel heißt: Wer der Virtualisierung den Vorzug gibt, muss zugleich die Chance zur Konsolidierung ergreifen. Schließlich ist es kontraproduktiv, die vorhandene IT-Infrastruktur einfach 1:1 zu übernehmen und damit den Wildwuchs vergangener Jahre in einer neuen Umgebung weiter zu pflegen.

Der Entwurf von Blaupausen-„Standards“ (Pattern) für Anwendungen und Server ist zugleich ein probates Mittel, die Gefahr des neuen, nun „virtualisierten“ Wildwuchses durch den berüchtigten Server-Sprawl und vergessener VM-„Leichen“ zu begrenzen.

Die angeführten grundsätzlichen Überlegungen verdeutlichen den Bedarf für eine gemeinsame Verwaltung der physischen und virtualisierten Ressourcen, wie sie CA mit seinen Management-Werkzeugen umsetzt. Administratoren erhalten so Karten der gesamten Infrastruktur, die die Beziehungen zwischen physikalischer und virtueller Umgebung visualisieren. Leistungsinformationen der virtuellen und physischen Umgebungen werden ausgewertet und korreliert. Auf diese Weise werden die Anforderungen an das Netzwerk und die Server- und Speicherkapazität sichtbar, die eine Einführung der Virtualisierung nach sich zieht.

Das Wissen über Aufbau, Zusammenhänge und Geschehen in der IT-Umgebung erleichtert es den Administratoren, Ressourcen intelligent am Unternehmensbedarf auszurichten und den sich ändernden Prioritäten zuzuweisen. Nutzlasten lassen sich bedarfsgerecht zwischen physischen und virtuellen Umgebungen hin- und herschieben.

Flexibilität

Diese Flexibilität und – noch mehr – die gewonnene Transparenz leisten einen entscheidenden Beitrag zum Aufbau eines agilen Rechenzentrums. Denn die Bevorzugung der Virtualisierung führt zu neuen komplexen Beziehungsgeflechten. Man denke nur an ein Szenario, bei dem eine virtualisierte (gestreamte) Anwendung über einen virtuellen Desktop, der von einer VM bereitgestellt wird, auf eine Backend-Anwendung in einer weiteren VM zugreift, die ihrerseits von einem NAS-System auf einem physischen Server provisioniert wird.

Ohne ein adäquates Werkzeug, das physische und virtuelle Ressourcen in einer Umgebung überwacht, lassen sich Ursache und Ort einer Störung oder eines Leistungseinbruchs nur aufwändig ermitteln. Denn die eingangs aufgeworfene Frage („Wo laufen sie denn...?“) bleibt zunächst einmal unbeantwortet. Dem Administrator bleibt nichts anderes übrig, als sich noch einmal bei Loriots Rennbahnsketsch („Wenn er es nicht macht, dann hat er es nicht gewollt – oder er konnte nicht.“) zu bedienen.

Dieser Artikel ist Teil einer mehrteiligen Serie zum Thema Management virtueller Umgebungen. Lesen Sie eine Einführung zur Agilität von Rechenzentren hier.

*Nils Meyer, Principal Consultant, Technical Sales bei der CA Deutschland GmbH

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Artikelfiles und Artikellinks

(ID:2045015)