Die (R)Evolution der Rechenzentren; Teil 7

I/O-Virtualisierung auf der Grundlage von SR-IOV

04.03.2011 | Autor / Redakteur: Dr. Franz-Joachim Kauffels / Andreas Donner

Das Rechenzentrumsnetz auf seinem Weg zum Systembus; Bild: Cisco; Dr. Franz-Joachim Kauffels
Das Rechenzentrumsnetz auf seinem Weg zum Systembus; Bild: Cisco; Dr. Franz-Joachim Kauffels

2010 hat die Diskussion um virtualisierte Server eine neue Dimension erreicht. Durch die Einführung von I/O-Virtualisierung auf der Grundlage von SR-IOV können wir nicht länger von „harmlosen“ virtualisierten Servern mit geringer I/O-Fähigkeit ausgehen. Vielmehr können einzelne Server jetzt in I/O-Bereiche von 20 bis 30 Gbit/s vordringen – und es gibt schon jetzt Server-Blades mit 10 Gbit/s I/O-Leistung für ein einzelnes Blade.

In Abbildung 1 sehen wir die Komponenten eines virtualisierten Systems in der Bauart bis 2009. Die I/O wird komplett durch den Hypervisor abgearbeitet. Dadurch entsteht hier ein Engpass, der zu einer vergleichsweise langsamen I/O führt. Also benötigt man auch nur z.B. einen 1GbE-Anschluss für einen solchen Server.

Schon vor 2009 hatten die virtualisierten Systeme einen großen Leistungssprung dadurch gemacht, dass die komplexe Vorhaltung der virtuellen Speicher für die virtuellen Maschinen durch die Hardware unterstützt wurde. Ohne diesen Schritt wäre die Server-Virtualisierung längst nicht so erfolgreich gewesen.

Ende 2009 / Anfang 2010 kamen erste Lösungen für die Hardware-Unterstützung der I/O auf. Diese wurden praktisch unmittelbar in die neu auszuliefernden Server, ob nun Rack- oder Blade-Server, eingebaut. Eine Unterstützung von Seiten der Virtualisierungssoftware war ebenfalls sofort gegeben. Daher gab es wirklich in einem Zeitraum von weniger als 6 Wochen einen dramatischen Leistungssprung bei der I/O-Leistung von Rack- und Blade-Servern; siehe Abbildung 2.

Das dadurch entstehende Problem kann man auch mit den anspruchsvollen VMs charakterisieren. Sie möchten jederzeit Zugriff auf die für sie definierten und ihnen zustehenden Ressourcen. Hat man Glück, ist das nur eine Ethernet-Verbindung. Existiert im RZ aber auch noch ein FC-SAN, muss natürlich auch darauf sinnvoll zugegriffen werden können.

Neue Dimensionen

Der Netzwerker ist also gezwungen, eher heute als morgen eine erheblich stärkere Leistung für einen Server-Anschluss zur Verfügung zu stellen. Macht er das auf der Grundlage der ihm heute zur Verfügung stehenden 1GbE-Technik, sind die Folgen für ein Rack verheerend. Wir wissen ja schon, dass diese Lösung nicht länger tragfähig ist, aber mit den neuen Servern oder Blades mit 10 oder mehr GbE I/O-Leistung stellt sich das Problem in einer ganz anderen Dimension.

Für 2011 sind folgende Trends zu erwarten: die Konsolidierung auf dem Production-Level wird sich fortsetzen und sich auf die meisten missionskritischen und leistungssensitiven Anwendungen ausdehnen. Die Virtualisierung dieser Anwendungen setzt virtualisierungs-optimierte Hardware zur Reduktion des Hypervisor-Overheads voraus und adressiert hierbei besonders die Bereiche I/O-Latenz und Durchsatz. Außerdem werden die Anzahl der Cores in einer CPU sowie die Speichergrößen ansteigen. Dadurch wird die Dichte von VMs in einem Server zunehmen, wodurch wiederum die Anforderungen hinsichtlich Hochverfügbarkeit und Fehlertoleranz steigen. Neben der eigentlichen Konsolidierung werden Unternehmen vermehrt dazu tendieren, den Hypervisor für neue Aufgabenbereiche wie Hochverfügbarkeit, Disaster Recovery und Ressourcen-Optimierung einzusetzen. Virtualisierung eröffnet preiswertere und oftmals bessere Wege für diese Bereiche, besonders durch Instant Provisioning und Live Migration. So schön das auch alles ist, eines ist sicher: die Anforderungen an die I/O steigen dramatisch, je dynamischer man es möchte, desto dramatischer wird es.

Unaufhaltsamer Mega-Trend

Eine IDC-Studie zur Virtualisierung sagt aus, dass die Unternehmen zu Beginn von 2009 nur etwa 20 Prozent ihrer Server virtualisiert hatten. Innerhalb kürzester Zeit sollte dieser Wert auf bis zu 50 Prozent steigen. Der Knackpunkt dafür ist aber eine Verbesserung der I/O in einer virtualisierten Umgebung, sonst macht es in vielen Fällen nämlich einfach keinen Sinn. Wenn viele VMs um die Bandbreite wetteifern, reicht es nicht nur, die aggregate Bandbreite zu erhöhen, sondern man muss auch den Mechanismus für den Zugriff einer individuellen VM auf die I/O-Ressourcen zu verbessern.

Im Frühjahr 2010 gab es eine durch einen Tolly-Test angefeuerte Auseinandersetzung zwischen HP und Cisco. Kern waren Aussagen über die tatsächliche I/O-Leistung dieser Systeme, also des HP Blade Systems und des Cisco UCS. Wir wollen hier dazu gar nicht Stellung nehmen. Interessant ist aber, dass beide Kontrahenten behaupten, dass ein maximal konfiguriertes System eine I/O-Leistung von aggregaten 80 Gbit/s. hat. Und an diesem Wert sind vom Grundsatz her auch keine Zweifel angebracht.

Spannend ist aber doch die Frage, wie man ein solches voll ausgerüstetes Blade System (oder UCS, oder Blade Center) sinnvoll an ein Netz anschließen kann. Blickt man jetzt auf das, was die Hersteller machen, sieht man tatsächlich die Absicht, hier 16 bis 20 10-GbE-Adapter in das System zu stopfen. Das kann doch wohl nicht die Lösung sein!

Ich habe den Eindruck, dass die Herausforderungen an die RZ-Netze durch Virtual I/O noch nicht überall angekommen sind.

weiter mit: Einflussfaktor I/O-Konvergenz und Speicherproblematik

 

ComConsult Netzwerk-Redesign Forum 2011

Inhalt des Artikels:

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 2050125 / Virtualisierung)