Rückblick, Status Quo und Zukunft der Storage-Virtualisierung, Teil 3 Die Speichervirtualisierung ist beim Mittelstand angekommen
HP war bereits zu Beginn der Blockvirtualisierung mit von der Partie. Mit der Vision einer „Converged Infrastructure“ will das Unternehmen die Zukunft der Speichervirtualisierung wesentlich mitgestalten.
Anbieter zum Thema
Rainer Graefen, Chefredakteur Storage-Insider.de, sprach mit Guido Klenner, Business Manager Online Storage bei Hewlett-Packard, und Ingo Kraft, Senior Business Manager LeftHand bei Hewlett-Packard, über die Höhen und Tiefen der Speichervirtualisierung und den aktuellen Bedeutungswandel.
Storage-Insider: Meine erste Erinnerung an Storage-Virtualisierung, damals wurde es als SAN-Virtualisierung bezeichnet, war die Inband-Virtualisierung. Was war aus Ihrer Sicht das Besondere an dieser ersten Inband-Lösung, die als Betriebssystem Windows benutzte und immer noch benutzt?

Kraft: Für unsere Kunden stellte vor dieser Entwicklung ein Array plus Erweiterungs-Disks ein Speichernetz dar. Mit der Inband-Lösung wurde den Anwendern dann auf einmal deutlich, dass auch der Speicher eine Abstraktionsschicht besitzen kann. Vor der Speicherhardware stand also auf einmal ein zusätzlicher Server. Ich erinnere mich an Projekte, bei denen der Inband-Virtualisierung ein großes Misstrauen entgegengebracht wurde. Man sah die zuverlässige Datenspeicherung durch diese Software gefährdet.
Storage-Insider: Könnten Sie bitte erklären was die Inband-Technik auszeichnet.
Klenner: Normalerweise sind Server und Speicher im SAN über ein Fibre-Channel-Netzwerk verbunden. Hierüber werden Schreib/Lese- wie auch die Steuerbefehle übertragen. Bei der Inband-Lösung läuft dieser komplette Datenstrom zusätzlich durch eine Appliance aus einem Standard-Industrie-PC und einer Software, die die Speicherblöcke einer Festplatte nachbildet. Der Server sieht damit keine physische Festplatte mehr, sondern ein logisches, respektive virtuelles Volumen. Ein Nachteil dieser Lösung ist, dass nicht nur die Befehle, sondern auch mehr als 90 Prozent der echten Daten durch die Appliance laufen müssen. Das bringt zeitliche Verzögerung mit sich, die allerdings bis zu gewissen Kapazitätsdimensionen durch Cache-Speicher ausgeglichen werden können.
Storage-Insider: Welche Probleme wollten die Kunden denn bei ihren Speicherbedürfnissen vor zehn Jahren lösen?
Kraft: Die traditionellen Systeme hatten den Nachteil, dass das Management für die Verwaltung und Pflege sehr zeitintensiv war. Die Administratoren waren gut damit beschäftigt, das System am Leben zu erhalten und zu optimieren. Vielfach zeigte sich, dass die Ausnutzung des physischen vorhandenen Speichers schlecht war. Mittels Virtualisierung lassen sich einfacheres Management und bessere Auslastung umsetzen.
Storage-Insider: Warum haben sich damals die Anwender der technischen Umsetzung des Speicherpools, dies die Idee hinter der Block-basierenden Virtualisierung, so lange verweigert?
Klenner: Obwohl es die Inband-Virtualisierung seit nunmehr zehn Jahren gibt, kam der Durchbruch erst mit dem Höhenflug bei der Servervirtualisierung. Das ist auch nachvollziehbar. Jeder Datenbank-Operator bekam das kalte Grausen bei der Vorstellung, nicht zu wissen, wo seine Daten liegen.
Da sich die Performance von Datenbanken beständig ändert, ist eine gezielte Beeinflussung von RAID-Gruppen wichtig. Sind die Daten erst einmal virtualisiert, so dass damalige Verständnis, ist das nicht mehr transparent, also nicht mehr zu beeinflussen. Erst mit der Servervirtualisierung wuchs das Verständnis für die Flexibilität virtualisierter Umgebungen.
Inzwischen weiß man, dass das eine nicht ohne das andere geht. Im Bereich virtueller Maschinen benötigt man zwingend einen transparenten Speicher-Failover, sonst ist die Hochverfügbarkeit der Daten nicht sicherzustellen. Mit einer Inband-Lösung gab es diese Möglichkeit, zwei Disk Arrays wie ein RAID-1 zu verwenden. Diese Lernkurve haben inzwischen viele IT-Administratoren durchlaufen.
Kraft: Ich kann das nur aus meiner Erfahrung als Produktmanager für LeftHand bestätigen. Der Administrator weiß zwar nicht mehr, auf welchen Disk Arrays seine Daten liegen, er muss sich mit komplexeren Strukturen auseinandersetzen. Dafür bekommt er wichtige Funktionen, mit denen er letztlich Kosten spart, da er wesentlich mehr Terabytes verwalten kann. In jüngerer Zeit haben die Hersteller Oberflächen und Bedienung vereinfacht und so die Angst vor der Komplexität senken können.
weiter mit: Die Storage-Hersteller mussten in den letzten 15 Jahren einige Entwicklungsschleifen durchlaufen
(ID:2046458)