Anbieter zum Thema
Wie behindern Legacy-Speicher-Architekturen die Virtualisierung
Wenn Server-Virtualisierung zu einer IT-Umgebung hinzugefügt wird, werden normalerweise alle Anwendungsdaten in den externen Aufbewahrungsorten oder Netzwerken (SANs) platziert, damit die Fähigkeit erhalten bleibt, alle Anwendungen dynamisch von jedem Server des Rechenzentrums laufen lassen zu können. Während Server Millionen von Input/Output Operations per Second (IOPS) verarbeiten können, liefert eine typische HDD nur eine Leistung von hundert bis zweihundert IOPS. Da mehr und mehr virtuelle Server Rechenzentren hinzugefügt werden, können HDDs innerhalb des SAN einfach mit den Server-Workload-Anforderungen mithalten (siehe: Abbildung 1)

Da viele Anwendungen zusammen laufen, werden diese kombinierten Speicherzugriffsanfragen vom Virtalisierungs-Layer gemischt, was viele Ransom-Zugriffe auf die Platten erzeugt, was als der „IO Blender Effekt“ bekannt ist. Aus diesem Grund erfordert Server-Virtualisierung starke Direktzugriffsfunktionen, die für HDDs das Größte Problem darstellen, weil deren physikalische Köpfe ständig von einem zum anderen Ort springen müssen.
Die Performance-Unterschiede zwischen Server und HDDs sind ziemlich offensichtlich und um diese zu überwinden (vor dem Aufkommen der Flash-Technologie), waren IT-Abteilungen gezwungen, Zehntausende HDDs zu kaufen, um die Server-IOPS-Leistungsanforderung zu erfüllen. Da jedes SAN mit seinen Hunderten von Festplatten weiter gewachsen ist, waren auch deutlich mehr Strom und damit verbundene Kühlsysteme erforderlich, was die Gesamtkosten (TCO) von Rechenzentren wiederum erhöht hat.
Fehleranfällige und behäbige Mechanik
Da mechanische HDDs fehleranfälliger sind, kommt erschwerend hinzu, dass komplexe Systeme für eine hohe Verfügbarkeit benötigt wurden, um Ausfälle einer HDD sowie Speicher-Arrays zu handhaben. Diese Systeme erhöhten weiterhin die Anzahl an benötigten HDDs als auch zusätzlicher Software auf dem SAN-Layer, um das System am Laufen zu halten, was noch mehr Kosten für das Rechenzentrum bedeutete.
Um den Effekt zu adressieren, den Virtualisierung auf HDD-Speicher hat, beschränkten IT-Profis die Anzahl an Virtuellen Maschinen (VMs), welche sie in jedem Host-System platziert hatten und hielten sich in einigen Fällen sogar zurück, empfindliche Loads (zum Beipsiel Datenbanken oder Email) in die virtuelle Umgebung zu leiten, da befürchtet wurde, dass diese Datenzugriffsmuster durch das Mischen der IO mit anderen VMs behindert werden würde. In diesen Fällen wurden isolierte, nicht virtualisierte Anwendungen erzeugt, welche die Infrastruktur- und Wartungskosten erhöhten.
Während IT-Profis dazu angehalten wurden, die Server-Virtualisierung als Mittel zur Kostensenkung im Rechenzentrum einzusetzen, wurden ihre Bemühungen durch die Mängel der Virtualisierung seitens der HDD-Speicher behindert. Bis vor kurzem wurde jede Virtualisierung, welche versuchte die Server-OPEX und –CAPEX zu reduzieren, ausgewogen, durch damit einhergehende, steigende Kosten für HDD-SANs. Leider wurde HDD-Speicher zu einem Bremsklotz der Virtualisierung, indem Unternehmen und Cloud-Anbieter davon abgehalten werden, die wahren Vorteile und damit verbundene Kosteneinsparungen zu realisieren.
(ID:42863855)