Kommentar von Michael Ettengruber zum Zusammenhang von Latenz und IOPS

Flash Storage und der Schindluder mit hohen I/O-Zahlen

Seite: 2/2

Firmen zum Thema

Ein einheitliches und universelles Speichersystem sollte demnach eben nicht nur in der Lage sein, tatsächlich zigtausende von IOPS zu leisten, sondern sich auch durch niedrige Latenzzeiten von weniger als einer Millisekunde auszeichnen.

Um das zu erreichen, setzt HP bei den 3ParR-Storeserv-Speichersystemen auf spezifische ASIC-Prozessoren. Diese sind vergleichbar mit einem Netzwerk-Switch und ermöglichen die Verteilung der Daten auf die physischen Datenträger mit geringsten Latenzen.

Software wird zum I/O-Bremsfallschirm

Damit zeichnet sich aber auch das Ende der rein Software-basierten Speichersysteme ohne spezifische ASICs ab. Reines Software-Storage konnte in der Vergangenheit zwar mit einer gewissen Universalität punkten, jedoch decken die neuen Speichermedien die Schwächen dieser Systeme auf.

Verlässt man sich ausschließlich auf Software, um Parität bei RAID-Level 5 oder 6 zu generieren, oder Daten über viele physische Medien zu spiegeln, muss man mit schlechten Werten bei Latenzzeit und Skalierbarkeit rechnen.

Die physischen Medien könnten viel mehr, als die Controller des Speichersystems ihnen abverlangen. Das mindert den Gebrauchswert der neuen Speichermedien und führt zu mangelhafter Ausnutzung. Skalierbarkeit und Leistungsfähigkeit mit niedrigen Latenzen lassen sich nur mit Hardware-unterstützten Storage-Systemen erreichen.

Replikation und Spiegelung müssen funktionieren

Moderne Speichersysteme müssen aber nicht nur in der Lage sein, die Möglichkeiten der neuen Speichermedien auszureizen. Sie sollten dabei auch sämtliche effizienzsteigernde Techniken wie z. B. Thin Provisioning ohne Leistungseinbußen einsetzen.

Auch die Möglichkeit der De-Allokation ehemals benutzter Speicherbereiche sollte erhalten bleiben. Gerade bei Solid-State-Medien mit dem immanent höheren Preis pro Speichereinheit wird die effiziente Nutzung enorm wichtig: Was bringen schnelle Systeme, wenn teurer Speicherplatz durch gelöschte Daten belegt ist?

Die traditionellen Anforderungen an ein Speichersystem ändern sich durch die neue Technik nicht grundsätzlich: Nach wie vor muss ein modernes Speichersystem seine Daten synchron und asynchron auf sich selbst oder ein weiteres System replizieren können, um eine physische und geographische Unabhängigkeit des Betriebs zu gewährleisten.

Verfügbarkeit braucht Standfestigkeit

Aber auch ein Wechsel des aktiven Speichersystems muss automatisiert zur Verfügung stehen und dabei für die Applikation transparent sein. Das erfordert die zunehmende Virtualisierung von Server-Betriebssystemen: Wo das Betriebssystem unabhängig von der darunterliegenden Hardware auf einem Hypervisor betrieben wird, muss auch die Speicherumgebung diesen Funktionalitäten Rechnung tragen.

HP ermöglicht mit dem active/active Stretch-Cluster Peer Persistence einen automatischen und transparenten Failover zwischen 3Par-Storeserv-Speichersystemen ohne zusätzliche Hardware. Ansonsten gewinnen IT-Abteilungen zwar theoretische Verfügbarkeit durch eine gewisse Server-Hardware-Unabhängigkeit, das Speichersystem wäre aber der „single point of failure“.

Bei Speichersystemen – wie bei allen neuen Technologien - sind die effiziente Ausnutzung der technischen Möglichkeiten wie auch die Implementierung zukunftssicherer Technologien enorm wichtig. Und gerade bei den Storage-Systemen gilt: Drum prüfe, wer sich ewig bindet, ob der Server auch zum Speicher findet!

(ID:42256802)