Kommentar von Michael Ettengruber zum Zusammenhang von Latenz und IOPS Flash Storage und der Schindluder mit hohen I/O-Zahlen

Autor / Redakteur: Michael Ettengruber / Rainer Graefen

Hohe I/O-Zahlen gaukeln dem Anwender vor, er hätte es mit einem leistungsfähigen Speichersystem zu tun. Wie immer stellt sich langsam heraus, dass ein herausragender Leistungsparameter nicht die ganze Wahrheit über ein Speichersubsystem sein kann.

Firmen zum Thema

Michael Ettengruber ist seit 2010 Business Development Manager 3PAR, EVA & FC Infrastructure bei HP. Zuvor war er Technical Consultant HP Storage, Server and Networking bei Tech Data und ALSO Deutschland, wo er 1997 seine Laufbahn als Data Center Manager begann.
Michael Ettengruber ist seit 2010 Business Development Manager 3PAR, EVA & FC Infrastructure bei HP. Zuvor war er Technical Consultant HP Storage, Server and Networking bei Tech Data und ALSO Deutschland, wo er 1997 seine Laufbahn als Data Center Manager begann.
(Foto: HP)

Seit Jahren sind Flash-Speicher aus dem Alltag nicht wegzudenken. Man kennt sie etwa als USB-Sticks oder Speicherkarten für Digitalkameras. Sie sind praktisch und robust, mit Kapazitäten von einigen Gigabyte schon für wenig Geld zu haben.

Der Einsatz in der IT, als Solid State Disks (SSDs), ist hingegen relatives Neuland – verspricht aber nicht weniger als einen Paradigmenwechsel in der Speichertechnologie. Seit 2007 die ersten SSDs auf den Markt kamen, fand eine kontinuierliche Verschiebung statt: weg von magnetischen und sich drehenden Festplatten hin zu Flash-basierten „Laufwerken“ ohne magnetisches Medium und mechanische Komponenten.

Sinkende Einstiegsbarrieren für den Mittelstand

Damit werden Leistungswerte in kompakten Systemen mit wenigen Höheneinheiten möglich, für die Systeme mit magnetischen Medien schränkeweise Hardware (und Budget) benötigten – und die für den durchschnittlichen Mittelstand nicht erschwinglich waren.

Doch IT-Abteilungen mussten in der Vergangenheit feststellen, dass der Einsatz von Solid-State-Laufwerken stets mit Kompromissen verbunden war: Entweder brauchten sie eine „Caching-Appliance“ mit separatem Management und Hardware, oder die Leistung lag weit unter den Möglichkeiten der neuen Speichertechnologie, wenn die Solid-State-Medien in bestehende, traditionelle Speichersysteme integriert wurden. Einheitliche Speichersysteme, die sowohl die Leistungsangebote von Solid-State-Medien ausnutzen, als auch die Kapazität und Funktionen eines traditionellen Speichersystems bieten, gab es bisher nicht.

Überholtes Benchmarking

Allerdings findet auch in der Bewertung von Speicherlösungen ein Umdenken statt: In der Vergangenheit wurden beim Leistungsvergleich vor allem die Anzahl von abgearbeiteten Ein-/Ausgabeoperationen pro Sekunde (IOPS) betrachtet.

Je mehr IOPS ein Speichersystem erledigen konnte, umso besser wurde es bewertet. Eine deutlich untergeordnete Bedeutung hatte dagegen die Latenzzeit: die Zeit, die das System zur Abarbeitung der einzelnen Ein-/Ausgabeoperation benötigte.

Aufgrund der weiter fortschreitenden Verbreitung von Solid-State Medien wird die Bedeutung der IOPS bereits in näherer Zukunft spürbar zurückgehen. IOPS werden schlicht „da sein“ – immerhin liefert eine einzelne SSD mehrere Tausend IOPS, bis zu 200 Mal mehr als magnetische Festplatten.

Wenn eine Millisekunde zu langsam ist

Wie viele Hunderttausend IOPS ein Speichersystem darstellen kann, wird indes immer unwichtiger. Denn Umgebungen mit einem Bedarf von mehreren Hunderttausend IOPS sind nach wie vor ziemlich selten.

Dafür gewinnt die Latenzzeit erheblich an Bedeutung. Ein Speichersystem, das seine maximale Leistungsfähigkeit mit einer Latenzzeit von mehr als einer Millisekunde (ms) zur Verfügung stellt, verlangsamt Applikationen systematisch: Diese müssen unnötig lange auf das Ergebnis jeder einzelnen Anfrage an das Speichersystem warten. Das hat zur Folge, dass die Leistungsfähigkeit nicht beim Endbenutzer ankommt.

Der Speichersystem-Hersteller behauptet zwar, Hunderttausende IOPS leisten zu können. Tatsächlich genutzt wird aber nur ein Bruchteil davon. Das führt zu längeren Wartezeiten.

Mit ASIC-Prozessoren gegen Verzögerungen

Gute Hilfe bei der Ermittlung der tatsächlichen und/oder zu erwartenden Leistungsfähigkeit eines Speichersystems leisten die üblichen Benchmarks, die sowohl Leistung als auch Latenz angeben. Man muss sie allerdings verstehen und hinsichtlich der Latenzen kritisch hinterfragen.

Ein einheitliches und universelles Speichersystem sollte demnach eben nicht nur in der Lage sein, tatsächlich zigtausende von IOPS zu leisten, sondern sich auch durch niedrige Latenzzeiten von weniger als einer Millisekunde auszeichnen.

Um das zu erreichen, setzt HP bei den 3ParR-Storeserv-Speichersystemen auf spezifische ASIC-Prozessoren. Diese sind vergleichbar mit einem Netzwerk-Switch und ermöglichen die Verteilung der Daten auf die physischen Datenträger mit geringsten Latenzen.

Software wird zum I/O-Bremsfallschirm

Damit zeichnet sich aber auch das Ende der rein Software-basierten Speichersysteme ohne spezifische ASICs ab. Reines Software-Storage konnte in der Vergangenheit zwar mit einer gewissen Universalität punkten, jedoch decken die neuen Speichermedien die Schwächen dieser Systeme auf.

Verlässt man sich ausschließlich auf Software, um Parität bei RAID-Level 5 oder 6 zu generieren, oder Daten über viele physische Medien zu spiegeln, muss man mit schlechten Werten bei Latenzzeit und Skalierbarkeit rechnen.

Die physischen Medien könnten viel mehr, als die Controller des Speichersystems ihnen abverlangen. Das mindert den Gebrauchswert der neuen Speichermedien und führt zu mangelhafter Ausnutzung. Skalierbarkeit und Leistungsfähigkeit mit niedrigen Latenzen lassen sich nur mit Hardware-unterstützten Storage-Systemen erreichen.

Replikation und Spiegelung müssen funktionieren

Moderne Speichersysteme müssen aber nicht nur in der Lage sein, die Möglichkeiten der neuen Speichermedien auszureizen. Sie sollten dabei auch sämtliche effizienzsteigernde Techniken wie z. B. Thin Provisioning ohne Leistungseinbußen einsetzen.

Auch die Möglichkeit der De-Allokation ehemals benutzter Speicherbereiche sollte erhalten bleiben. Gerade bei Solid-State-Medien mit dem immanent höheren Preis pro Speichereinheit wird die effiziente Nutzung enorm wichtig: Was bringen schnelle Systeme, wenn teurer Speicherplatz durch gelöschte Daten belegt ist?

Die traditionellen Anforderungen an ein Speichersystem ändern sich durch die neue Technik nicht grundsätzlich: Nach wie vor muss ein modernes Speichersystem seine Daten synchron und asynchron auf sich selbst oder ein weiteres System replizieren können, um eine physische und geographische Unabhängigkeit des Betriebs zu gewährleisten.

Verfügbarkeit braucht Standfestigkeit

Aber auch ein Wechsel des aktiven Speichersystems muss automatisiert zur Verfügung stehen und dabei für die Applikation transparent sein. Das erfordert die zunehmende Virtualisierung von Server-Betriebssystemen: Wo das Betriebssystem unabhängig von der darunterliegenden Hardware auf einem Hypervisor betrieben wird, muss auch die Speicherumgebung diesen Funktionalitäten Rechnung tragen.

HP ermöglicht mit dem active/active Stretch-Cluster Peer Persistence einen automatischen und transparenten Failover zwischen 3Par-Storeserv-Speichersystemen ohne zusätzliche Hardware. Ansonsten gewinnen IT-Abteilungen zwar theoretische Verfügbarkeit durch eine gewisse Server-Hardware-Unabhängigkeit, das Speichersystem wäre aber der „single point of failure“.

Bei Speichersystemen – wie bei allen neuen Technologien - sind die effiziente Ausnutzung der technischen Möglichkeiten wie auch die Implementierung zukunftssicherer Technologien enorm wichtig. Und gerade bei den Storage-Systemen gilt: Drum prüfe, wer sich ewig bindet, ob der Server auch zum Speicher findet!

(ID:42256802)