Suchen

Was kann Flash in einer SAN-Umgebung?

Schlüsselstellen, an denen sich Festplatten durch SSDs ersetzen lassen

Seite: 3/6

Der ‚I/O-BLENDER‘-EFFEKT (Randomifizierung eines Datenstroms)

In Server-Umgebungen werden stets zahlreiche Anwendungen parallel ausgeführt. Zu diesem Zweck setzen IT-Manager auf virtuelle Server, so dass Nutzer gleichzeitig unterschiedliche Lasten generieren können. Es kommt zu unzähligen, simultanen Anfragen ans Storage-System. Daraus entsteht ein konsolidierter Datenstrom, der durch den Virtualisierungs-Layer komplett „randomifiziert“ wird.

Löst sich der Geschwindigkeitskick angsesicht von Datenbank-Anwendungen in Rauch auf?
Löst sich der Geschwindigkeitskick angsesicht von Datenbank-Anwendungen in Rauch auf?
(Bild: © mdurinik - Fotolia)

Tritt dieses Phänomen auf, spricht man vom ‚I/O-Blender‘-Effekt. Alle sequenziellen Datenströme werden in einem großen Datenstrom zusammengefasst, wobei Anfragen nun zufällig ans SAN abgesetzt werden. Aus diesem Grund erfordert die Server-Virtualisierung eine Infrastruktur, die bei zufälligen Zugriffen äußerst leistungsfähig ist. Exakt diese Anforderung stellt Festplatten vor ein gravierendes Problem, da die physischen Schreib/Lese-Köpfe kontinuierlich von einer Position zur nächsten springen und kläglich versuchen den Anfragen zu bewältigen.

Ineffizient und unzureichend

In Zeiten vor der SSD-Technologie, versuchten IT-Manager das Leistungsungleichgewicht zwischen Servern und Festplatten durch das Hinzufügen von unzähligen Festplatten zu lösen, damit am Ende die IOPS-Performance den Anforderungen gerecht wird. Durch die stückweise SAN-Erweiterung mit Festplatten, steigt auch der Stromverbrauch und Kühlungsaufwand enorm.

Dies bedeutet höhere Gesamtbetriebskosten (TCO). Erschwerend kommt hinzu, dass Festplatten aufgrund der beweglichen Teile über eine äußerst bedingte Lebensdauer verfügen. Dieser Umstand erfordert komplexe Hochverfügbarkeitspläne, so dass die individuellen Festplattenprobleme abgefangen werden können. Ansonsten steht der stabile Betrieb des SAN auf dem Spiel. Auch damit steigen die Kosten weiter an.

Um den durch Virtualisierung entstandenen ‚I/O-Blender‘-Effekt zu adressieren, mussten IT-Manager die Anzahl virtueller Maschinen (VMs) auf jedem Host-Server limitieren. In einigen Fällen, wie beispielsweise Datenbanken und Exchange-Servern, wurden Lasten nicht mehr auf virtuelle Maschinen verteilt, um so das Datenzugriffsmuster zu beeinflussen und damit letztlich eine geringere Randomisierung zu erreichen. Es wurden auch isolierte, nicht-virtualisierte Anwendungen geschaffen, die wiederum Infrastruktur- und Wartungskosten in die Höhe trieben.

I/O zählt mehr denn je

In den vergangenen Jahren wuchsen SAN-Arrays signifikant. Der Grund ist nicht nur auf den gesteigerten Speicherplatzbedarf zurückzuführen, sondern auch auf gesteigerte Anforderungen der I/O-Leistung. Um mit den Laufwerken mit geringer I/O-Leistung ausreichend Performance zu erhalten, setzte man schlicht immer mehr Festplatten ein.

Spätestens seitdem eine SSD hunderte von Festplatten auf einen Schlag ersetzen kann, änderten sich die Voraussetzungen nachhaltig. Wie bereits früher diskutiert, ist eine SAN-Infrastruktur inklusive Server, allen Netzwerkverbindungen und Zugriffspunkten nur so schnell, wie das langsamste Element. Dementsprechend ist es nicht immer der effizienteste Ansatz, Festplatten durch SSDs zu ersetzen.

Aus Nutzersicht zählt einzig und allein die Anwendungsleistung. „Wie schnell kann ich auf Anwendungsdaten zugreifen?“. Wie bereits erläutert, könnte sich der Flaschenhals zwischen Server und SAN befinden. Anstatt Festplatten also einfach zu ersetzen, kann ein effizienterer Weg eine zusätzliche SSD für Caching-Zwecke sein, die damit als Beschleuniger funktioniert. Es werden die am häufigsten verwendeten Daten, auch bekannt als „Hot Data“, zwischengespeichert, so dass der Zugriff darauf beschleunigt wird.

Heiß und kalt

Jede Anwendung verfügt über eine Datenteilmenge, auf die oft oder auch regelmäßig zugegriffen wird. Diese Hot Data können auf einer SSD zwischengespeichert werden, die sich im Host-Server befindet. Somit müssen angefragte Daten nicht mehr vom SAN ausgeliefert werden, sondern werden von der SSD im Server bereitgestellt.

Auf diese Art und Weise lassen sich Flaschenhälse beim Zugriff auf ein SAN und Engpässe bei Server-Zugriffen eliminieren. Vergleicht man die I/O-Leistung einer SSD mit der einer Festplatte, wird klar, dass Daten nun wesentlich schneller ausgeliefert werden und das gesamte System ein beschleunigtes Ansprechverhalten aufweist.

Fügt man einer Infrastruktur ein solches Caching hinzu, werden nicht nur die Gesamtinvestitionen reduziert, auch die Performance wird deutlich durch die Flash-Technologie gesteigert. Aus Administratorensicht, lässt sich diese Lösung problemlos in den meisten aktuellen Servern installieren. Zudem handelt es sich derzeit um eine der kosteneffizientesten und wirksamsten Lösungen zur Eliminierung von Engpässen.

(ID:43017829)