Netzwerk-Grundlagen – Rechenzentrumsnetze im Umbruch, Teil 5 Der Einfluss der Virtualisierung auf die Speichertechnologie im Überblick

Autor / Redakteur: Dr. Franz-Joachim Kauffels / Dipl.-Ing. (FH) Andreas Donner

Die Virtualisierung hat, wie könnte es auch anders sein, auch erhebliche Auswirkungen auf die Speichertechnologie. Daher müssen wir hier die grundsätzlichen Zusammenhänge darstellen. In Konsequenz haben diese wiederum schwer wiegende Implikationen auf das Design des zugrundeliegenden RZ-Netzes.

Anbieter zum Thema

Genau wie sich die virtuellen Maschinen freizügig über die Server bewegen, müssen sie auch jederzeit einen hochqualitativen Zugang zu den Speicherressourcen haben. Merken Sie etwas? Wenn man das zu Ende denkt, wird das Netzwerk zum Systembus! Wir arbeiten uns erst in die allgemeinen Anforderungen und Zusammenhänge ein und kommen zum Abschluss dieses Teils zu einem weiteren Highlight aus Produktsicht: Wandernde Disk Files mit Storage VMotion.

Die Konvergenz von LAN und SAN im RZ, I/O-Konsolidierung und Begriffe wie NAS, SAN, iSCSI, FCoE, CEE, DEE, DCB, EoFC & Co. hängen damit zusammen, bilden aber einen eigenen so großen Themenblock, dass wir das gesondert und zusammenhängend in weiteren Folgen behandeln werden.

Wie immer, ist es sinnvoll, zunächst auf die grundsätzlichen Methoden des Speicherzugriffs in einem klassischen Betriebssystem zu blicken.

Anwendungen gehen davon aus, dass sie einen einzigen großen Speicherraum zur Verfügung haben. Dieser ist aufgeteilt in Seiten a X KB. Jede Adresse gibt demnach Seitennummer und Position in der Seite an. Von einem (früher schon als virtuell bezeichneten) Speicherraum der gekennzeichneten Art wird zu einer Zeit immer nur ein kleiner Teil benötigt (Lokalitäts-Prinzip).

Es ist also Unsinn, diesen Speicher in seiner Gänze tatsächlich zur Verfügung zu stellen. In der Praxis liegt der „virtuelle Speicher“ auf der Festplatte. Im RAM wird der aktuell benutzte Anteil in RAM-Seiten (Kacheln) bereitgestellt. Bei der Adressierung verwendet die Anwendung virtuelle Adressen. Ein CPU-nah realisierter Memory Management Unit Process sieht nach, ob die geforderte Seite im RAM vorhanden ist oder nachgeladen werden muss. Das Nachladen geschieht mit einer so genannten Seitenersetzungsstrategie (Demand Paging), die durch einen systemunterstützenden Elementarprozess implementiert wird.

Abbildung 1 stellt die Zusammenhänge dar. In der Abbildung ist der MMU-Prozess auf der gleichen Ebene wie ein Anwendungsprozess realisiert. Das dient eher der Verdeutlichung, weil er auch eine Stufe tiefer implementiert werden kann, um eine größere Nähe zur Hardware aufzuweisen.

In den vergangenen Jahrzehnten wurden sehr viele Verbesserungen eingeführt, um den Prozess der Seitenersetzung zu beschleunigen. Dazu gehört vor allem der weite Bereich der Pre-Caching-Techniken. Hier versucht ein „intelligentes“ Demand-Paging-Verfahren, Seiten vorschauend zu laden, die die Anwendung in naher Zukunft mit hoher Wahrscheinlichkeit benötigen wird. Andere Alternativen ergeben sich aus der Annahme, dass sich die Anwendung relativ kontinuierlich auf dem Speicher bewegt und man daher eine Art „Sliding Window“ für das Nachladen aufbauen kann.

weiter mit: Die Shadow-Tabelle

Artikelfiles und Artikellinks

(ID:2045861)