Anbieter zum Thema
Leistungsbetrachtungen
Datenbanken zählen zu den leistungshungrigsten Anwendungen. Dies liegt unter anderem daran, dass die Datenbestände kontinuierlich wachsen. Jede neue Buchung, Bestellung oder Artikelbewegung eines Warenwirtschaftsystems führt zu weiteren Datensätzen. Der alltägliche und zweckbestimmte Gebrauch des DBMS erhöht permanent das Datenvolumen. Würden die Daten in den Datenbanken nicht periodisch bereinigt oder entfernt, so würde - früher oder später - jede Datenbank die Grenzen sprengen. Daher gilt es den Ressourcen, die der Datenbankapplikation zugewiesen werden, eine besondere Aufmerksamkeit zu schenken. Wenngleich dieser Bedarf sich nicht prinzipiell von den Anforderungen in physikalischen Umgebungen unterscheidet, so muss doch geprüft werden, ob die virtuelle Umgebung die Anforderung der Applikation bereitstellen kann. Generell kann der Overhead von virtuellen Umgebungen bei den I/O-Operationen rund zwei bis zehn Prozent betragen. Bei der CPU sind circa fünf Prozent mehr Leistung zu kalkulieren als auf physikalischen Systemen. Der Bedarf für leistungsfähigere Systeme hat sich außerdem in den letzten Jahren durch immer komplexere Einsatzszenarien eher noch verstärkt.
Speziell die bisher existierenden Begrenzungen des adressierbaren Hauptspeichers in virtuellen Umgebungen im Vergleich zu den zwei TByte bei physikalischen Maschinen, stellt neben den Einschränkungen im I/O-Bereich die größte Herausforderung dar. Damit treten bei der Konsolidierung von Datenbanken in virtuellen Umgebungen gänzlich neue Aspekte zu Tage.
Microsoft verlangt zwar einerseits beim Einsatz des Hyper-V eine 64 Bit CPU und ist in dieser Hinsicht auch für die Zukunft gewappnet. Andererseits unterstützt der Hyper-V selbst in der Enterprise und der Datacenter Edition maximal 64 GByte pro virtueller Betriebssystem-Instanz. Bei der Standard Edition beträgt der maximale unterstützte Speicher 32 GByte für das Hostbetriebssystem und 31 GByte für die virtuellen Maschinen. Bei heutigen Datawarehouse Applikationen im Bereich von dreistelligen Terabytes kann diese Grenze unter Umständen zu Einschränkungen führen. Die nativen Windows-Versionen, die direkt auf dem physischen Rechner aufsetzen, hingegen kommen auch mit einem Terabyte zurecht. Generell ist es daher wohl nicht anzuraten, Datenbanksysteme, die mehrere Terabyte an Datenvolumen verwalten, überhaupt zu virtualisieren. Gleiches gilt, wenn zum Betrieb der Applikation Mehrwege-Systeme im Einsatz sind. Andererseits gibt es eine große Anzahl Datenbanken im Gigabyte-Bereich, die durchaus ihre Berechtigung haben und die nicht in einer großen Datenbank konsolidiert werden können. Hier ist die Virtualisierung mehrerer Datenbanksysteme in einen Host die einzig mögliche Form der Konsolidierung.
Der zweite und letzte Teil des Fachbeitrags beschäftigt sich mit Überwachung und Verwaltung von virtualisierten Datenbankmanagementsystemen. Außerdem erfahren Sie Wissenswertes zum Thema Ausfallsicherheit und Hochverfügbarkeit.
(ID:2020793)