Zu viele Backup-Anwendungen im Betrieb machen die Datensicherung unsicher Storage Architekturen für virtualisierte businesskritische Anwendungen
Businesskritische Anwendungen, Virtualisierung und Cloud zusammenbringen? Da sträuben sich bei IT-Leitern die Nackenhaare. Unser Autor erläutert die Knackpunkte, die vor der Verschiebung und Auslagerung beachtet werden sollten.
Anbieter zum Thema

Seit die Virtualisierung im Jahr 2003 das erste Mal auf Servern mit x86 Architektur zum Einsatz kam, hat sie sich zu einer großen Erfolgsgeschichte entwickelt. Die erste Generation von Virtualisierungslösungen in den meisten Unternehmen wurde zunächst nur vorsichtig und überwiegend für den Test und die Entwicklung von Applikationen genutzt.
Ab dem Jahr 2007 setzte jedoch bereits eine zweite Phase der Virtualisierung ein, in der mehr und mehr produktive Anwendungen konsolidiert wurden. Hier profitierte im Wesentlichen das IT-Team, im Mittelpunkt standen Kosten- und Ressouceneinsparungen.
Geschäftskritische Cloud-Einlagerung ins RZ
Inzwischen haben wir bereits die dritte Virtualisierungsphase erreicht – die Virtualisierung der geschäftskritischen Anwendungen. Die allerdings bringt neue Herausforderungen für die Storage-Infrastruktur, denn Anwendungen wie ERP- oder CRM-Systeme müssen rund um die Uhr zur Verfügung stehen.
Der größte Schritt steht aber den meisten Unternehmen noch bevor, denn die Virtualisierung von geschäftskritischen Anwendungen hat sich auch zu einem entscheidenden Faktor für den Ausbau der Cloud entwickelt. Sie verspricht damit nicht nur neue Einsparungen, sondern schafft auch die Grundlage für „IT-as-a-Service“, die Auslagerung der kompletten IT-Systemlandschaft.
Bedenken gegen die Virtualisierung geschäftskritischer Anwendungen
Die Bedenken gegen die Virtualisierung geschäftskritischer Anwendungen waren zunächst groß. Sie betrafen insbesondere die Auswirkungen auf die Performance, zum Beispiel Engpässe im Netzwerk und beim Input/Output. Zum einen hinsichtlich der verfügbaren Rechenleistung, die sich nun mehrere virtuelle Maschinen teilen müssen. Zum anderen auch in Bezug auf die Bandbreite.
Denn in einer physischen Umgebung nutzen die Server die Ressourcen zwar nur zu einem geringen Teil, dafür aber steht jede Menge Bandbreite, zum Beispiel für Backups, zur Verfügung. In einer virtuellen Umgebung verhält es sich dagegen genau umgekehrt. Daher können ressourcenintensive Prozesse, die auf einem physischen Host laufen (wie etwa Backups auf File-Level oder Anwendungslevel auf mehr als einer virtuellen Maschine) zu Ressourcenknappheit führen und letztendlich Leistungseinbußen verursachen.
Kontrollverlust durch Virtualisierung?
Weitere Bedenken herrschten vor allem hinsichtlich der Unterstützung der Virtualisierung durch Independent Software Vendors (ISVs), da die meisten Unternehmen auch mit Software kleinerer unabhängiger Anbieter arbeiten.
Solange es sich nicht um geschäftskritische Anwendungen handelte, waren viele Unternehmen hier noch zu Experimenten bereit. Aber dieses Risiko wollten sie bei Tier1-Anwendungen nicht eingehen. Schließlich galt es auch, die Widerstände und Zweifel der Anwendungsverantwortlichen auszuräumen, die nicht nur Leistungseinbußen, sondern in letzter Konsequenz auch Kontrollverluste befürchteten.
Beinahe all diese Bedenken sind jedoch mittlerweile passé. Dank der Fortschritte in der Prozessortechnologie, speziellen Serverdesigns und der kontinuierlich verbesserten Virtualisierungssoftware haben die neuen x86-Server enorme Leistungssprünge gemacht und bieten auch eine erheblich bessere Input/Output Performance.
(ID:34928220)