Zu viele Backup-Anwendungen im Betrieb machen die Datensicherung unsicher Storage Architekturen für virtualisierte businesskritische Anwendungen

Autor / Redakteur: Mario Werner, Syncsort* / Rainer Graefen

Businesskritische Anwendungen, Virtualisierung und Cloud zusammenbringen? Da sträuben sich bei IT-Leitern die Nackenhaare. Unser Autor erläutert die Knackpunkte, die vor der Verschiebung und Auslagerung beachtet werden sollten.

 Die Bandsicherung wird mehr und mehr zum Auslaufmodell.
 Die Bandsicherung wird mehr und mehr zum Auslaufmodell.
(Pixelio)

Seit die Virtualisierung im Jahr 2003 das erste Mal auf Servern mit x86 Architektur zum Einsatz kam, hat sie sich zu einer großen Erfolgsgeschichte entwickelt. Die erste Generation von Virtualisierungslösungen in den meisten Unternehmen wurde zunächst nur vorsichtig und überwiegend für den Test und die Entwicklung von Applikationen genutzt.

Ab dem Jahr 2007 setzte jedoch bereits eine zweite Phase der Virtualisierung ein, in der mehr und mehr produktive Anwendungen konsolidiert wurden. Hier profitierte im Wesentlichen das IT-Team, im Mittelpunkt standen Kosten- und Ressouceneinsparungen.

Bildergalerie

Geschäftskritische Cloud-Einlagerung ins RZ

Inzwischen haben wir bereits die dritte Virtualisierungsphase erreicht – die Virtualisierung der geschäftskritischen Anwendungen. Die allerdings bringt neue Herausforderungen für die Storage-Infrastruktur, denn Anwendungen wie ERP- oder CRM-Systeme müssen rund um die Uhr zur Verfügung stehen.

Der größte Schritt steht aber den meisten Unternehmen noch bevor, denn die Virtualisierung von geschäftskritischen Anwendungen hat sich auch zu einem entscheidenden Faktor für den Ausbau der Cloud entwickelt. Sie verspricht damit nicht nur neue Einsparungen, sondern schafft auch die Grundlage für „IT-as-a-Service“, die Auslagerung der kompletten IT-Systemlandschaft.

Bedenken gegen die Virtualisierung geschäftskritischer Anwendungen

Die Bedenken gegen die Virtualisierung geschäftskritischer Anwendungen waren zunächst groß. Sie betrafen insbesondere die Auswirkungen auf die Performance, zum Beispiel Engpässe im Netzwerk und beim Input/Output. Zum einen hinsichtlich der verfügbaren Rechenleistung, die sich nun mehrere virtuelle Maschinen teilen müssen. Zum anderen auch in Bezug auf die Bandbreite.

Denn in einer physischen Umgebung nutzen die Server die Ressourcen zwar nur zu einem geringen Teil, dafür aber steht jede Menge Bandbreite, zum Beispiel für Backups, zur Verfügung. In einer virtuellen Umgebung verhält es sich dagegen genau umgekehrt. Daher können ressourcenintensive Prozesse, die auf einem physischen Host laufen (wie etwa Backups auf File-Level oder Anwendungslevel auf mehr als einer virtuellen Maschine) zu Ressourcenknappheit führen und letztendlich Leistungseinbußen verursachen.

Kontrollverlust durch Virtualisierung?

Weitere Bedenken herrschten vor allem hinsichtlich der Unterstützung der Virtualisierung durch Independent Software Vendors (ISVs), da die meisten Unternehmen auch mit Software kleinerer unabhängiger Anbieter arbeiten.

Solange es sich nicht um geschäftskritische Anwendungen handelte, waren viele Unternehmen hier noch zu Experimenten bereit. Aber dieses Risiko wollten sie bei Tier1-Anwendungen nicht eingehen. Schließlich galt es auch, die Widerstände und Zweifel der Anwendungsverantwortlichen auszuräumen, die nicht nur Leistungseinbußen, sondern in letzter Konsequenz auch Kontrollverluste befürchteten.

Beinahe all diese Bedenken sind jedoch mittlerweile passé. Dank der Fortschritte in der Prozessortechnologie, speziellen Serverdesigns und der kontinuierlich verbesserten Virtualisierungssoftware haben die neuen x86-Server enorme Leistungssprünge gemacht und bieten auch eine erheblich bessere Input/Output Performance.

Fast alle unabhängigen Softwareanbieter (ISVs) unterstützen mittlerweile virtualisierte Umgebungen. Zudem bieten inzwischen auch die meisten Anbieter flexible Lizensierungsmodelle an, die zum Beispiel nach laufenden Anwendungen, Anzahl der virtuellen CPUs oder auch Anzahl der physischen CPUs gestaffelt werden können.

Schließlich sind sich auch die IT Manager der Vorteile, die die Virtualisierung bietet, inzwischen viel mehr bewusst. So konnten sie die Einwände der Anwendungsverantwortlichen mit Hilfe umfassender Tests weitgehend ausräumen.

Virtualisierung 3.0 – die Basis für Cloud-Infrastrukturen

Der primäre Grund für den Erfolg der Virtualisierung sind inzwischen aber nicht mehr nur Kostensenkungen, sondern auch Effizienzgewinne und wachsende Flexibilität. Dadurch hat sich die Virtualisierung zu einem entscheidenden Baustein für den Ausbau der Cloud entwickelt. Nach einer Studie der Enterprise Strategy Group vom August 2011 („Navigating VMware Backup and Recovery Approaches and Solutions) setzten bereits 61 Prozent der Befragten Servervirtualisierung ein, weitere 32 Prozent planen, dies demnächst zu tun.

Zudem möchten die Nutzer die Virtualisierung weiter ausbauen, der Anteil der virtuellen Maschinen in der Produktion wird gemäß der Studie in den nächsten zwei Jahren von 39 Prozent auf 58 Prozent steigen. Denn neben der Kostenersparnis aufgrund der geringeren Hardwareressourcen bringt die Virtualisierung auch zahlreiche Vorteile, mit denen sie eine ideale Plattform für die Cloud schafft. Zunächst natürlich die schnellere Verfügbarkeit, das leichtere Konfigurationsmanagement und die höhere Beweglichkeit von Anwendungen.

Versetzung nicht gefährdet

Da in einer virtualisierten Umgebung ein Server problemlos an einen anderen Ort versetzt und auch überall wiederhergestellt werden kann, kann die Servervirtualisierung optimal eingesetzt werden, um eine „Always-on-Infrastruktur“ zu schaffen.

Außerdem fördert sie die Standardisierung der IT-Infrastruktur. Auch Ausfallzeiten gehören weitgehend der Vergangenheit an, es stehen hochverfügbare Services für jede virtuelle Maschine und Anwendung zur Verfügung.

Zudem lässt sich die Flexibilität virtueller Maschinen auch für eine automatisierte Ressourcenoptimierung nutzen, die sicherstellt, dass Service-Level erfüllt werden. Durch die dynamische Skalierung von Anwendungen können Unternehmen auch die stetig wandelnden Geschäftsanforderungen besser in den Griff bekommen.

Verlust und Ersatz

All diese Features schaffen eine hervorragende Basis für eine hoch virtualisierte und skalierbare cloudartige Infrastruktur, mit der statische Anwendungen in dynamische IT-Services überführt werden können – also die Auslagerung von Anwendungen in die externe Cloud.

Entscheidend für den Erfolg dieses Übergangs zum Cloud-Computing bleibt jedoch die erfolgreiche Integration der businesskritischen Tier1-Anwendungen wie CRM- und ERP-Systemen, OLTP-Anwendungen oder des Batch-Betriebs.

Ein großer Stolperstein sind hier Datenverluste, zum einen leistungsstarke und für virtualisierte Umgebungen optimierte Backup-Lösungen, zum anderen auch die bei geschäftskritischen Anwendungen besonders wichtige Möglichkeit, verlorene Daten so schnell und effizient wie möglich wiederherstellen zu können.

Backups als Engpass in der Storage-Infrastruktur

Obwohl sich die Virtualisierung inzwischen vielfach bewährt hat, verfügen viele Unternehmen noch immer nicht über passende Backup- und Recoverylösungen. Das zunehmende Datenwachstum und der Trend zur Virtualisierung stellen aber neue Anforderungen an die Datensicherheit. Denn das übliche Backup-Fenster entfällt zusehends, da Anwendungen rund um die Uhr zur Verfügung stehen müssen. Gleichzeitig werden die Ressourcen immer knapper, da inzwischen zehn virtuelle Maschinen auf einem physischen Server laufen – was bedeutet, das auch zehnmal so viel Daten pro Server gesichert werden müssen.

Traditionelle Backup-Lösungen eignen sich daher kaum mehr für virtuelle Umgebungen. Die Leistungseinbußen auf Seiten des Anwendungshosts sind zu gravierend. Es dauert zu lange, Backups zu erstellen und die Ressourcen, die ein Backup in Anspruch nimmt, sind zu groß. Schließlich sind auch die Kosten, um Geschäftskontinuität und eine sichere Wiederherstellung zu gewährleisten, zu hoch. Es gibt einfach zu viele redundante Prozesse, bei denen zu viele Daten hin und her kopiert werden.

Zu viel Backup schadet

In mehr als der Hälfte aller Unternehmen sind zudem mehrere Backup-Lösungen parallel im Einsatz – sowohl für physische als auch für virtuelle Umgebungen. Neben filebasierter Backupsoftware, die von fast 80 Prozent aller Unternehmen eingesetzt wird (siehe „Why is Backup Broken?“, Studie von UBM TechWeb und Syncsort, September 2011), sind das zum Beispiel anwendungsspezifische Lösungen, Snapshot-Lösungen, spezifische Backupsoftware für virtualisierte Umgebungen, Disk-Array Datenreplikation und viele mehr. Dabei würden mehr als drei Viertel eine einzige Lösung bevorzugen (siehe ESG ResearchReport, 2010).

Auch setzen noch immer viele Unternehmen auf Tape zur Sicherung ihrer Daten. Denn die Virtualisierung hat kaum Einfluss darauf, ob disk- oder tapebasierte Backup-Lösungen genutzt werden. Tape bleibt ein integraler Bestandteil der Datensicherungsstrategie in vielen Unternehmen, ganz gleich, ob sie in virtualisierten, physischen oder heterogenen Umgebungen arbeiten. Das erschwert es, den Backup-Prozess zu vereinheitlichen, da nur wenige Backup-Lösungen sich für heterogene Umgebungen sowie die gleichzeitige Nutzung von Disks und Tapes eignen.

Backup-Systeme für heterogene Umgebungen

Für businesskritische Anwendungen wie ERP und CRM benötigt man speziell konfigurierte Systeme sowie schnelle, zuverlässige und straffere Backup- und Recovery-Prozesse. Deshalb investieren momentan viele Unternehmen in neue Storage-Architekturen und Features, die den hohen Anforderungen an Leistung und Skalierbarkeit in solchen Umgebungen besser gerecht werden.

Nach einer Studie der Enterprise Strategy Group vom Januar 2011 („2011 IT Spending Intentions Survey“) möchten 34 Prozent der befragten Unternehmen ihre Backup- und Recovery-Lösung für virtuelle Umgebungen verbessern.

Das Backup-Fenster war gestern

Die Verwendung von Disks in Kombination mit Datenreduzierungstechnologien beseitigt bereits viele Backup-Engpässe, die beim Einsatz traditioneller Storage-Werkzeuge wie zum Beispiel Tapes entstehen.

Die stetig sinkenden Preise für Breitbandverbindungen und virtuelle Server sowie neue Replikationstechniken wie Snapshots machen die Datenreplikation immer günstiger – die Daten können praktisch in Echtzeit repliziert werden, das Backup-Fenster wird überflüssig.

Ein High-Performance Backup-Tools sollte daher diskbasierten Speicher mit Snapshots und Datenreplikation kombinieren und eine schnelle Wiederherstellung auf allen Ebenen und in allen Umgebungen gewährleisten.

Disk und Tape; und nicht: entweder oder

Eine solche Strategie reduziert gleichzeitig auch die Kosten für traditionelle Wiederherstellungsmethoden wie zum Beispiel Tape. Zudem können Unternehmen auf diskbasierte Lösungen schneller zugreifen und ein Replikationsschema nutzen, das auf ihre individuellen Bedürfnisse abgestimmt ist.

In jedem Fall sollten Unternehmen darauf achten, dass sie auf eine flexible und zukunftssichere Backup-Lösung setzen. Diese sollte das System so wenig wie möglich belasten und das Management heterogener Umgebungen vereinfachen.

Sofern aktuell noch Tape eingesetzt wird, sollte die Backup-Lösung sowohl die Nutzung von Disks als auch von Tapes zulassen. Sie sollte schließlich eine schnelle und einfache Wiederherstellung erlauben und möglichst vielfältige Wiederherstellungsoptionen bieten, etwa auf Dateiebene, Objektebene oder auf dem Level der virtuellen Maschine.

*Mario Werner, Senior Manager Data Protection Sales EMEA bei Syncsort

(ID:34928220)