Suchen

Online-Umfrage zum CeBIT-Kompendium „Backup & Recovery“ von Storage-Insider.de, Teil 2 Die virtuelle Maschine aus dem Backup starten

Autor / Redakteur: Sandra Adelberger / Rainer Graefen

Das Backup ist im Umbruch. Virtuelle Maschinen eröffnen neue Möglichkeiten, und wie die Datensicherung von Big Data und aus großvolumigen Flash-Speichern erfolgen soll, ist noch weitgehend ungeklärt. Storage-Insider.de hat Sandra Adelberger zum Stand der Technik befragt.

Firma zum Thema

Sandra Adelberger, Director Product Management EMEA, Acronis
Sandra Adelberger, Director Product Management EMEA, Acronis
(Acronis)

Storage-Insider.de setzt die erfolgreiche Kompendien-Reihe fort. Die nächste Ausgabe widmet sich den Themen Backup, Disaster Recovery und Archivierung und wird zur CeBIT 2013 (5. bis 9. März, Hannover) in gedruckter Form erscheinen (hier geht es zum PDF-Archiv vorangegangener Ausgaben).

Storage-Insider.de: Warum sind Backup-Konzepte wie GFS (Grandfather-Father-Son) oder Tower of Hanoi heutzutage nicht mehr sinnvoll anzuwenden?

Sandra Adelberger: Das sehen wir nicht so. Beide Backup-Konzepte sind aufgrund der Kombination von Voll-, inkrementellen und differentiellen Backups in den Möglichkeiten zurück zu gehen sehr flexibel. Sie passen auch gut zu Multi-Tier-Storage-Konzepten. GFS ist in der Praxis häufig im Einsatz, der Tower of Hanoi eher selten.

Kontinuierliche Snapshots oder differenzielle Images scheinen das Backup-Konzept für moderne IT-Umgebungen zu sein. Stimmt das oder zeichnen sich Alternativen ab?

Snapshots ersetzen im Regelfall kein Backup, denn sie liegen meist auf demselben Storage-System wie die Originaldaten. Und in diesem Fall sind bei einem Hardware-Fehler auch die Snapshots verloren. Allerdings arbeiten immer mehr Backup-Programme unter Einbeziehung von Snapshots.

Dabei wird zuerst ein Snapshot der Produktivdaten und danach ein Backup aus diesen Snapshot-Daten erstellt. Das verkürzt die Belastung der Produktivdaten und erlaubt so die effizientere Nutzung von inzwischen recht kleinen Backup-Zeitfenstern. Dazu eine Kombination aus Vollbackup und inkrementeller oder differentieller Sicherung ergibt meist eine optimale Lösung.

Neue Konzepte entstehen derzeit durch die Veränderung der IT-Infrastruktur. Zum Beispiel bietet die zunehmende Servervirtualisierung neue Möglichkeiten virtuelle Systeme als temporäre Absicherung für physische Systeme zu bieten und umgekehrt. Betrachtet man rein virtuelle Umgebungen ergeben sich vor allem für die Wiederherstellung zusätzliche Möglichkeiten über traditionelle Konzepte hinaus.

Beispiele hierfür sind VM-Replikation, inkrementelle Wiederherstellung wie vmFlashback oder auch das Starten einer virtuellen Maschine (VM) aus dem Backup. Letzteres kann zwar keine langfristige Lösung sein, aber kurzfristig eine schnelle Verfügbarkeit bieten, um zum Beispiel eine mit der VM verbundene Dienstleistung für Anwender nach vorheriger Ankündigung dann kontrolliert offline zu nehmen.

Spricht eigentlich die Datentransferrate des Internets beim Online-Backup gegen das Backup in der Cloud? Wie würden Sie Einsatzszenarien definieren?

Zum Thema Backup in der Cloud (Sicherung einer Cloud-Umgebung) können wir keine Aussage machen. Beim Backup in die Cloud (Ablage der Datensicherung offsite) kommt es unter anderem auf die Größe der zu sichernden Datenmenge, die vorhandene Internet-Bandbreite oder auch die Upload-Rate des jeweiligen Cloud-Services an.

Das Backup in die Cloud ist eine kostengünstige Möglichkeit Daten auszulagern, ohne dabei in zusätzliche Hardware für Speicherplatz wie beispielsweise Tape oder gar in ein Rechenzentrum investieren zu müssen. Die zusätzliche Datensicherung in die Cloud als Absicherung im Disaster-Fall ist eines der wichtigsten Einsatzszenarien von Online-Backup. Bei einem Komplettausfall oder Schaden in der physischen Umgebung können Unternehmen dadurch auf Offsite-Sicherungen der Daten und Systeme zugreifen. Cloud-Backup ist die ideale Ergänzung zu lokalen Sicherungskonzepten.

Ein weiteres Einsatzszenario ist die Nutzung einzelner Dateien von unterwegs über einen Webbrowser. Gerade in der mobilen Arbeitswelt von heute ist es wichtig, auf relevante Unternehmensdaten auch von unterwegs zugreifen zu können. Sind gesicherte Daten in der Cloud, können einzelne Dateien auch von unterwegs über einen Browser verfügbar gemacht werden.

Glaubt man dem Marketing, dann ist das Disaster Recovery in wenigen Minuten erledigt. Bitte erläutern Sie, 1. welche Vorgaben (virtuelle Maschine) dafür erfüllt sein müssen und 2. ob diese Aussage auch beim Austausch des Host-Rechners gilt.

1. Die Grundlage einer schnellen Wiederherstellung bildet das Image-Backup. Je nachdem ob ein Disaster Recovery in virtuellen, physischen oder hybriden Umgebungen durchgeführt werden soll, gibt es unterschiedliche Wiederherstellungskonzepte.

In hybriden Umgebungen können vorhandene Backup-Images von physischen Maschinen beispielsweise vorübergehend als virtuelle Maschinen in Betrieb genommen werden. Bereitet man jedes Backup gleich nach dem Erstellen automatisch als virtuelle Maschine vor, dauert die Wiederherstellung der Verfügbarkeit für den Anwender nur so lange, wie das Starten der virtuellen Maschine.

2. Bei einem Disaster Recovery für den Host von virtuellen Maschinen bietet Acronis mit Bare Metal Recovery eine schnelle Wiederherstellungsmöglichkeit. Statt Neuinstallation, Einrichtung und Konfiguration eines Systems reicht hier das Zurückspielen der Sicherungen. Das macht die Wiederherstellung einfach und schnell, aber vor allem auch sicherer, gerade auch für IT-Personal, das beispielsweise im Konfigurieren eines ESX-Hosts nicht geübt oder nur vertretungsweise im Einsatz ist.

Langzeit-Backup, Archivierung und Flash

Was spricht dagegen, Langzeit-Backup und Archivierung gleichermaßen per Backup-Software zu verwalten?

Die Zielsetzung ist unterschiedlich. Das Backup dient der zusätzlichen Speicherung von Daten, um diese bei Verlust zum Beispiel bei physikalischen Schäden an der Festplatte wiederherstellen zu können. Diese Sicherungskopien werden oft nur kurz- beziehungsweise mittelfristig aufbewahrt, also einige Wochen bis Monate, und anschließend meist mit neuen Sicherungen überschrieben.

Im Gegensatz dazu dient die Archivierung der unveränderbaren, dauerhaften Aufbewahrung von Daten und kann in einigen Branchen durch gesetzliche, steuer- und handelsrechtliche oder unternehmensinterne Vorschriften geregelt sein (Compliance). Bei der Archivierung werden häufig Dokumente, Fotos oder wissenschaftliche Ergebnisse auf einem anderen Datenträger langfristig abgespeichert. Archivierungslösungen müssen sicherstellen, dass benötigte Informationen schnell wieder aufzufinden sind und die Kompatibilität der Daten versionsunabhängig erhalten bleibt.

Warum wird LTFS die Backup-Welt nicht verändern?

LTFS liefert einen sehr schnellen Zugriff auf Informationen über die vorhandenen Daten auf Band und macht Unternehmen damit unabhängig von der Software, mit der die Bänder erstellt wurden. Trotzdem handelt es sich bei Tape um ein sequentielles Medium mit der weiterhin vorhandenen Problematik, dass sequentielle Medien zwar gut für Disaster Recovery (zur Wiederherstellung der gesamten Sicherung, die sich auf dem Tape befindet) nutzbar, aber sehr langsam bei der Wiederherstellung von Einzeldaten ist, was der häufigere Anwendungsfall in der Praxis ist.

Wieso brauchen wir nun auch noch die objektorientierte Speicherung von Daten? Hat das Auswirkungen auf Backup- und/oder Archivierungs-Konzepte?

Objektorientierte Speicherung ist nicht unser Fachgebiet und daher können wir dieses Thema nicht in der Tiefe kommentieren. Was wir aber sagen können ist, dass CAS (content-adressable storage) die versionsunabhängige Speicherung von Daten erleichtert, was zum Beispiel für Archivierungszwecke von Vorteil ist.

Backup-Software muss zur Sicherung von objektorientiert gespeicherten Daten „application-aware“ sein, also spezielle Unterstützung für die jeweilige Applikation bieten. Dadurch wird eine objektorientierte Wiederherstellung möglich, vergleichbar mit der granularen Wiederherstellung bei Microsoft Exchange. Das hat nicht unbedingt Auswirkungen auf das Backup-Konzept, aber durchaus auf die Anforderungen an die Backup-Software.

Big Data ist in aller Munde. Zukünftige ERP-Datenbanken werden vielleicht vollständig auf PCIe-Speicherkarten laufen. Welchen Einfluss hat diese neue, mit kurzen Latenzzeiten agierende Speicherarchitektur auf die Backup-Software und Backup-Infrastruktur?

PCIe-Speicherkarten werden wie Festplatten adressiert. Ihre Lesegeschwindigkeit ist deutlich schneller als die Schreibgeschwindigkeit einer „normalen“ Festplatte. Dieser Geschwindigkeitsunterschied muss von der Backup-Software berücksichtigt werden, um eine fehlerlose Datensicherung zu gewährleisten.

(ID:38093720)