TOP 10

Kombinierte Deduplizierung als richtige Datenschutzstrategie

Bereitgestellt von: Hewlett Packard GmbH

Alle 12 bis 18 Monate verdoppelt sich die Größe der Datenspeicher; virtuelle Server nehmen immer mehr Platz in Beschlag und virtuelle Maschinen stehen dichter gedrängt; entsprechend besorgt sind die IT-Teams über Kosten, Leistung und Effizienz ihrer Datenschutzinfrastruktur.

Wenn es um die erforderliche Sicherung und Wiederherstellung der Infrastruktur, kommt es tatsächlich auf die Größe an. Je mehr Daten es gibt, umso mehr Zeit und Ressourcen werden von den Datensicherheitsprozessen verschlungen. Viele Unternehmen sind bestrebt, das Ausmaß der Virtualisierung und der Operationen in Zweigstellen noch weiter auszubauen, um ihre Datacenter zu optimisieren und die geschäftlichen Aktivitäten geografisch zu erweitern; allerdings geht das mit Kosten und einer risikoreichen Komplexität dieser Prozesse einher.

Traditionelle Datendeduplizierungslösungen versetzen zwar IT-Teams in die Lage, das Wachstum der Datenbestände zu meistern, allerdings tragen sie nur wenig zur Schonung der Datenschutzressourcen oder Reduzierung der Kosten und des Verwaltungsaufwands bei. Im Gegensatz dazu stellt die nächste Generation der Deduplizierung eine einheitliche, konsistente Technologie bereit, die über virtuelle Maschinen hinweg arbeitet und damit den Speicherbedarf deutlich reduziert und die Leistung gleichzeitig erhöht.

Es folgen die 10 wichtigsten Gründe, die für die kombinierte
Deduplizierung (Federated-Deduplication) in wachsenden, ressourcenbewussten IT-Operationen sprechen.

Dieser Download wird Ihnen von Dritten (z.B. vom Hersteller) oder von unserer Redaktion kostenlos zur Verfügung gestellt. Bei Problemen mit dem Öffnen des Whitepapers deaktivieren Sie bitte den Popup-Blocker für diese Website. Sollten Sie weitere Hilfe benötigen, wenden Sie sich bitte an hilfe@vogel.de.
Publiziert: 31.03.15 | Hewlett Packard GmbH

Anbieter des Whitepaper

Hewlett Packard GmbH

Herrenberger Str. 140
71034 Böblingen
Deutschland