Suchen

Storage-Lösungen im Datacenter der Zukunft Die Hardware wird die Performance-Probleme lösen

| Autor / Redakteur: Das Interview führte Wilfried Platten / Wilfried Platten

Manfred Buchmann ist als Senior Director Systems Engineering EMEA eine Art „technisches Mastermind“ von Netapp. Für uns wirft er einen Blick in das Datacenter der Zukunft.

Firmen zum Thema

Die Zukunft des Rechenzentrums: Ein Ausblick
Die Zukunft des Rechenzentrums: Ein Ausblick
(Bild: © senticus - Fotolia.com_27033346_XXL_top)

SDC: Was ist denn aktuell die größte Herausforderung für Datacenter?

Buchmann: Das Anwenderverhalten hat sich geändert. Wartungsfenster dürfen sie heute keinem Anwender mehr zumuten, ebensowenig Wartezeiten aufgrund langsamer Reaktionszeiten. Früher wurde das akzeptiert, heute wartet niemand mehr 10 Sekunden darauf, dass sich ein Webfenster öffnet. Die Erwartungshaltung ist: Ein Service muss immer und sofort verfügbar sein: Von traditionellen Services wie ERP bis zur Online-Reisekostenabrechnung am Wochenende. Die Datacenter stecken deshalb mitten in einem Wandel. Und das in mehrfacher Hinsicht. Erstens, wie manage ich das Datacenter. Zweitens, welche Services werden intern bereitgestellt, oder kommen von extern, weil sie nicht mehr für das Kerngeschäft relevant sind. Also die ganze Bandbreite hybrider Ansätze. Das führt dazu, dass sich der Managementstil eines Datacenters ändert.

SDC: Das sind „Always-on-Szenarien". Welche Rolle spielt hier das Thema Storage?

Buchmann: Auf der technischen Ebene setzen diese Szenarien voraus, dass die Services jederzeit zu einhundert Prozent verfügbar sein müssen. Always-on funktioniert nur, wenn sie es auf jedem Layer haben, also auf Applikations-, Server-, Netzwerk- und Speicherebene. Die Storage-Infrastruktur muss deshalb so gebaut sein, dass sie keine Downtime mehr benötigt für Hardware-Änderungen, Software-Upgrades oder Maintenance. Zusätzlich muss sie die Möglichkeit bieten, Workloads dynamisch oder auf Anforderung hin und her zu schieben: von Controller zu Controller, von Flash-Speichern zu SATA-Drives, das sind die Dinge, die wir dort brauchen: Also die berühmte Load-Balance.

SDC: Wie gehen Sie dabei mit dem prognostizierten exponentiellen Datenwachstum um?

Buchmann: Die IDC-Zahlen sprechen von 35 Zetabyte im Jahr 2020, aktuell sind wir bei zwei Zetabytes. Wenn wir das auf ein Unternehmen runterbrechen, sprechen wir im Durchschnitt von einer Verzehn- oder Verfünfzehnfachung. Mit den damit verbundenen Problemen hinsichtlich Personal, Kapazität, Stromverbrauch oder Stellfläche kann niemand mehr umgehen. Wir brauchen also verstärkt Technologien wie Deduplizierung, die das Datenvolumen reduzieren, und wir brauchen Tiered-Storage-Konzepte.

SDC: Tiered Storage bedeutet ja zwangsläufig auch Tiered Data, also die Differenzierung hinsichtlich der Daten für operative Prozesse, Backup und Archivierung. Wie gehen Sie damit um?

Buchmann: Dafür können sie die Daten einmal per Storage Grid als Objekte behandeln, also mit Metadaten versehen. Eine andere Variante ist es, die Daten immer auf dem billigsten Device zu lagern und mit SLAs zu versehen. Sie können für operative Daten auch Flash als Cache einsetzen, um damit günstigere Plattenkapazitäten zu beschleunigen. Wichtig ist für solche hybriden Ansätze die Flexibilität der Daten. Und im Rahmen von Metadatenmanagement müssen sie sich mit APIs beschäftigen. Dafür hat die Storage-Industrie gerade den CDMI-Standard verabschiedet. Ziel von CDMI ist es ein einheitliches API für das Content Management zu haben, also eine Art CloudInterface für objektbasierende Daten. Damit kann eine entsprechende Applikation wie SAP oder Oracle ohne spezielle Anpassungen zu allen Speicherebenen reden. Jetzt geht es darum, dass die Hersteller diesen Standard umsetzen.

SDC: Und was sagt Ihre Glaskugel?

Buchmann: Wir werden in fünf Jahren so viel Power in der Hardware haben, dass fast alles virtualisiert ablaufen wird. Physische Appliances für die Software-Beschleunigung werden damit nach und nach obsolet werden.

(ID:37000070)