Speichersysteme in Big-Data-Zeiten KMUs sind aufgerufen, Storage zu konsolidieren
Big Data stellt in jeglicher Hinsicht eine Herausforderung für die Unternehmens-IT dar. Doch die Zunahme von unterschiedlichen Speichersystemen in Zeiten knapper IT-Budgets und immer größerer Datenmengen ist für kleine und mittlere Unternehmen (KMU) keine Lösung. Das ist ebenfalls klar. Und jetzt?
Anbieter zum Thema

Große Datenmengen, komplexe Analyse-Applikationen und zeitkritische Anforderungen machen eine hohe Performance des zugrundeliegenden Speichers zu einem Schlüsselkriterium für Unternehmen. Das gilt auch für kleinere und mittlere Unternehmen (KMUs). Denn auch sie gewinnen heute Daten aus Quellen, die vor zehn Jahren noch nicht einmal existierten.
In vielen Unternehmen steigt daher die Anzahl der in der Infrastruktur zum Einsatz kommenden Speichersysteme, die immer mehr unter anderem auch virtualisierte Umgebungen unterstützen müssen, immer weiter an. Viele KMUs sehen sich deshalb mit einem problematischen Storage-Wildwuchs konfrontiert – und mit den dadurch explodierenden Kosten, die das IT-Budget überprozentual belasten.
Um Big-Data-Workloads auch in Zukunft effizient stemmen zu können, müssen KMUs ihre Storage-Umgebung zwingend konsolidieren: Dafür werden unterschiedliche Speichersysteme auf einer einzigen, effizienteren Plattform zusammengefasst. Ziel ist es, dass sich diese flexibel an alle Workloads anpassen lässt – je nach Workload-Umgebung an weniger als ein Terabyte aber auch an bis zu mehreren Petabytes.
Diese sechs Merkmale zeichnen eine effiziente Storage-Konsolidierung aus:
1. Performance
Innerhalb einer konsolidierten Plattform gibt es keine hochspezialisierten Lösungen mehr für individuelle Workload-Umgebungen. Daher ist die Fähigkeit der neuen Plattform, sich einfach anzupassen und eine optimale, nachhaltige Performance über eine Reihe von dynamischen Workloads hinweg zu liefern, von entscheidender Bedeutung.
Das System muss in der Lage sein, die Verteilung von Ressourcen über viele Workloads hinweg autonom und in Echtzeit optimal an unvorhersehbare Schwankungen auszugleichen – ohne, dass ein menschliches Eingreifen erforderlich ist. Hier spricht man von ‚Selbstheilung‘.
Das Datenlayout wird dabei kontinuierlich optimiert, um die Performance zu steigern. Dieser Prozess ist von zwei eigentlich widersprüchlichen Anforderungen an das Storage-System geprägt: Zum einen darf einer Anwendung, wenn viele Anwendungen gemeinsam ein Storage-Array nutzen, nicht erlaubt werden, die gesamte Performance zu nutzen und so andere Anwendungen „verhungern“ zu lassen (Fairness). Zum anderen sollte jede Anwendung in der Lage sein, alle verfügbaren Speicherressourcen zu nutzen, auch wenn sie nur über eine geringe Anzahl von Speichergeräten verfügt.
2. Zuverlässigkeit
Mit der Konsolidierung wird die Zuverlässigkeit der Storage-Umgebung ein noch wichtigeres Kriterium als zuvor. Die Messlatte für Zuverlässigkeit muss sich dabei an der kritischsten Anwendung in der gesamten konsolidierten Umgebung orientieren, und die anderen Anwendungen von diesem Design profitieren lassen.
Das ist nur machbar, wenn die Storage-Kosten gesenkt werden. Warum sollte man andernfalls in eine qualitativ hochwertige Anwendung investieren?
Ein weiterer Grund, warum die Zuverlässigkeit von Komponenten und Systemen wichtiger wird, ist die Vergrößerung der Ausfall-Domäne, die mit der Konsolidierung einhergeht. Die Ausfall-Domäne ist ein Satz von Komponenten, die parallel auf einmal ausfallen können, zum Beispiel zählt ein Server als Ausfall-Domäne, da er ausfallen kann, und eine VM, die auf diesem Server läuft, ebenfalls. Die Größe des Explosionsradius – also der maximalen Auswirkung im Falle eines Ausfalls – ist ebenfalls abhängig von der Ausfall-Domäne.
3. Auslastung
Erstellt man so genannte „Storage-Silos“, indem viele Storage-Arrays für unterschiedliche Umgebungen gekauft werden, muss auf jedem einzelnen Array Platz gelassen werden. Arbeitet man beispielweise mit zehn getrennten Speichersystemen von jeweils 100 Terabyte, sollten Unternehmen darauf achten, dass nicht mehr als 80 Terabyte beansprucht werden, um Raum für dynamisches Wachstum zu lassen.
Rechenzentren mit einer solchen Speicher-Silo-Struktur neigen zu einer eher geringen Auslastung, da viele Workloads auf individueller Basis bedient werden müssen – Server für Server, manchmal sogar Workload für Workload. Das ist nicht nur verschwenderisch im Sinne der Speicherkapazität, sondern treibt auch die Anschaffungs- und Betriebskosten in die Höhe.
Um die Betriebseffizienz zu steigern, sollten KMUs eine höhere Auslastung auf einem einzigen skalierbaren System anstreben. Nutzt man beispielsweise ein Storage-Array von 1 Petabyte, kann man dieses mit einer Auslastung von 90 Prozent laufen lassen und es bleiben immer noch 100 Terabyte für Wachstum frei. Generell erweist sich die Bündelung von Ressourcen in der IT immer als eine sinnvolle Entscheidung - das hat VMware so erfolgreich gemacht: man erstellt einen Pool aus all Servern und nutzt diese effizienter).
Durch die Verwaltung nur weniger Systeme, entstehen geringere OpEx-Kosten und das Storage-Team kann sich auf Aufgaben konzentrieren, welche die Wachstumsziele des Unternehmens unterstützen (anstatt auf alltägliche operative Routineaufgaben). Durch eine solche Konsolidierung können Unternehmen ihren Speicherplatz deshalb besser auslasten – dies senkt nicht nur die Investitionskosten, sondern auch die Kosten für betreuungsintensive Storage-Services und spart Überkapazitäten ein.
4. Dichte
Je knapper der Platz im Rechenzentrum wird, desto kostengünstiger erweist sich eine Konsolidierungsplattform mit höherer Flächendichte. Damit misst man das Datenvolumen, das in Gigabyte pro Quadratzoll gespeichert werden soll. Alternativ lassen sich auch Terabyte pro Rack messen, oder verbrauchte Kilowattstunden pro Terabyte.
Die Konsolidierung wird die Kapazität des Rechenzentrums und die Kosteneffizienz erhöhen, da es weniger Mediengeräte gibt, die Daten speichern und damit günstigere Stromverbrauchsverhältnisse bieten. Das beste Ergebnis lässt sich erzielen, indem man sich auf die Plattform konzentriert, die die richtige Balance zwischen
- dem höchsten Datenvolumen, das pro Quadratmeter Rechenzentrumsfläche gespeichert werden kann, und
- einem niedrigen Stromverbrauchs-Verhältnis bietet.
5. Einfachheit
Eine intelligente, selbstoptimierende Speicherplattform verringert auch den Betreuungsaufwand für Storage-Administratoren. Diese müssen ihre Zeit nicht mehr in den ständigen iterativen Zyklus von Messung, Tuning und Validierung der Performance über einen breiten und tiefen Workload-Mix hinweg investieren. Schon bei Einführung einer zentralen konsolidierten Management-Plattform sollte jede Schulung für das neue System schnell und effizient sein und die Zeit zwischen der Bereitstellung und der Inbetriebnahme verkürzen.
Hier greift erneut das Stichwort Selbstheilung: Regelt das Storage-System die Optimierung von Auslastungen automatisch anstatt sich der Hilfe eines Storage-Administrators bedienen zu müssen, wechselt man von einer Art „Erste-Hilfe-Modus“ hin zu einem das operative Geschäft des Unternehmens wirklich unterstützenden Speicherstruktur.
Die konsolidierte Speicherplattform muss außerdem in der Lage sein, große und wachsende Datenmengen und signifikante Arbeitsgruppengrößen zu bewältigen. Die Größe der Arbeitssätze variiert je nach Anwendung und Workload-Umgebung. Daher muss die Plattform Workloads mit einem potenziellen Umfang von weniger als einem Terabyte bis zu mehreren Petabytes bewältigen.
Zusammenfassend, ist Storage-Konsolidierung eine gute Möglichkeit, um Kosten zu senken und gleichzeitig die betriebliche Effizienz und Flexibilität der IT-Organisation zu erhöhen. Eine richtig konzipierte und implementierte Storage-Konsolidierungsplattform kann zu einer Reihe von nachhaltigen Vorteilen in einem wachsenden Unternehmen führen. Voraussetzung dafür ist allerdings, dass KMUs ihre Storage-Konsolidierung sorgfältig planen und überprüfen und in der Planung auch bestehende Best Practices berücksichtigen.
* Christian Barmala ist Solution Architect DACH bei Infinidat.
(ID:45206347)