Suchen

Storage-Startups wollen klassische Problem besser lösen Frische Ideen im Storage-Markt

Autor / Redakteur: Julia Schönemann / Rainer Graefen

Ein näherer Blick auf die Schwierigkeiten, mit denen IT-Verantwortliche heute im Storage-Umfeld kämpfen müssen, gibt Aufschluss darüber, warum neue Produktarchitekturen beziehungsweise Storage-Techniken ihren Reiz ausüben.

Firmen zum Thema

(coraid)

Problematisch erweist sich vor allem - wenngleich dies wahrlich nichts Neues ist - der nach wie vor ungezügelte und enorme Anstieg an digitalen Informationen. Um rund 500 Prozent soll deren Gesamtvolumen gemäß Experten in den kommenden fünf Jahren in die Höhe schnellen.

Den überwiegenden Anteil machen unstrukturierte Daten aus. Rund 75 Prozent und damit das Gros der Festplattenkapazität sollen diese laut IDC im laufenden Jahr belegen.

Die Verarbeitung der Daten ist entscheidend

So verwundert es kaum, dass Unternehmen verstärkt Lösungen nachfragen, mit deren Einsatz sich einerseits die schieren Datenmengen verringern lassen:

  • Komprimierungs- und Deduplizierungstechniken stehen auf diesem Gebiet fürderhin hoch im Kurs, die andererseits ein effizientes Backup- und eine schnelle Datenwiederherstellung nach möglichen Ausfällen versprechen.
  • Ein Gewinner sind überdies Solid State Disks (SSDs), die klassischen Festplatten im Hinblick auf Zugriffszeiten, Übertragungsraten und Stromverbrauch überlegen sind. Als schneller Cache gewinnen sie künftig unter anderem in Tiering-Konfigurationen an Bedeutung, in denen Daten automatisch auf das unter verschiedenenen Gesichtspunkten am geeignesten erscheinende Medium verschoben werden.
  • Aber auch Scale-out Storage-Systeme, deren Kapazität und Leistung sich jederzeit unabhängig voneinander sowie bedarfsgerecht an die individuelle Geschäftssituation anpassen lässt, clusterfähigen mit Enterprise-Funktionen ausgestatteten Appliances oder objektbasierten Speicherlösungen gehört nach Meinung der Analysten 2012 die Zukunft.

Kein großer Hersteller, der die diversen Techniken nicht in seinem Lösungsangebot hat. Wahrscheinlich auch, dass diese sich über kurz oder lang als Bestandteil von Unified- und Converged-Storage-Umgebungen etablieren.

Da die Architekturen der bereits seit geraumer Zeit am Markt agierenden Anbieter jedoch in der Regel festplattenzentriert sind, lassen sich die zahlreichen von den neuen Verfahren gebotenen Vorteile nicht vollständig ausschöpfen.

Vektoren und Spezialisten

Besser aufgestellt sind in dieser Hinsicht kleinere Start-ups, die sich voll und ganz der ein oder anderen vielversprechenden Idee verschrieben haben. Reine Flash-Memory-Arrays und SSD-Speicherlösungen für unterschiedliche Einsatzzwecke, Cloud-Storage-Plattformen, Online-Storage- sowie Backup-Dienste, objektorientierte Speichersysteme oder Appliance-Lösungen, die Speicher-, Backup- und Disaster-Recovery-Services sinnvoll und wirtschaftlich miteinander verbinden, sind nur einige Beispiele für die Produktvielfalt, aus der Unternehmen inzwischen zusätzlich wählen können.

Die neuen innovativen Produkt- sowie Technikkonzepte sind vollständig darauf ausgerichtet, mit der Datenspeicherung in Verbindung stehende Schwachpunkte auszumerzen und neue Lösungswege aufzuzeigen. Unternehmen beklagen beispielsweise nach wie vor, dass sie sich zwischen Speicherkapazität und -leistung entscheiden müssen.

Entschließen sie sich für den Einsatz eines mit vielen kostengünstigen Festplatten ausgestatteten Systems erfüllt dies vielleicht ihre preislichen Vorstellungen. Außen vor bleiben dann oftmals jedoch die Leistungsanforderungen, die der Betrieb von Datenbanken, geschäftskritischen Anwendungen oder die Virtualisierung an den Speicher stellt.

Vertrauen sie hingegen auf Lösungen mit Flash-Storage und hochdrehenden Festplatten stellt sich die Situation genau umgekehrt dar. Zwar profitieren sie in diesem Fall von einer hohen Performance, erkaufen sich die bereitstehende Kapazität jedoch teuer.

Alleskönner gesucht

Produkte, die eine Balance zwischen beiden Parametern herstellen, geraten daher zunehmend in das Blickfeld der Verantwortlichen. Die voranschreitende Einführung von „Virtual-Desktop-Infrastrukturen“ (VDI-Umgebungen) birgt vor diesem Hintergrund weitere Herausforderungen.

Teilen sich die eingerichteten virtuellen Arbeitsplätze den von einem zentralen Speichersystem bereitgestellten Plattenplatz, heißt es bereits im Vorfeld, die I/O-Lastprofile der verschiedenen Nutzergruppen mittels Performance-Messungen zu erfassen und auszuwerten.

Bei der Detailplanung sind zudem weitere Punkte - Verhältnis Schreib-/Lesezugriffe, unter Spitzenlast entstehende Engpässe, Einfluss von Software-Aktualisierungen auf die Systemleistung etc. - zu berücksichtigen. Nur auf diesem Weg lässt sich das Kosten-Nutzen-Verhältnis der letztlich in Frage kommenden Lösung exakt bestimmen und darauf beruhend der passende Speicher in die bestehende Systemlandschaft integrieren.

Doch damit nicht genug. Auch messen Unternehmen dem Thema Datenschutz einen immer höheren Stellenwert bei. In diesem Zusammenhang spielt die Erstellung von Snapshots - schreibgeschützten, zeitbezogenen und unveränderbaren Momentaufnahmen der Daten („Point-in-Time“-Kopien) - eine entscheidende Rolle.

Datensicherheit belastet das System

Deren Aufbewahrung ermöglicht im Falle von Datenverlusten, ihrer Beschädigung oder Verfälschung eine geregelte Zurückspeicherung des zuletzt gesicherten Zustands. Der Einsatz von Snapshot-Technik wirft jedoch zwei Fragen auf:

  • Wie lässt sich eine große Zahl der Point-in-Time-Kopien über längere Zeiträume speichern, ohne dafür teuren Primärspeicherplatz zu opfern.
  • Und inwieweit lässt sich darüber hinaus verhindern, dass sich die Ablage eines hohen Volumens an Snapshots mittelfristig auf die Speicherleistung auswirkt.

Neue Appliances geben hierauf eine Antwort. Last not least - und das gilt für kleinere und mittelständische Firmen ebenso wie für Großunternehmen - führt kein Weg daran vorbei, die laufenden Betriebskosten zurückzufahren und dauerhaft auf einem möglichst niedrigen Niveau zu halten. Die Beschäftigung von verschiedenen IT-Teams, die sich nur der Speicheradministration, der Anwendungsverwaltung oder Virtualisierungsaufgaben widmen, ist kostspielig und ein Luxus, den sich heute nur noch wenige erlauben können.

Vielmehr sind mittlerweile Generalisten mit einem breitgefächerten, jedoch weniger tiefgreifenden Know-how gefragt, die verschiedene Funktionsbereiche betreuen können. Im Umkehrschluss legen Unternehmen stärkeren Wert auf Produkte, die sich durch eine einfach gehaltene Architektur auszeichnen und einfach in der Installation, Erweiterung und Verwaltung sind.

Drum prüfe, wer sich (neu) bindet

Auch wenn sich die vielen Erwartungen nicht von einem einzigen System erfüllen lassen - eEine Evaluierung der von neuen Marktteilnehmern angebotenen Lösungen lohnt sich. Ebenso wie die eingehende Prüfung, ob von den großen Herstellern „gepuschte“ Unified-, Converged-Storage-, Big-Data- oder Cloud-Konzepte tatsächlich auch in Zukunft den Königsweg darstellen oder cleverere Alternativen möglicherweise einen höheren Mehrwert bieten.

Ein besonderer Schwerpunkt sollte auf dem Vergleich technischer Leistungsmerkmale liegen und miteinschließen, ob der Systemwechsel Herstellerunabhängigkeit und damit mehr Flexibilität verspricht. Dies legt das Fundament für Zukunftssicherheit - ganz gleich, wie es um die des Start-ups dauerhaft bestellt ist.

(ID:33986610)