Wie sieht die Datacenter-IT künftig aus? Die Frage geht an Dell.

Software-defined geht’s ins Rechenzentrum der Zukunft

Seite: 2/3

Firmen zum Thema

Software-defined Storage

Der Einstieg in eine softwaredefinierte IT-Infrastruktur erfolgt über die Virtualisierung, genauer gesagt die Server-Virtualisierung. Vor allem in den letzten drei bis vier Jahren hat der Anteil der virtualisierten Server in den Rechenzentren noch einmal deutlich zugenommen. 2012 waren laut Marktforscher Gartner rund die Hälfte der in den Unternehmen eingesetzten Server virtualisiert.

Bildergalerie
Bildergalerie mit 5 Bildern

Bis Ende 2014 ist deren Anteil auf gut 70 Prozent angestiegen. Einer der wichtigsten Vorteile der Virtualisierung ist eine effizientere Nutzung von IT-Ressourcen in Form einer Konsolidierung von Applikationen auf weniger physischen Servern.

War die Technik der Virtualisierung vor einigen Jahren weitgehend auf Server beschränkt, so hat sie sich in der Zwischenzeit auch auf weitere IT-Infrastrukturkomponenten ausgedehnt – zunächst auf die Storage-Systeme. Das technologische Fundament von Software-defined Storage bildet – ebenso wie bei den Servern – eine logische Trennung von Hard- und Software. Sie zielt letztlich darauf ab, Daten einfacher, effizienter und flexibler zu speichern, zu sichern, zu archivieren und sie bei Bedarf wiederherzustellen.

Den Anfang machte das Tiering

Die Anfänge dazu gehen zurück auf Software-basierte, modulare Speichersysteme, die ein dynamisches Tiering ermöglichen. Software platziert dabei automatisch die Daten in Abhängigkeit der Zugriffshäufigkeit entweder auf vergleichsweise teuren Speichermedien mit schnellen Zugriffszeiten oder auf kosten-günstigen, hochkapazitativen Systemen mit längeren Zugriffs-zeiten. Darüber hinaus haben einige Unternehmen bereits für selten benötige Daten oder solche, die mit Geschäftspartnern oder Kunden geteilt werden, Cloud-Lösungen im Einsatz.

Hier das All-In-One Array Dell Storage SC4020
Hier das All-In-One Array Dell Storage SC4020
(Bild: Ostler)

Vor allem für künftige Anwendungsszenarien testen Unternehmen neue Softwarelösungen oder konvergente Appliances, die in einem Gehäuse Server, Storage-Systeme, Switches und Virtualisierungssoftware kombinieren. Auf Basis flexibler Konfigurationsmöglichkeiten hinsichtlich Prozessorkernen, Flash-Speichern für Lese- und Schreiboperationen und SATA-Platten können Unternehmen konvergente Appliances wie die Dell XC an unterschiedliche Anforderungen anpassen.

Die modulare Architektur ermöglicht eine vertikale und horizontale Skalierung, so dass sich einmal eingerichtete Umgebungen schnell und ein-fach an neue Anforderungen anpassen lassen. Ein bedeutender Vorteil ist die vereinfachte Bereitstellung virtueller Maschinen für geschäftskritische Applikationen auf Basis von Microsoft Exchange, Microsoft SQL Server, Oracle- und SAP-Datenbanken, die Desktop-Virtualisierung oder den Aufbau von Private Clouds.

Beispiele aus dem Dell-Angebot

Auf jeder Appliance sowie auf den Knotenrechnern läuft das „Nutanix Distributed File System“ (NDFS), das die vorhandenen Festplatten und SSDs über alle Knoten hinweg zusammenfasst. Dieser Speicherpool ist über eine fehlertolerante Architektur für alle angeschlossen Appliances zugänglich. Auf Basis dieses verteilten Dateisystems verwalten die Administratoren keine LUNs, Storage-Volumina oder RAID-Gruppen mehr, sondern steuern die virtualisierten Umgebungen auf der Ebene virtueller Maschinen mit Hilfe von Richtlinien, die sich aus den Anforderungen der einzelnen Applikationsszenarien ergeben.

Ein weiterer Trend bei Software-defined Storage ist die zunehmende Verbreitung von Open-Source-Lösungen, die auf der Cloud-Plattform OpenStack basieren; sie enthält alle Kernfunktionalitäten für Compute, Storage und Networking. So sind etwa Lösungen verfügbar, die Server und Switches mit der Block-basierten Speichersoftware „Red Hat Ceph Storage“ kombinieren und sich beispielsweise für den Einsatz in Private Clouds eignen.

Artikelfiles und Artikellinks

(ID:43472593)