Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Ein erster Schritt auf dem Weg zum softwaredefinierten Rechenzentrum Was ist Hyperkonvergenz?

Autor / Redakteur: Dr. Dietmar Müller / Ludger Schmitz |

Die Industrie 4.0 muss zu einem Umbruch in der Rechenzentrumsbranche führen: Das IoT als Fundament der Industrie 4.0 benötigt hyperkonvergente Netze, um Daten aus Fabrikhallen und anderen Gebäuden einzufangen.

Anbieter zum Thema

(Bild: Dagmar Zechel / pixelio.de)

Ein hyperkonvergentes System ist die konsequente Weiterführung der Philosophie der konvergenten Infrastruktur. In konvergenten Umgebungen versuchten die Betreiber von IT-Infrastrukturen, die einzelnen Komponenten des Rechenzentrums so zusammenzufassen, dass sie "auf einen Blick" übersehbar waren. Trotzdem musste die verteilte Hardware weiterhin separat verwaltet und betrieben werden. Solche bislang oftmals eingesetzten IT-Landschaften der Unternehmen werden beim Betrieb neuer dynamischer Workloads schnell in die Knie gezwungen. Diese Dynamik ist die Folge der Digitalisierung der Geschäftsprozesse und der Geschäftsmodelle in nahezu allen Branchen und Wertschöpfungsbereichen, wie sie typisch ist für die Industrie 4.0.

Auf die alte Tour geht‘s nicht mehr

Der ständige Ausbau der Architekturlandschaft um neue „alte“ Komponenten erscheint vor diesem Hintergrund nicht sinnvoll. Denn dies würde lediglich neue Insellösungen und Silos schaffen. Mit einer weiter zunehmenden Verteilung einzelner Infrastruktur-Komponenten wie Server, Storage etc. wird Administration der Komponenten zur Herkulesaufgabe.

Folglich, so Maximilian Hille von Crisp Research analog zu den Analysten von Gartner, müssen auch Rechenzentren auf ein neues Niveau gehoben werden. Diese müssten hohe Flexibilität und Performance versprechen und sich gleichzeitig softwarebasiert und hardware-unabhängig administrieren lassen, um den Aufwand für die IT-Abteilung in einem überschaubaren Maß zu halten. Das Geheimnis liege im hohen Abstraktionsgrad zwischen den Hardwarekomponenten und der intelligenten Softwareschicht zur Administration von Infrastruktur sowie auch der Datenbestände auf der Plattform.

Die Masche mit den Maschen im Netz

„In hyperkonvergenten Infrastrukturen stellt jeder Node einen autonomen aber redundanten Bestandteil eines eng vermaschten Netzes an Ressourcen dar, bei dem Speicher und Rechenkern zwar virtualisiert aber eng gekoppelt sind“, so Hille. „Der Flash-basierte Speicher kann daher direkt angesprochen werden, ohne dass langsame Netzwerkverbindungen Flaschenhälse verursachen, was eine hohe I/O-Performance und Skalierbarkeit zur Folge hat. Komplexe NAS/SAN-Strukturen werden im Web-Scale-Modell überflüssig, was die Administration deutlich vereinfacht.“

Viel Open-Source-Software...

Neben dem vereinfachten Handling der Infrastruktur, stelle die Softwareschicht einen weiteren elementaren Mehrwert dar. Denn die Kombination von Distributed File Systems und artverwandten Technologien zur Kompression, Reduplikation und effizienten Verwaltung der Daten ermögliche es, deutlich größere Datenmengen effizient zu verarbeiten. Da ein Großteil der eingesetzten Technologien wie MapReduce oder Zookeeper auf Open Source basiere, verringerten sich die TCO gegenüber rein proprietären Systemen mit ähnlichem Funktionsspektrum deutlich.

...zu fertigen Appliances

Diese hyperkonvergenten Architekturen werden hauptsächlich als fertige Appliances geliefert und können von Unternehmen oder auch Service Providern in Standard-Racks eingesetzt werden. Ein entsprechendes System kann als eine Art "Data Center in a Box" betrachtet werden, sind doch Server, Netzwerk, Speicher sowie Backup und Desaster Recovery in einer einzigen Hardware verbaut. Damit ergibt sich laut Hille sich für die Anwender eine „Plug and Play“-Erfahrung beim Einsatz der Systeme. Der Implementierungs- und Konfigurationsaufwand der Systeme sei gegenüber dem Aufbau einer komplett eigenen vergleichbaren Architektur daher gering.

Fazit

Hyperkonvergente Infrastrukturen sind die Rechenzentrums-Antworten auf Industrie 4.0 – gleichzeitig stellen sie aber lediglich einen ersten Schritt hin zum komplett Software-definiertem Data Center (SDDC) dar. Im Gegensatz zum Software-defined Networking, das noch überwiegend auf Hardware basiert, werden für ein SDDC die Netzwerkressourcen tatsächlich von der zugrunde liegenden Hardware getrennt. Die Grundsätze der Virtualisierung werden also auf die physische Netzwerkinfrastruktur angewendet. Dabei werden Netzwerkservices abstrahiert, um so einen flexiblen Pool von Transportkapazität zu erstellen, die sich nach Bedarf zuweisen lassen.

Das Prinzip ist von virtuellen Maschinen bekannt: Das virtualisiertes Netzwerk ist ein Softwarecontainer, der den verbundenen Workloads logische Netzwerkkomponenten zur Verfügung stellt, wie etwa logische Switches, Router, Firewalls und VPNs sowie einen logischen Lastausgleich. Diese virtualisierten Netzwerke werden programmatisch bereitgestellt und verwaltet, wobei das zugrunde liegende physische Netzwerk als einfache Backplane zur Weiterleitung von Paketen dient. Netzwerk- und Sicherheitsservices werden den VMs nach Bedarf zugewiesen. Sie bleiben mit der jeweiligen VM verbunden, während diese in der dynamischen, virtualisierten Umgebung zwischen Hosts verschoben wird.

* Dr. Dietmar Müller ist freiberuflicher Journalist in Abensberg.

Artikelfiles und Artikellinks

(ID:44448148)