Auf dem Weg zum softwaredefinierten Rechenzentrum

Hyperkonvergenz ist nur ein erster Schritt

| Autor / Redakteur: Dr. Dietmar Müller / Ludger Schmitz

(Bild: Dagmar Zechel / pixelio.de)

Die Industrie 4.0 muss zu einem Umbruch in der Rechenzentrumsbranche führen: Das IoT als Fundament der Industrie 4.0 benötigt hyperkonvergente Netze, um Daten aus Fabrikhallen und anderen Gebäuden einzufangen.

Ein hyperkonvergentes System ist die konsequente Weiterführung der Philosophie der konvergenten Infrastruktur. In konvergenten Umgebungen versuchten die Betreiber von IT-Infrastrukturen, die einzelnen Komponenten des Rechenzentrums so zusammenzufassen, dass sie "auf einen Blick" übersehbar waren. Trotzdem musste die verteilte Hardware weiterhin separat verwaltet und betrieben werden. Solche bislang oftmals eingesetzten IT-Landschaften der Unternehmen werden beim Betrieb neuer dynamischer Workloads schnell in die Knie gezwungen. Diese Dynamik ist die Folge der Digitalisierung der Geschäftsprozesse und der Geschäftsmodelle in nahezu allen Branchen und Wertschöpfungsbereichen, wie sie typisch ist für die Industrie 4.0.

Auf die alte Tour geht‘s nicht mehr

Der ständige Ausbau der Architekturlandschaft um neue „alte“ Komponenten erscheint vor diesem Hintergrund nicht sinnvoll. Denn dies würde lediglich neue Insellösungen und Silos schaffen. Mit einer weiter zunehmenden Verteilung einzelner Infrastruktur-Komponenten wie Server, Storage etc. wird Administration der Komponenten zur Herkulesaufgabe.

Folglich, so Maximilian Hille von Crisp Research analog zu den Analysten von Gartner, müssen auch Rechenzentren auf ein neues Niveau gehoben werden. Diese müssten hohe Flexibilität und Performance versprechen und sich gleichzeitig softwarebasiert und hardware-unabhängig administrieren lassen, um den Aufwand für die IT-Abteilung in einem überschaubaren Maß zu halten. Das Geheimnis liege im hohen Abstraktionsgrad zwischen den Hardwarekomponenten und der intelligenten Softwareschicht zur Administration von Infrastruktur sowie auch der Datenbestände auf der Plattform.

Die Masche mit den Maschen im Netz

„In hyperkonvergenten Infrastrukturen stellt jeder Node einen autonomen aber redundanten Bestandteil eines eng vermaschten Netzes an Ressourcen dar, bei dem Speicher und Rechenkern zwar virtualisiert aber eng gekoppelt sind“, so Hille. „Der Flash-basierte Speicher kann daher direkt angesprochen werden, ohne dass langsame Netzwerkverbindungen Flaschenhälse verursachen, was eine hohe I/O-Performance und Skalierbarkeit zur Folge hat. Komplexe NAS/SAN-Strukturen werden im Web-Scale-Modell überflüssig, was die Administration deutlich vereinfacht.“

Viel Open-Source-Software...

Neben dem vereinfachten Handling der Infrastruktur, stelle die Softwareschicht einen weiteren elementaren Mehrwert dar. Denn die Kombination von Distributed File Systems und artverwandten Technologien zur Kompression, Reduplikation und effizienten Verwaltung der Daten ermögliche es, deutlich größere Datenmengen effizient zu verarbeiten. Da ein Großteil der eingesetzten Technologien wie MapReduce oder Zookeeper auf Open Source basiere, verringerten sich die TCO gegenüber rein proprietären Systemen mit ähnlichem Funktionsspektrum deutlich.

...zu fertigen Appliances

Diese hyperkonvergenten Architekturen werden hauptsächlich als fertige Appliances geliefert und können von Unternehmen oder auch Service Providern in Standard-Racks eingesetzt werden. Ein entsprechendes System kann als eine Art "Data Center in a Box" betrachtet werden, sind doch Server, Netzwerk, Speicher sowie Backup und Desaster Recovery in einer einzigen Hardware verbaut. Damit ergibt sich laut Hille sich für die Anwender eine „Plug and Play“-Erfahrung beim Einsatz der Systeme. Der Implementierungs- und Konfigurationsaufwand der Systeme sei gegenüber dem Aufbau einer komplett eigenen vergleichbaren Architektur daher gering.

Fazit

Hyperkonvergente Infrastrukturen sind die Rechenzentrums-Antworten auf Industrie 4.0 – gleichzeitig stellen sie aber lediglich einen ersten Schritt hin zum komplett Software-definiertem Data Center (SDDC) dar. Im Gegensatz zum Software-defined Networking, das noch überwiegend auf Hardware basiert, werden für ein SDDC die Netzwerkressourcen tatsächlich von der zugrunde liegenden Hardware getrennt. Die Grundsätze der Virtualisierung werden also auf die physische Netzwerkinfrastruktur angewendet. Dabei werden Netzwerkservices abstrahiert, um so einen flexiblen Pool von Transportkapazität zu erstellen, die sich nach Bedarf zuweisen lassen.

Das Prinzip ist von virtuellen Maschinen bekannt: Das virtualisiertes Netzwerk ist ein Softwarecontainer, der den verbundenen Workloads logische Netzwerkkomponenten zur Verfügung stellt, wie etwa logische Switches, Router, Firewalls und VPNs sowie einen logischen Lastausgleich. Diese virtualisierten Netzwerke werden programmatisch bereitgestellt und verwaltet, wobei das zugrunde liegende physische Netzwerk als einfache Backplane zur Weiterleitung von Paketen dient. Netzwerk- und Sicherheitsservices werden den VMs nach Bedarf zugewiesen. Sie bleiben mit der jeweiligen VM verbunden, während diese in der dynamischen, virtualisierten Umgebung zwischen Hosts verschoben wird.

* Dr. Dietmar Müller ist freiberuflicher Journalist in Abensberg.

Aktuelle Beiträge zu diesem Thema

HPE schluckt den Hyperconvergenz-Anbieter Simplivity

Übernahme

HPE schluckt den Hyperconvergenz-Anbieter Simplivity

Die Einkaufstouren der Großen im Servermarkt gehen weiter. Diesmal hat HPE angekündigt, den Hyperkonvergenz-Spezialisten Simplivity zu übernehmen. Der Kaufpreis für die 2009 gegründete Firma soll bei 650 Millionen US-Dollar liegen. lesen

Werden sich auch im Jahr 2020 noch die Festplatten drehen?

Kroll Ontrack wirft einen Blick auf die Datentrends

Werden sich auch im Jahr 2020 noch die Festplatten drehen?

Flash- / SSD-Technologie setzt ihre Verbreitung auf dem Markt für Speichertechnologien fort. Für das Jahr 2017 und darüber hinaus kündigen sich zudem weitere Technologiewechsel in den Rechenzentren an, die Datenverschlüsselung setzt sich mehr und mehr durch - insgesamt verstärke sich das Augenmerk auf Informationssicherheit in Unternehmen, so die Prognosen von Kroll Ontrack. lesen

Simplivity und Huawei bieten Appliances für Rechenzentren

Neue Allianz für Hyperkonvergenz

Simplivity und Huawei bieten Appliances für Rechenzentren

„Omni Stack“ von Simplivity, Anbieter hyperkonvergenter Infrastrukturen, gibt es ab sofort auch auf den „Fusion“-Servern von Huawei. lesen

Nutanix - Mit einem Klick auf Benioffs Spuren

.Next-Konferenz Europe- Simplify Datacenters!

Nutanix - Mit einem Klick auf Benioffs Spuren

Erinnert sich noch jemand, als der ehemalige Sun-Chef Scott McNealy mit einem handgemalten Schild die Bühne einer seiner Konferenzen betrat, auf dem das Wort „Simplify!“ stand? Damals wollte er mit Java alles einfacher machen, was eher nicht so gelungen ist, aber .... lesen

Rechenzentren sind konzentrierte IT-Power und Ort des Geschehens

Definition: Rechenzentrum | Datacenter

Rechenzentren sind konzentrierte IT-Power und Ort des Geschehens

Die Frage: „Was ist eigentlich ein Rechenzentrum?“ oder wahlweise „...Datacenter?“ ist gar nicht so leicht zu beantworten wie es scheint. Denn in der Definition müssen mindestens zwei Bedeutungen eine Rolle spielen: erstens, die IT an einem zentralen Ort und zweitens, das mehr oder minder kompakte Gebäude mitsamt technischer Infrastruktur für Connectivity und Verfügbarkeit. lesen

Für Anwender bringt der HDS-Lösungs-Stack entscheidende Vorteile

Commodity muss als Plattform taugen

Für Anwender bringt der HDS-Lösungs-Stack entscheidende Vorteile

Wie macht man sich als Unternehmen die Flash-Entwicklung zunutze, ohne in Sackgassen abzudriften? Ist die Zukunft hyperkonvergent? Und sollten Anwender alles auf die Flash-Karte setzen? Im Gespräch mit Storage-Insider zeigt Jürgen Krebs, dass sich bei HDS die strategische Ausrichtung des Unternehmens drastisch geändert hat. lesen

Insider-Leser wählen IT-Unternehmen des Jahres

IT-Awards 2016

Insider-Leser wählen IT-Unternehmen des Jahres

Im Rahmen einer festlichen Abendgala wurden am 20. Oktober 2016 die Gewinner der IT-Awards 2016 gekürt. Damit hat der zweite „Readers‘ Choice Award“, bei dem gut 34.600 Leserstimmen über einen Zeitraum von viereinhalb Monaten hinweg gesammelt wurden, seinen den Abschluss gefunden. lesen

EMC/Dell-Fusion: Noch viele Unklarheiten im Detail

Struktur und Zuständigkeiten bei Dell Technologies

EMC/Dell-Fusion: Noch viele Unklarheiten im Detail

Die Fusion von EMC und Dell steht, doch das Schicksal diverser Produkte, gerade aus dem Server-Bereich und bei konvergenten respektive hyperkonvergenten Infrastrukturen, ist noch unklar. lesen

Die Weichen für zukunftsfähige Rechenzentren

Der SDDC-Express-Weg

Die Weichen für zukunftsfähige Rechenzentren

Unternehmen benötigen eine leistungsstarke und zukunftsfähige Rechenzentrumsausstattung, um weiter zu wachsen und wettbewerbsfähig zu bleiben. Sie muss auf künftige Rechenlasten vorbereitet, mit einer virtualisierten IT-Infrastruktur ausgestattet, Software-defined und Cloud-fähig sein. lesen

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44448148 / Definitionen)