Disaggregation und Hyperkonvergenz im Auftrag softwaredefinierter zusammensetzbarer Infrastruktur

Was ist Composable Infrastructure?

| Autor / Redakteur: Filipe Pereira Martins und Anna Kobylinska* / Ulrike Ostler

Composable Infrastructure abstrahiert die Ressourcen Compute, Storage und Netzwerk in Software und macht sie via Code steuerbar.
Composable Infrastructure abstrahiert die Ressourcen Compute, Storage und Netzwerk in Software und macht sie via Code steuerbar. (Bild: gemeinfrei - Pixabay / CC0)

Eine dynamische Workload-Provisionierung ist das heilige Gral des Rechenzentrumsdesigns. Composable Infrastructure soll der Datacenter-Infrastruktur zur dringend benötigten Flexibilisierung verhelfen — sei es durch „echte“ Hyperkonvergenz oder durch Disaggregation.

Der Weg zur höheren Flexibilisierung des Datencenters führt durch die Implementierung von Infrastruktur in Code (Infrastructure as code). Dies setzt voraus, dass sich die Ressourcenklassen Compute, Storage und Netzwerk separat voneinander erweitern und über ein vereinheitlichtes API zusammensetzen lassen.

Composability bildet de facto eine Voraussetzung für extreme Service-Agilität. Frost & Sullivan spricht im übertragenen Sinne von einer Sammlung von logischen Legosteinen der Infrastruktur, die sich bedarfsgerecht replizieren ließen und über vorprogrammierte Intelligenz verfügten, um sich wunschgemäß und zweckgebunden in der benötigten Ausstattung dynamisch zusammenzusetzen.

Zustandslose Infrastruktur auf der Basis von Network-Fabric

Composable Infrastructure (zusammensetzbare Infrastruktur) abstrahiert die Ressourcen Compute, Storage und Netzwerkgewebe (Fabric) und macht sie als separate Bausteine via Code steuerbar. Dies ermöglicht die Umsetzung fortgeschrittener Kontrollfunktionen wie der automatischen Hardware-Erkennung, Selbstdiagnose und -Heilung von Betriebsstörungen. Gartner-Analysten zufolge stellt Composable Infrastructure den nächsten logischen Schritt auf dem Weg zur vollständig zustandslosen dynamischen Infrastruktur-als-ein-Service.

Eine neue Kategorie der Infrastruktur: Evolution der Datencenter-Infrastruktur aus Sicht von HPE.
Eine neue Kategorie der Infrastruktur: Evolution der Datencenter-Infrastruktur aus Sicht von HPE. (Bild: HPE)

Das Beratungshaus IDC konnte in dem aufkeimenden Markt bereits zwei Lösungsansätze ausmachen. Die HPE-Plattform „Synergy“ ist ein Beispiel für die so genannte softwaredefiniert zusammensetzbare Infrastruktur (Software Defined Composability). Eine softwaredefiniert zusammensetzbare Infrastruktur entsteht auf der Basis eines Frameworks beziehungsweise eines Stacks von Werkzeugen. So entsprang beispielsweise HPEs Synergy-Produktlinie den Blade-Systemen des Anbieters durch die Zugabe von Features aus den Appliances „Synergy Composer“ und „Image Streamer“ (siehe auch den Bericht: „Keine HPE-Commodity-Hardware für die Hyperscaler – Was macht die Konkurrenz?“).

Ergänzendes zum Thema
 
Der Autorenkommentar

Der umgekehrte Lösungsansatz trägt die Bezeichnung Disaggregation; er strebt die völlige Entkopplung der Ressourcenklassen Compute, Storage und Netzwerk/Fabric in einzelne Knoten voneinander, um sie wieder auf Hardware-Ebene zusammenzusetzen. In diese Kategorie fällt unter anderem „Rack Scale Design“ (kurz: RDS) von Intel für Hyperscaler.

In einem System wie HPE Synergy lassen sich die benötigten Workloads mit Hilfe softwaredefinierter Vorlagen in einem einzigen Schritt provisionieren, ohne die Verfügbarkeit laufender Dienste zu unterbrechen. Auch Änderungsvorgänge wie das Aktualisieren von Firmware führen nicht mehr zwangsweise zu Dienststörungen.

Pionierarbeit: Jeder HPE Synergy-Frame vereint Rechenknoten, Speicher und Netzwerk in einem 10-HE-Gehäuse mit einem 10-GB-Frame-Link-Modul zu anderen Synergy-Modulen.
Pionierarbeit: Jeder HPE Synergy-Frame vereint Rechenknoten, Speicher und Netzwerk in einem 10-HE-Gehäuse mit einem 10-GB-Frame-Link-Modul zu anderen Synergy-Modulen. (Bild: HPE)

Die Ansprache einzelner Ressourcen

Die softwaredefinierte Schicht der zusammensetzbaren Infrastruktur verwaltet autark die darunterliegende Hardware. So können die IT-Verantwortlichen ihre Aufmerksamkeit verstärkt der logischen Dimension der Infrastruktur widmen.

Ressourcen wie der Datenspeicher und das Netzwerk nutzen derart „ausgewachsene“ Protokoll-Stacks (TCP/IP, iSCSI, NFS und andere), dass sich noch eine weitere Softwareebene auf die Gesamtperformance der Infrastruktur kaum auswirkt (siehe dazu auch den Bericht: “Der Verzicht auf RAID-Arrays”). Im Gegensatz dazu sprechen Ressourcen mit Zugriffszeiten im Nanosekunden-Bereich nicht Protokoll-Stacks, sondern CPU-native Befehlssätze.

In diese Kategorie fallen Hardwarekomponenten der Speicherdomäne wie DRAM, SCM (storage class memory oder Speicherklassenspeicher) und GPUs/FPGAs. Bei der Vervollständigung zusammensetzbarer Infrastrukturen kommt gerade diesen schnellen Ressourcen eine entscheidende Bedeutung zu. Die Industrie sucht händeringend nach neuen Ansätzen.

Das Gen-Z-Interconnect

Infrastrukturbauteile der Speicherdomäne aktueller Systemarchitekturen, darunter Hardwarebeschleuniger, I/O (die Ein- und Ausgabe) und RAM, entziehen sich der Disaggregation und somit auch der Zusammensetzbarkeit auf Hardware-Ebene. Jeder Versuch, die verfügbaren Ressourcen bis in die Ebene der Speichersemantik zu disaggregieren, würde sich sofort auf die Bandbreite und Latenz der betreffenden Komponenten auswirken und die Vorteile zusammensetzbarer Infrastruktur schnell wieder nivellieren. (Bei Speichersemantik, memory semantics, handelt es sich um die Prozesslogik, mit deren Hilfe ein System den Zugriff auf gemeinsam genutzte Adressen des physischen Speichers oder gemeinsam genutzte Variablen durch mehrere Prozessoren oder mehrere Threads steuert.)

Denn während sich die Speicherkapazität pro CPU-Kern seit Jahren kaum geändert hat, nimmt die Bandbreite des Arbeitsspeichers pro CPU-Kern von Generation zu Generation sogar noch ab. Es wird eine völlig neue, Speicher-zentrische Architektur benötigt, und ein neues Interconnect. Eine solche Technologie entsteht unter dem Namen Gen-Z im Rahmen des Gen-Z Consortium.

Composability in Software: HPEs Synergy-Produktlinie entstand aus den Blade-Systemen des Anbieters durch die Zugabe von Features aus den Appliances Synergy Composer und Image Streamer.
Composability in Software: HPEs Synergy-Produktlinie entstand aus den Blade-Systemen des Anbieters durch die Zugabe von Features aus den Appliances Synergy Composer und Image Streamer. (Bild: HPE)

Bei Gen-Z handelt es sich um einen offenen Standard für ein Interconnect auf Systemebene für den Zugriff auf Daten und Geräte unter Verwendung von Speichersemantik über eine Direktanbindung, Switches oder Netzwerkgewebe (Fabric). Gemeint ist ein neuer Bus, und zwar eine direkte, in Hardware implementierte Hochgeschwindigkeitsanbindung zwischen CPU-Kernen, SoCs, FPGAs, GPUs, Speicherpools und vernetztem Datenspeicher.

Bandbreite und Latenz

Gen-Z hat zum Ziel, eine Bandbreite jenseits von 100 Gigabit pro Sekunde (GBps) und eine Latenz von weniger als 100 Nanosekunden zu erreichen. Es geht hierbei um die Bandbreite zwischen den Ressourcen Compute, zum Beispiel den CPU-Kernen, auf der einen Seite und Block-basiertem Speicher auf der anderen Seite. Eben diese Anbindung stellt derzeit einen Flaschenhals im Hinblick auf die Latenz dar.

Gen-Z-Hardwarekomponenten lassen sich in die bestehende Unternehmens-IT vollständig transparent einfügen; es sind hierzu weder Änderungen am Betriebssystem noch an der Middleware erforderlich. Der Standard nutzt allerdings neuartige modulare Stecker; zum Teil sollen sie mit bestehenden Anschlüssen und bestehender Verkabelung nutzbar sein. Das Interconnect soll vorerst zwischen verschiedenen Serverknoten vermitteln und auf einen Rack skalieren können.

Reif für die nächste Entwicklungsphase: Gartners Magic Quadrant for Hyperconverged Infrastructure.
Reif für die nächste Entwicklungsphase: Gartners Magic Quadrant for Hyperconverged Infrastructure. (Bild: Gartner)

Unternehmen versprechen sich von der Architektur unter anderem auch neue Möglichkeiten der Leistungsoptimierung bestehender Infrastruktur, eine verbesserte Energie-Effizienz und eine höhere Branchenagilität dank der neu gewonnenen Fähigkeiten zur Datenanalyse in Echtzeit. Die Technologie ist offen und frei von Lizenzgebühren — eine Kriegserklärung der IT-Branche an Intel und seine proprietären Interconnects. Zu den Mitgliedern des Gen-Z Consortiums zählen unter anderem AMD, ARM, Broadcom, Cray, Dell EMC, HPE, Huawei, IBM, Lenovo, VMware und Samsung.

Disaggregierte Integration?

Hyperkonvergente Infrastrukturen basieren auf einem gegenteiligen Ansatz, nämlich auf der Ressourcen-Aggregation. Integrierte Systeme würden nicht automatisch die beste Lösung für beliebige Workloads darstellen, bestätigt das Analystenhaus Gartner in einem Bericht. Hyperkonvergenten Systemen stünde ein großes Redesign bevor.

Insbesondere bei Deployments jenseits von 16 bis 20 Knoten stößt Hyperkonvergenz in der aktuellen Implementierung schnell an ihre Grenzen; bei latenzkritischen Arbeitslasten versagt sie kläglich. Zu den Problemfeldern der Architektur zählen außerdem die niedrige de-facto nutzbare Speicherkapazität (viel „Verschnitt“ als ein Nebeneffekt der Replikation, anbieterspezifisch), die beschränkte Belastbarkeit und die eingebauten Performance-Bremsen, allen voran das Netzwerk.

Die Schwächen aktueller Implementierungen fallen insbesondere bei KI-lastigen Workloads, Big Data-Anwendungen auf der Basis von HANA, Hadoop oder Cloudera und anderen nicht-linearen, speicherlatenzsensiblen, transaktionalen Arbeitslasten ins Gewicht. Die Kosten zusätzlicher Leistung steigern bei HCI üblicherweise doppelt so schnell wie die Performance.

Anbieter wie Stratoscale versuchen bereits, diese Probleme durch eine Hardware-agnostische, „echte“ Hyperkonvergenz und Disaggregation auszumerzen. (Die Stratoscale-Plattform setzt wie Nutanix mit „AHV“, auf dem KVM-Hypervisor auf und unterstützt eine Migration von vSphere oder Hyper-V wie auch von anderen KVM-Implementierungen.

Die Evolution von Compute-Infrastrukturen.
Die Evolution von Compute-Infrastrukturen. (Bild: Gartner)

Gartner identifiziert drei Entwicklungsphasen integrierter Systeme.

  • Die bereits abgeschlossene erste Phase fand zwischen 2005 und 2015 statt; sie umfasst den Höhepunkt von Blade-Systemen.
  • Die zweite Phase begann etwa 2010 und dürfte voraussichtlich bis 2020 anhalten; sie markiert die Ankunft konvergenter Infrastrukturen und das Aufkommen von HCIS für spezielle Anwendungsfälle.
  • Die dritte Phase, die ja auch bereits 2016 anfing und sich bis etwa 2025 ausstrecken könne, repräsentiert aus Sicht des Analystenhauses die kontinuierliche Anwendung und Bereitstellung von Microservices auf HCIS-Plattformen wie der von Stratoscale. Die dritte Phase der integrierten Systeme werde demnach „dynamische, zusammensetzbare und Fabric-basierte Infrastrukturen bereitstellen“, indem sie auch modulare und disaggregierte Hardwarebausteine böte, die eine kontinuierliche Anwendungsbereitstellung und kontinuierliche wirtschaftliche Optimierung ermöglichen sollen, schrieb Gartner in einem Bericht.

Ein nicht zu unterschätzender Vorteil zusammensetzbarer Infrastrukturen gegenüber herkömmlichen Architekturen besteht in der Fähigkeit, sowohl Bare-Metal-Deployments als auch virtualisierte und containerisierte Umgebungen auf einer einzigen Plattform zu implementieren. Die nächste Generation der Hyperkonvergenz werde letztendlich die zugrundeliegende Infrastruktur verschwinden lassen; die Infrastruktur würde zu einem anpassungsfähigen Werkzeug morphen, welches unter der Kontrolle intelligenter Software automatisiert würde, um „ITaaS“-Implementierungen (IT-as-a-Service) zu ermöglichen. „HCIS ist kein Ziel, sondern eine evolutionäre Reise“, urteilt Andrew Butler, Vice President und distinguierter Analyst bei Gartner.

Magic Quadrant für Hyperconverged Infrastructure

Gartner: Der HCI-Markt besteht nicht nur aus Big Names

Magic Quadrant für Hyperconverged Infrastructure

23.02.18 - Das Marktforschungs- und Beratungsunternehmen Gartner hat die Hyperkonvergenz-Angebote von zwölf Herstellern unter die Lupe genommen. Die Analysten kommen in einigen Fällen zu durchaus überraschenden Feststellungen. lesen

Gartner prognostiziert, dass 20 Prozent geschäftskritischer Anwendungen, die heute (2018) auf Three-tier-Infrastruktur bereitgestellt werden, bis zum Jahre 2020 auf hyperkonvergente Systeme migrieren würden. Anfang 2019 rechnen die Analysten mit einem Marktvolumen von rund 5 Milliarden Dollar.

Richard Fichera, VP und Principal Analyst Für DevOps von Forrester Research, urteilt: „Die Aufnahme zusammensetzbarer Infrastrukturtechnologie in den aktuellen Mix aus Virtualisierungsabstraktionen und Automatisierungswerkzeugen (...) bringt das vollständige Potenzial eines SDDCs (...) näher an die Realität“. Geoff Hollingworth, Head of Product Marketing Cloud Systems bei Ericsson, schlägt in dieselbe Kerbe. „Alles muss programmierbar sein (...) damit es sich automatisieren lässt“, so Hollingworth.

*Das Autorenduo

Filipe Pereira Martins und Anna Kobylinska arbeiten bei Soft1T S.a r.l. Beratungsgesellschaft mbH/McKinley Denali Inc. (USA).

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45262237 / Definitionen)