Hybride IT-Ökosysteme für einzelne Industrievertikale Cloud-Stacks und Hybrid-Ökosysteme
Anbieter zum Thema
Dank ausgefuchsten Diensten und APIs, unbeschränktem Storage und scheinbar grenzenlosen Compute-Reserven für Cloud-Bursting von RZ-Workloads wollen sich die Hyperscaler einen festen Platz in der Unternehmens-IT verdient haben. Cloud-Stacks machten es möglich. Doch Hybrid-Vordenker legen einen drauf: hybride IT-Ökosysteme für einzelne Industrievertikale.

Alles hat Grenzen – außer vielleicht die Public-Cloud. Dennoch: besser Vorsicht als Nachsicht. Einige Arbeitslasten gehören nun mal nicht in die Public-Cloud; es gibt Daten, welche die dedizierte Hardware eines On-Premises-Rechenzentrums niemals verlassen sollten. (Die DSGVO lässt grüßen.) Ohne eine Hybrid-Cloud ist das nicht mehr zu schaffen.
Um Cloud-native Anwendungsarchitekturen neben Altlasten zu unterstützen und hybriden Cloud-Betrieb zu bewältigen, suchen IT-Teams nach Möglichkeiten, ihren lokalen Umgebungen Cloud-ähnliche Fähigkeiten zu verleihen. Eine solche Plattform hat VMware im Köcher. Daimler baut eine neue, maßgeschneidert für die eigene Industrievertikale.
VMware Cloud Foundation
VMware taufte seine Hybrid-Cloud-Plattform auf den Namen VMware Cloud Foundation . Hierbei handelt es sich um eine umfassende SDDC-Plattform mit einer einzigen Steuerungsebene und einem einheitlichen Betriebsmodell für jede beliebige Betriebsumgebung, Virtualisierung und Anwendungsarchitektur. VMware Cloud Foundation setzt auf einer umfassenden hyperkonvergenten Infrastruktur eine Sammlung von softwaredefinierten Cloud-nativen Services auf. Diese Dienste decken Aufgaben wie die Datenverarbeitung, Netzwerk, intrinsische Sicherheit, Bereitstellung von Kubernetes und Cloud-Betrieb einschließlich Cluster-Management und Container-Workload-Orchestrierung ab.
Das Ergebnis ist eine agile Hybrid-Cloud-Infrastruktur für den IT-Betrieb über Grenzen führender privater und öffentlicher Clouds hinweg als eine Erweiterung der unternehmenseigenen Rechenzentrums-IT:
- VMware Cloud on AWS
- Google Cloud VMware Engine
- IBM Cloud for VMware Solutions
- Microsoft Azure VMware Solution
- Oracle Cloud VMware Solution
Im Rahmen des VMware Cloud Provider Program (VCPP) kommen außerdem so um die 200 VMware-Partner mit ihren VMware Cloud Verified-Services auf der VMware-Plattform zum Zuge. Public-Cloud-Hyperscaler wollen zu den Daten ihrer Kunden hin: in das unternehmenseigene Rechenzentrum und an die Edge. Jeder möchte unbedingt in der Unternehmens-IT Fuß fassen.
Daimlers Auffahrt auf die Hybrid-Cloud
Die fortschreitende Modularisierung der Unternehmenssoftware setzt entsprechenden Infrastrukturunterbau voraus. Daimler arbeitet auf ein Modell hin, welches im Zuge der Konsolidierung seiner Rechenzentren eine robuste IT-Infrastruktur in allen Werken und Regionen zu einer Hybrid-Cloud ermöglichen soll, um dem IT-Betrieb zu einer höheren Skalierbarkeit zu verhelfen und dank erhöhter Agilität in Sachen Innovation einen Gang höher zu schalten. Vielleicht auch mehrere.
Der Weg führt über die Erschaffung einer „intelligenten Hybrid-Cloud“ auf der Basis von Infosys Cobalt, einer Sammlung von rund vierzehntausend Diensten, Plattformen und Lösungen, die fertige Architekturblöcke für 200 Industrievertikale mitbringt. Daimlers Hybrid-Cloud soll mit einem standardisierten Technologie-Stack auftrumpfen, quelloffene Technologien in den Vordergrund stellen und führende Hyperscaler mit ins Boot holen. Ein weiteres Ziel ist die Erschaffung eines hochmodernen Zero-Trust-Netzwerks mit nahtlosen Technologie-Upgrades.
Vorposten der AWS-Cloud
Ob aufgrund besonderer Latenzanforderungen, brüchiger Konnektivität, vertraglicher Absprachen, regulatorischer Vorgaben oder schlicht und ergreifend der „Datenschwerkraft“ wegen, Unternehmen wollen kritische Daten und Workloads nicht einfach so aus der Hand geben. Rund drei Viertel (75%) aller Anwendungen der Enterprise-Klasse laufen heute On-Premises, glaubt AWS. 71% aller Unternehmen mit „hybriden“ Bereitstellungen sollen für sich diese Wahl getroffen haben.
Diese Organisationen führen nicht bloß hausbackenen Altlasten-Code hinter geschlossenen Türen ihrer RZ-Facilities aus, sondern auch etwa ERP-Systeme der Weltklasse und andere Anwendungen mit hochsensiblen Daten von unternehmenskritischer Tragweite. Wer ein Stück vom IT-Kuchen abhaben will, darf diese Realitäten nicht ignorieren. Amazon will die Herausforderungen der hybriden Cloud-Erfahrung gelöst haben – wohlgemerkt nach rund dreizehn Jahren erfolgloser Versuche.
Mit AWS Outposts holt Amazon einige der Services und Betriebsmodelle seiner Cloud in das unternehmenseigene Rechenzentrum. AWS Outposts ist ein verwalteter 42U-Rack für kundeneigene Standorte, befüllt mit genau derselben Hardware, die in AWS-eigenen Rechenzentren steht, und befeuert mit demselben Cloud-Stack wie der Rest von AWS, jedoch mit klar definierten „Spielfeldgrenzen“ zur Sicherstellung der Isolation und damit der notwendigen Cyber-Sicherheit. Die Architektur des Systems basiert auf der AWS-eigenen Hypervisor-Plattform Nitro. Das sogenannte Nitro-System trennt die einzelnen Funktionsbereiche eines Hypervisors – die verschiedenen Aufgaben der Virtualisierung und der Cyber-Sicherheit – und lässt sie in Isolation durch dedizierte Hard- und Software ausführen: die Nitro-Chips und den Nitro-Hypervisor.
Nitro-System im Einsatz
Bei den Nitro-Chips handelt es sich um I/O-Hardwarebeschleunigerkarten für VPC, EBS, den Instanz-eigenen (lokalen) Datenspeicher sowie um den Nitro-Controller und den Nitro-Sicherheitschip. Der extrem leichtgewichtige Nitro-Hypervisor selbst braucht sich nur mit der Verwaltung von CPU-Zyklen und Adressen des Arbeitsspeichers zu befassen.
Das Nitro-System in jedem Outposts-Rack verschlüsselt alle Daten im Ruhezustand; der zugehörige Schlüssel liegt auf einem externen Wechseldatenträger. Das Zerstören des Geräts führt zur Vernichtung aller Daten. AWS Outposts integriert sich in genau dieselbe Kontrollebene, stellt dieselben APIs bereit und ist mit demselben SDK nutzbar wie die übrige AWS-Cloud. Selbst die Bestellung für AWS Outposts muss der Nutzer über die AWS-Managementkonsole aufgeben, AWS-typisch in drei überschaubaren Schritten:
Schritt 1: Den Standort wählen (in Frage kommt wahlweise das eigene Rechenzentrum oder etwa ein Abstellplatz bei einem Colo-Anbieter).
Schritt 2: Racks mit Hardware bestücken.
Schritt 3: Zahlungsmodalitäten wählen (entweder alles vorab per CAPEX oder alles auf Raten als OPEX).
Der Preis gewährt dem Anwender die Rund-um-die-Uhr-Betriebsbereitschaft des Racks am gewünschten Standort. Die Installation der Komponenten von AWS-Outposts nimmt maximal vier Stunden in Anspruch und liefert vor Ort eine ziemliche Show ab. Der Nutzer muss nur noch die Stromversorgung anschließen, das Netzwerk verschalten und für angemessene Kühlung sorgen. AWS Outposts erscheint in der AWS-Management-Konsole wie ein integraler Teil der AWS-Infrastruktur. Das System bekommt dieselben Updates und durchläuft dieselben Wartungsarbeiten an der Hardware wie ein Rack in einem Rechenzentrum von Amazon, nur halt vor Ort beim Kunden.
AWS-Dienste vor Ort ausführen
Unternehmen können mit AWS Outposts einige AWS-Dienste direkt in ihrem Rechenzentrum ausführen, darunter EC2, EBS, EKS, S3, Datenbanken und Analyse-Dienste wie EMR, und von dort heraus weitere Cloud-Dienste ihrer AWS-Region in Anspruch nehmen. Unter dem Buzzword „Cloud-Bursting“ ist ein solches Szenario in aller Munde. Outposts-Racks verbinden sich mit der nächstgelegenen AWS-Region via AWS Direct Connect oder AWS Site-to-Site-VPN. Dort sind die anderen AWS-Dienste nur einen Klick oder einen API-Aufruf entfernt.
AWS verwaltet selbst seine Outpost-Racks, überwacht ihre Dienstbereitschaft, aktualisiert die AWS-eigene Software und führt an dem System auch all die sonstigen anfallenden Wartungsarbeiten durch. Droht der Ausfall einer Outposts-Komponente, schickt Amazon vorab die Ersatzteile und vereinbart mit dem Kunden einen Installationstermin. Der Benutzer muss nur noch die Tür aufmachen; AWS-Techniker machen dann den Rest.
Die Bereitstellung der AWS-Betriebslogik bedarf der Ausführung mehrerer tausend verschiedener containerisierter Microservices. Jede dieser Softwarekomponenten müsse laut AWS auf mindestens drei physikalischen Hosts in mindestens drei Verfügbarkeitszonen laufen (das macht neun physikalische Hosts für jeden der tausend Microservices). Das geht ganz schön an die Leistung.
AWS Outposts ist keine Amazon-Monokultur, sondern vielmehr eine Cloud-Erweiterung zur Anwendungsausführung on-premise. Der Ansatz trumpft bei Workloads, die niedrigen Latenzzugriff auf On-Premise-Systeme, lokale Datenverarbeitung oder lokalen Datenspeicher benötigen und AWS-APIs aufrufen. Unternehmen in stark regulierten Branchen und/oder Organisationen mit sonstigen besonderen Anforderungen auf eine verantwortungsvolle Datenaufbewahrung können mit Outposts auf ihre Kosten kommen.
Outposts kann auch zertifizierte Drittanbieter-Lösungen ausführen. Im Rahmen des AWS Outposts-Ready-Partnerprogramms können Technologieanbieter ihre Lösungen auf der Infrastruktur testen und zertifizieren lassen. Das AWS Partner-Kompetenzprogramm soll Unternehmenskunden helfen, Systemintegratoren und Berater für die Migration von Anwendungen und Legacy-Infrastrukturen auf AWS zu finden.
AWS hat bereits mehrere Storage-Lieferanten als Outposts-fähig zertifiziert, darunter:
- Qumulo: integrierte Datendienste für die hybride IT,
- Clumio: SaaS für Backups,
- Cohesity: Datenschutz,
- Commvault: Schutz für EC2, RDS und EKS,
- CTERA: globale Dateidienste für Edge, VDI und physische Hosts,
- Pure Storage mit Flash Blade, einem vereinheitlichten Datei- und Objektspeicher für Microservices und WekaIO, einem parallelen Dateisystem für HPC.
- VMware Cloud auf AWS Outposts stellt ein vollständig verwaltetes software-definiertes Datacenter in-a-Rack bereit.
Azure im Rechenzentrum vor Ort
Cloud-Hyperscaler wollen eigentlich alle Hals über Kopf in das unternehmenseigene Rechenzentrum vordringen. Microsoft hat aber einen Heimvorteil. Von Office365-Anwendungen über BI-Workloads bis hin zum Windows-Betriebssystem: Der Cloud-Riese kann in praktisch jeder Organisation eigene Präsenz vorweisen.
Microsofts Ansatz basiert im Grunde genommen auf drei Hauptkomponenten:
- Azure Stack Hub: Diese Azure-Erweiterung holt Cloud-Dienste von Microsoft Azure ins unternehmenseigene Rechenzentrum. Mit Azure Stack Hub können Unternehmen auf der betriebseigenen IT-Infrastruktur eine eigene autonome Azure-Cloud aufsetzen, um in dieser lokalen Umgebung Cloud-native Azure-Apps unter Wahrung der eigenen Datenhoheit auszuführen.
- Azure Stack Edge: Diese Cloud-seitig verwaltete Edge-Appliance soll die Bereitstellung von ML- und IoT-Workloads erleichtern.
- Azure Stack HCI: Diese hyperkonvergente Infrastruktur unterstützt die Bereitstellung skalierbarer Virtualisierungsworkloads und skalierbaren Speichers für lokale Hochleistungsworkloads.
Microsoft hat de facto ein hybrides Cloud-Ökosystem geschaffen, welches unternehmenseigene IT-Ressourcen im Rechenzentrum vor Ort mit in die Pflicht nehmen kann, um Azure zu erweitern. Microsofts bevorzugter Weg ins unternehmenseigene Rechenzentrum führt über Azure-Dienste auf zertifizierter Hardware, den sogenannten Integrierten Azure Stack Hub-Systemen.
Fazit
Die IT-Verantwortlichen in Unternehmen wünschen sich mehr Flexibilität. Sie wollen einzelne Dienste einer Public-Cloud in die eigene Bereitstellung mit einbeziehen und einige Hand verlesene Arbeitslasten zeitweise in die Cloud verlagern.
Public-Cloud-Hyperscaler haben zwar bereits einen Fuß in die Türe der Unternehmens-IT gestellt. Sie mögen sogar aus dem täglichen IT-Betrieb der Unternehmens-IT nicht mehr wegzudenken sein. Doch mit dem Aufkommen von Hybrid-Ökosystemen werden die Public-Cloud-Hyperscaler vermutlich in ihre Schranken verwiesen.
(ID:47899086)