Hybride IT-Ökosysteme für einzelne Industrievertikale Cloud-Stacks und Hybrid-Ökosysteme

Ein Gastbeitrag von Filipe Martins und Anna Kobylinska |

Anbieter zum Thema

Dank ausgefuchsten Diensten und APIs, unbeschränktem Storage und scheinbar grenzenlosen Compute-Reserven für Cloud-Bursting von RZ-Workloads wollen sich die Hyperscaler einen festen Platz in der Unternehmens-IT verdient haben. Cloud-Stacks machten es möglich. Doch Hybrid-Vordenker legen einen drauf: hybride IT-Ökosysteme für einzelne Industrievertikale.

Der „Single-Pane-of-Glas“-Ansatz einer Hybrid-Cloud fand schon den Weg in manches Elektroauto. In der Abbildung: Das MBUX Multimedia System von Daimler mit AR-basierter  Navigation im 2022er Mercedes EQS bringt den Vorgeschmack auf die Daimler-Hybrid-Cloud mit sich.
Der „Single-Pane-of-Glas“-Ansatz einer Hybrid-Cloud fand schon den Weg in manches Elektroauto. In der Abbildung: Das MBUX Multimedia System von Daimler mit AR-basierter Navigation im 2022er Mercedes EQS bringt den Vorgeschmack auf die Daimler-Hybrid-Cloud mit sich.
(Bild: Daimler)

Alles hat Grenzen – außer vielleicht die Public-Cloud. Dennoch: besser Vorsicht als Nachsicht. Einige Arbeitslasten gehören nun mal nicht in die Public-Cloud; es gibt Daten, welche die dedizierte Hardware eines On-Premises-Rechenzentrums niemals verlassen sollten. (Die DSGVO lässt grüßen.) Ohne eine Hybrid-Cloud ist das nicht mehr zu schaffen.

Um Cloud-native Anwendungsarchitekturen neben Altlasten zu unterstützen und hybriden Cloud-Betrieb zu bewältigen, suchen IT-Teams nach Möglichkeiten, ihren lokalen Umgebungen Cloud-ähnliche Fähigkeiten zu verleihen. Eine solche Plattform hat VMware im Köcher. Daimler baut eine neue, maßgeschneidert für die eigene Industrievertikale.

VMware Cloud Foundation

VMware taufte seine Hybrid-Cloud-Plattform auf den Namen VMware Cloud Foundation . Hierbei handelt es sich um eine umfassende SDDC-Plattform mit einer einzigen Steuerungsebene und einem einheitlichen Betriebsmodell für jede beliebige Betriebsumgebung, Virtualisierung und Anwendungsarchitektur. VMware Cloud Foundation setzt auf einer umfassenden hyperkonvergenten Infrastruktur eine Sammlung von softwaredefinierten Cloud-nativen Services auf. Diese Dienste decken Aufgaben wie die Datenverarbeitung, Netzwerk, intrinsische Sicherheit, Bereitstellung von Kubernetes und Cloud-Betrieb einschließlich Cluster-Management und Container-Workload-Orchestrierung ab.

Das Ergebnis ist eine agile Hybrid-Cloud-Infrastruktur für den IT-Betrieb über Grenzen führender privater und öffentlicher Clouds hinweg als eine Erweiterung der unternehmenseigenen Rechenzentrums-IT:

  • VMware Cloud on AWS
  • Google Cloud VMware Engine
  • IBM Cloud for VMware Solutions
  • Microsoft Azure VMware Solution
  • Oracle Cloud VMware Solution

Im Rahmen des VMware Cloud Provider Program (VCPP) kommen außerdem so um die 200 VMware-Partner mit ihren VMware Cloud Verified-Services auf der VMware-Plattform zum Zuge. Public-Cloud-Hyperscaler wollen zu den Daten ihrer Kunden hin: in das unternehmenseigene Rechenzentrum und an die Edge. Jeder möchte unbedingt in der Unternehmens-IT Fuß fassen.

Daimlers Auffahrt auf die Hybrid-Cloud

Die fortschreitende Modularisierung der Unternehmenssoftware setzt entsprechenden Infrastrukturunterbau voraus. Daimler arbeitet auf ein Modell hin, welches im Zuge der Konsolidierung seiner Rechenzentren eine robuste IT-Infrastruktur in allen Werken und Regionen zu einer Hybrid-Cloud ermöglichen soll, um dem IT-Betrieb zu einer höheren Skalierbarkeit zu verhelfen und dank erhöhter Agilität in Sachen Innovation einen Gang höher zu schalten. Vielleicht auch mehrere.

Der Weg führt über die Erschaffung einer „intelligenten Hybrid-Cloud“ auf der Basis von Infosys Cobalt, einer Sammlung von rund vierzehntausend Diensten, Plattformen und Lösungen, die fertige Architekturblöcke für 200 Industrievertikale mitbringt. Daimlers Hybrid-Cloud soll mit einem standardisierten Technologie-Stack auftrumpfen, quelloffene Technologien in den Vordergrund stellen und führende Hyperscaler mit ins Boot holen. Ein weiteres Ziel ist die Erschaffung eines hochmodernen Zero-Trust-Netzwerks mit nahtlosen Technologie-Upgrades.

eBook

Der neue Trend am Wolkenhimmel

Wir wollen Hybrid!

Wir wollen Hybrid!
eBook: Hybrid IT
(© VIT)

Die nächste Transformationsphase der IT-Landschaft nimmt unweigerlich ihren Lauf. Diesmal auf dem Menü: ein Ansturm auf die hybride Cloud.
Während Multicloud eine Ansammlung verschiedener Cloud-Services nebeneinander bezeichnet, ist die hybride Cloud das Resultat einer bewussten, zielführenden Integration mehrere separater IT-Ökosysteme über eine vereinheitlichte Orchestrierungsebene zu einer einzigen - hybriden - Umgebung. In dieser IT-Landschaft lassen sich Arbeitslasten und Datenflüsse über eine integrierte Schaltzentrale verwalten:

Vorposten der AWS-Cloud

Ob aufgrund besonderer Latenzanforderungen, brüchiger Konnektivität, vertraglicher Absprachen, regulatorischer Vorgaben oder schlicht und ergreifend der „Datenschwerkraft“ wegen, Unternehmen wollen kritische Daten und Workloads nicht einfach so aus der Hand geben. Rund drei Viertel (75%) aller Anwendungen der Enterprise-Klasse laufen heute On-Premises, glaubt AWS. 71% aller Unternehmen mit „hybriden“ Bereitstellungen sollen für sich diese Wahl getroffen haben.

Diese Organisationen führen nicht bloß hausbackenen Altlasten-Code hinter geschlossenen Türen ihrer RZ-Facilities aus, sondern auch etwa ERP-Systeme der Weltklasse und andere Anwendungen mit hochsensiblen Daten von unternehmenskritischer Tragweite. Wer ein Stück vom IT-Kuchen abhaben will, darf diese Realitäten nicht ignorieren. Amazon will die Herausforderungen der hybriden Cloud-Erfahrung gelöst haben – wohlgemerkt nach rund dreizehn Jahren erfolgloser Versuche.

Mit AWS Outposts holt Amazon einige der Services und Betriebsmodelle seiner Cloud in das unternehmenseigene Rechenzentrum. AWS Outposts ist ein verwalteter 42U-Rack für kundeneigene Standorte, befüllt mit genau derselben Hardware, die in AWS-eigenen Rechenzentren steht, und befeuert mit demselben Cloud-Stack wie der Rest von AWS, jedoch mit klar definierten „Spielfeldgrenzen“ zur Sicherstellung der Isolation und damit der notwendigen Cyber-Sicherheit. Die Architektur des Systems basiert auf der AWS-eigenen Hypervisor-Plattform Nitro. Das sogenannte Nitro-System trennt die einzelnen Funktionsbereiche eines Hypervisors – die verschiedenen Aufgaben der Virtualisierung und der Cyber-Sicherheit – und lässt sie in Isolation durch dedizierte Hard- und Software ausführen: die Nitro-Chips und den Nitro-Hypervisor.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Nitro-System im Einsatz

Bei den Nitro-Chips handelt es sich um I/O-Hardwarebeschleunigerkarten für VPC, EBS, den Instanz-eigenen (lokalen) Datenspeicher sowie um den Nitro-Controller und den Nitro-Sicherheitschip. Der extrem leichtgewichtige Nitro-Hypervisor selbst braucht sich nur mit der Verwaltung von CPU-Zyklen und Adressen des Arbeitsspeichers zu befassen.

Das Nitro-System in jedem Outposts-Rack verschlüsselt alle Daten im Ruhezustand; der zugehörige Schlüssel liegt auf einem externen Wechseldatenträger. Das Zerstören des Geräts führt zur Vernichtung aller Daten. AWS Outposts integriert sich in genau dieselbe Kontrollebene, stellt dieselben APIs bereit und ist mit demselben SDK nutzbar wie die übrige AWS-Cloud. Selbst die Bestellung für AWS Outposts muss der Nutzer über die AWS-Managementkonsole aufgeben, AWS-typisch in drei überschaubaren Schritten:

Schritt 1: Den Standort wählen (in Frage kommt wahlweise das eigene Rechenzentrum oder etwa ein Abstellplatz bei einem Colo-Anbieter).

Schritt 2: Racks mit Hardware bestücken.

Schritt 3: Zahlungsmodalitäten wählen (entweder alles vorab per CAPEX oder alles auf Raten als OPEX).

Der Preis gewährt dem Anwender die Rund-um-die-Uhr-Betriebsbereitschaft des Racks am gewünschten Standort. Die Installation der Komponenten von AWS-Outposts nimmt maximal vier Stunden in Anspruch und liefert vor Ort eine ziemliche Show ab. Der Nutzer muss nur noch die Stromversorgung anschließen, das Netzwerk verschalten und für angemessene Kühlung sorgen. AWS Outposts erscheint in der AWS-Management-Konsole wie ein integraler Teil der AWS-Infrastruktur. Das System bekommt dieselben Updates und durchläuft dieselben Wartungsarbeiten an der Hardware wie ein Rack in einem Rechenzentrum von Amazon, nur halt vor Ort beim Kunden.

AWS-Dienste vor Ort ausführen

Unternehmen können mit AWS Outposts einige AWS-Dienste direkt in ihrem Rechenzentrum ausführen, darunter EC2, EBS, EKS, S3, Datenbanken und Analyse-Dienste wie EMR, und von dort heraus weitere Cloud-Dienste ihrer AWS-Region in Anspruch nehmen. Unter dem Buzzword „Cloud-Bursting“ ist ein solches Szenario in aller Munde. Outposts-Racks verbinden sich mit der nächstgelegenen AWS-Region via AWS Direct Connect oder AWS Site-to-Site-VPN. Dort sind die anderen AWS-Dienste nur einen Klick oder einen API-Aufruf entfernt.

AWS verwaltet selbst seine Outpost-Racks, überwacht ihre Dienstbereitschaft, aktualisiert die AWS-eigene Software und führt an dem System auch all die sonstigen anfallenden Wartungsarbeiten durch. Droht der Ausfall einer Outposts-Komponente, schickt Amazon vorab die Ersatzteile und vereinbart mit dem Kunden einen Installationstermin. Der Benutzer muss nur noch die Tür aufmachen; AWS-Techniker machen dann den Rest.

Die Bereitstellung der AWS-Betriebslogik bedarf der Ausführung mehrerer tausend verschiedener containerisierter Microservices. Jede dieser Softwarekomponenten müsse laut AWS auf mindestens drei physikalischen Hosts in mindestens drei Verfügbarkeitszonen laufen (das macht neun physikalische Hosts für jeden der tausend Microservices). Das geht ganz schön an die Leistung.

Hyperscaler Amazon möchte sich mit einem Rack wie diesem, getauft auf den Namen AWS Outposts, im kundeneigenen Rechenzentrum einnisten und so leichter in die Hybrid-Cloud Einzug finden.
Hyperscaler Amazon möchte sich mit einem Rack wie diesem, getauft auf den Namen AWS Outposts, im kundeneigenen Rechenzentrum einnisten und so leichter in die Hybrid-Cloud Einzug finden.
(Bild: AWS)

AWS Outposts ist keine Amazon-Monokultur, sondern vielmehr eine Cloud-Erweiterung zur Anwendungsausführung on-premise. Der Ansatz trumpft bei Workloads, die niedrigen Latenzzugriff auf On-Premise-Systeme, lokale Datenverarbeitung oder lokalen Datenspeicher benötigen und AWS-APIs aufrufen. Unternehmen in stark regulierten Branchen und/oder Organisationen mit sonstigen besonderen Anforderungen auf eine verantwortungsvolle Datenaufbewahrung können mit Outposts auf ihre Kosten kommen.

Outposts kann auch zertifizierte Drittanbieter-Lösungen ausführen. Im Rahmen des AWS Outposts-Ready-Partnerprogramms können Technologieanbieter ihre Lösungen auf der Infrastruktur testen und zertifizieren lassen. Das AWS Partner-Kompetenzprogramm soll Unternehmenskunden helfen, Systemintegratoren und Berater für die Migration von Anwendungen und Legacy-Infrastrukturen auf AWS zu finden.

AWS hat bereits mehrere Storage-Lieferanten als Outposts-fähig zertifiziert, darunter:

  • Qumulo: integrierte Datendienste für die hybride IT,
  • Clumio: SaaS für Backups,
  • Cohesity: Datenschutz,
  • Commvault: Schutz für EC2, RDS und EKS,
  • CTERA: globale Dateidienste für Edge, VDI und physische Hosts,
  • Pure Storage mit Flash Blade, einem vereinheitlichten Datei- und Objektspeicher für Microservices und WekaIO, einem parallelen Dateisystem für HPC.
  • VMware Cloud auf AWS Outposts stellt ein vollständig verwaltetes software-definiertes Datacenter in-a-Rack bereit.

Azure im Rechenzentrum vor Ort

Cloud-Hyperscaler wollen eigentlich alle Hals über Kopf in das unternehmenseigene Rechenzentrum vordringen. Microsoft hat aber einen Heimvorteil. Von Office365-Anwendungen über BI-Workloads bis hin zum Windows-Betriebssystem: Der Cloud-Riese kann in praktisch jeder Organisation eigene Präsenz vorweisen.

Microsofts Ansatz basiert im Grunde genommen auf drei Hauptkomponenten:

  • Azure Stack Hub: Diese Azure-Erweiterung holt Cloud-Dienste von Microsoft Azure ins unternehmenseigene Rechenzentrum. Mit Azure Stack Hub können Unternehmen auf der betriebseigenen IT-Infrastruktur eine eigene autonome Azure-Cloud aufsetzen, um in dieser lokalen Umgebung Cloud-native Azure-Apps unter Wahrung der eigenen Datenhoheit auszuführen.
  • Azure Stack Edge: Diese Cloud-seitig verwaltete Edge-Appliance soll die Bereitstellung von ML- und IoT-Workloads erleichtern.
  • Azure Stack HCI: Diese hyperkonvergente Infrastruktur unterstützt die Bereitstellung skalierbarer Virtualisierungsworkloads und skalierbaren Speichers für lokale Hochleistungsworkloads.

Microsoft hat de facto ein hybrides Cloud-Ökosystem geschaffen, welches unternehmenseigene IT-Ressourcen im Rechenzentrum vor Ort mit in die Pflicht nehmen kann, um Azure zu erweitern. Microsofts bevorzugter Weg ins unternehmenseigene Rechenzentrum führt über Azure-Dienste auf zertifizierter Hardware, den sogenannten Integrierten Azure Stack Hub-Systemen.

Fazit

Die IT-Verantwortlichen in Unternehmen wünschen sich mehr Flexibilität. Sie wollen einzelne Dienste einer Public-Cloud in die eigene Bereitstellung mit einbeziehen und einige Hand verlesene Arbeitslasten zeitweise in die Cloud verlagern.

Public-Cloud-Hyperscaler haben zwar bereits einen Fuß in die Türe der Unternehmens-IT gestellt. Sie mögen sogar aus dem täglichen IT-Betrieb der Unternehmens-IT nicht mehr wegzudenken sein. Doch mit dem Aufkommen von Hybrid-Ökosystemen werden die Public-Cloud-Hyperscaler vermutlich in ihre Schranken verwiesen.

(ID:47899086)