Wie sich Kosten, Ressourcen und Fehler sparen lassen

In 5 Schritten zur autonomen (eigenen) Cloud

| Autor / Redakteur: Steve Garrison* / Ulrike Ostler

Das muss kein Traum sein: die "self-driving cloud", sagt Steve Garrison von Zerostack und erläutert, wie Unternehmen in fünf Phasen zu diesem Betriebszustand gelangen.
Das muss kein Traum sein: die "self-driving cloud", sagt Steve Garrison von Zerostack und erläutert, wie Unternehmen in fünf Phasen zu diesem Betriebszustand gelangen. (Bild: gemeinfrei - PIRO4D/Pixabay / CC0)

Dank der Fortschritte in den Bereichen des maschinellen Lernens und der künstlichen Intelligenz ist eine autonomen Cloud schon heute nahezu realisierbar. Der Weg von manuell gesteuerten Clouds zu autonomen Clouds führt aber nur über einzelne Schritte, damit Cloud-Administratoren die Automatisierung auf verschiedenen Ebenen kennenlernen und Vertrauen dazu entwickeln können.

Technologen sehen zwar die Zukunft klar vor sich – doch oft sind viele kleine Schritte nötig, um von unserem heutigen Ausgangspunkt dorthin zu gelangen, wo wir morgen sein wollen. So ist es zum Beispiel unrealistisch, dass Autohersteller auf dem derzeitigen Entwicklungsstand augenblicklich zu einem vollständig autonomen Fahrzeug ohne Steuersystem für den Fahrer übergehen. Und selbst wenn die Automobilindustrie in der Lage wäre, ein solches Fahrzeug auf die Straße zu bringen, könnten derzeit nur sehr wenige Menschen das nötige Vertrauen aufbringen, sich in einen Wagen ohne jede Steuermöglichkeit zu setzen.

Exakt dasselbe gilt auch für autonome On-Premises-Clouds: Dort wollen die Unternehmen hin, aber diese Entwicklung muss schrittweise erfolgen.

Torsten Volk, Managing Research Director von Enterprise Management Associates, ist der Meinung, eine autonome Cloud sollte auf künstlicher Intelligenz (KI) basierende Technologie nutzen, um die Bedürfnisse der DevOps-Unternehmen zu erfüllen: „Je nachdem, welche Laufzeitanforderungen, gesetzlichen Vorschriften und Sicherheitsüberlegungen für die Anwendung zutreffen und welche geschäftliche Bedeutung die Anwendung für das Unternehmen hat, sollte das DevOps-Team automatisch Zugriff auf passende Tools, CPUs, RAM und Speicherpools erhalten, damit es die Anwendung entwickeln, starten, testen und betreiben kann.“

Welche Voraussetzungen sind notwendig?

Das beginne mit der Bereitstellung von optimal ausgestatteten Arbeitsplätzen für die Entwickler durch die KI – mit Tools für jeden Entwickler, die seiner Rolle im Rahmen der Anwendung gerecht werden. Anschließend sollte Künstliche Intelligenz bestimmen, wo die Entwicklungs-, Test-, Staging- und Produktionsumgebungen beschafft werden, die den bestmöglichen Kompromiss zwischen Risiko, Kosten und Leistung erzielen.

Darüber hinaus müsse KI den Prozess der kontinuierlichen Integration und Entwicklung im Auge behalten, um die Entwickler vor den operativen Auswirkungen ihrer anstehenden Releases zu warnen – und für eine neue Infrastruktur zu sorgen, sollten sich die Anforderungen ändern. Und zu guter Letzt müsse KI durchgehend eine optimale Aufteilung der Ressourcen sicherstellen, basierend auf sich ändernden Geschäftsprioritäten und Anwendungsszenarien.

Für dieses optimale Szenario hätten IT-Anbieter die folgenden drei Voraussetzungen zu erfüllen: Sie benötigten

  • 1. Kenntnis über die Anwendungsanforderungen aus technischer und unternehmerischer Sicht sowie
  • 2. einen Überblick über die sich schnell ändernden Wege zur Beschaffung von Rechenleistung, Netzwerk- und Speicherressourcen und sollten
  • 3. ein KI-System nutzen, das den Anforderungen und Einsatzmöglichkeiten auf nachvollziehbare Weise entspricht, damit die Kunden sie verstehen und ihr vertrauen könnten.

Die Einführung einer KI-gesteuerten Private Cloud zieht also eine weitreichende Veränderung von Prozessen nach sich, und wie bei jeder so großen Veränderung empfiehlt sich auch hier: Erst krabbeln, dann gehen, dann rennen. Wir bei Zerostack schlagen die folgenden fünf Phasen für die Entwicklung einer vollständig autonomen On-Premises-Cloud vor.

Noch fünf Stufen und dann ist es geschafft.
Noch fünf Stufen und dann ist es geschafft. (Bild: gemeinfrei - Morgan888/Pixabay / CC0)

Phase 1: Automatische Installation und Konfiguration, wobei der Entwickler bestimmt, wann automatische Updates stattfinden

Die erste Phase der Automatisierung besteht in der Installation und Konfiguration der On-Premises-Cloud. Die verwendete Technologie bietet Zero Touch Provisioning (ZTP), wodurch die Cloud-Software die automatische Erkennung des Cloud-Servers startet und den Server als Cloud-Instanz konfiguriert.

Bei dieser Technik gibt es zwei Komponenten: eine On-Premises-Cloud-Software, die auf einem oder mehreren Servern installiert ist, und ein Cloud-basiertes „Gehirn“, das aus einem großen Cluster virtueller Maschinen besteht. Diese VMs bilden einen großen Daten-Cluster – zum Sammeln, Speichern und Analysieren von Telemetriedaten.

Die in diesen VMs aktiven Dienste liefern auch ein REST-basiertes API für die Web-Benutzeroberfläche. Der Cloud-Administrator kann auswählen, wie häufig Upgrades stattfinden, oder um eine Benachrichtigung bitten, wenn ein Upgrade ansteht, um dann den genauen Zeitpunkt dafür festzulegen.

Phase 2: Zusammenführung von AWS und VMware, um die Vorteile aus den verschiedenen Welten zu vereinen

In dieser Phase bietet die Cloud eine Migration in beide Richtungen: zwischen sich selbst und Public Clouds. In vielen Fällen beschränkt eine On-Premises-Cloud-Lösung die Integration auf nur eine Public Cloud – eine ziemliche Einschränkung, denn Cloud-Administratoren sollten die Möglichkeit haben, mehr als eine Public Cloud zu nutzen, um die optimale Umgebung für die jeweilige Workload wählen zu können. Die Herausforderung hierbei ist jedoch: Es ist nicht so leicht, mehrere Clouds auf einmal zu verwalten.

In einer vollständig integrierten Private Cloud sollten Nutzer die Möglichkeit haben, ihre Workloads in einer Hybrid-Cloud-Umgebung zu optimieren, ohne dabei auf nur einen Anbieter beschränkt zu sein. Cloud-Administratoren sollten mit nur wenigen Klicks schnell und einfach Workloads auf eine Public Cloud migrieren und dann flexibel auf ihre VM-Instanzen vor Ort, in einer Public Cloud oder in einer gemischten Hybrid-Cloud-Umgebung zugreifen können.

Diese Migration umfasst VMs sowie Speicher- und Netzwerkressourcen und ist daher keine reine Datenmigration. Die On-Premises-Cloud-Plattform sollte außerdem mit Formatkonvertierungen und neuen Treibern umgehen können, die für die Zielplattform installiert werden müssen.

Phase 3: Auf Self-Service-Provisioning und Entwickler-Templates basierender Bereitstellungsprozess

Eine On-Premises-Cloud-Infrastruktur sollte die Produktivität der Entwickler und die Flexibilität des Unternehmens maximieren. In einigen Fällen bedeutet dies die Einbindung einer Reihe von Entwickleranwendungen, die von Endnutzern mit einem einzigen Mausklick genutzt werden können. Zusätzlich sollte eine On-Premises-Cloud offene und erweiterbare Entwickler-Templates umfassen, die den Entwicklungsprozess beschleunigen und gleichzeitig für Konsistenz zwischen den räumlich weit verstreuten Entwicklerteams sorgen.

Phase 4: Hochentwickeltes maschinelles Lernen zur Automatisierung von Prozessen, wobei Datenwissenschaftler Telemetrie- und operative Daten nutzen

Jede Private Cloud sollte über eine Selbstreparaturebene verfügen, die den täglichen Betrieb fortlaufend überwacht und operative Probleme eigenständig löst – oder zumindest den Cloud-Administrator über diese informiert. Da die Selbstreparaturebene kurzfristige Entscheidungen trifft, benötigt eine automatisierte Cloud eine weitere automatische Ebene zur langfristigen Überwachung der Cloud und ihrer Anwendungen – und um dabei zu helfen, die Cloud zu optimieren, ihre Effizienz zu erhöhen und für die Zukunft zu planen.

Eine autonome Cloud-Plattform sammelt Telemetrie- oder operative Daten und nutzt maschinelles Lernen, um Datenwissenschaftlern bei der Entwicklung von Algorithmen zu unterstützen, die dieses Vorgehen abbilden. Die Algorithmen unterstützen Cloud-Administratoren dann bei der Entscheidungsfindung. Diese Ebene sollte beispielsweise die Hardwarenutzung überwachen, um den voraussichtlichen Kapazitätsbedarf einzuschätzen und neue Server zu empfehlen oder sogar anzuweisen.

Die maschinell lernende Ebene sollte außerdem bestimmen, welche Server hinsichtlich CPU, Speicher und Input-Output-Verhältnis hinzugefügt werden. Wenn die Anwendungen beispielsweise CPU-intensiver sind, sollten mehr Server mit mehr Kernen und weniger Speicher angewiesen werden.

Cloud-Kunden zahlen zu viel

Ein weiterer Bereich ist die Optimierung der Größe von VMs basierend auf deren Nutzung. Kunden zahlen bei Public Clouds für Spitzenkapazitäten, doch die durchschnittliche Nutzung beträgt in den meisten Fällen weniger als 15 Prozent. Aktuell zahlen Nutzer fünfmal mehr, als wenn sie die Workload in einer privaten Umgebung zusammenfassen würden. All diese Einsparungen können an die Nutzer weitergegeben werden, statt dass die Cloud-Anbieter sie selbst einbehalten.

Ein lernfähiges System könnte den Nutzern auch helfen, Anomalien in ihrer Umgebung zu erkennen. Bei einem unserer Kunden stellten wir beispielsweise fest, dass die VM auf einmal große Datenmengen an andere öffentliche IPs schickte. Die VM war von einem Bot gehackt worden. Ein solches Sicherheitsrisiko lässt sich tadellos mithilfe eines intelligenten Systems zur Erkennung von Anomalien aufdecken.

Diese lernfähigen Systeme werden in naher Zukunft auch in unseren Autos und Mobiltelefonen gebraucht. Die Liste lernbasierter Algorithmen kann lang werden, doch der Schlüssel ist eine Plattform, bei der diese Algorithmen im Laufe der Zeit problemlos hinzugefügt werden können.

Phase 5: Automatisierte Upgrades, bei denen der Umgebungsbesitzer den Prozess überwacht

Cloud-Software sollte mit einem Webportal interagieren, damit sie sich fortlaufend aktualisieren kann. Die Cloud sollte automatisierte Upgrade-Vorgänge unterstützen, zu denen neuere Versionen von OpenStack-Komponenten gehören. Ein automatisierter Upgrade-Vorgang ermöglicht der Cloud, ohne Benutzereingriff vollautomatisch auf die neue Version aktualisiert zu werden. Das Upgrade kann vollständig über das Webportal erfolgen und während des Software-Upgrades läuft die On-Premises-Cloud ohne Unterbrechung weiter.

Steve Garrison von Zerostack hat den Artikel verfasst.
Steve Garrison von Zerostack hat den Artikel verfasst. (Bild: Zerostack)

*Der Autor:

Steve Garrison ist bei Zerostack für Strategien zur Markteinführung, Markterschließung und Markenentwicklung verantwortlich und verfügt als langjähriger Information Technology Manager über rund 20 Jahre Erfahrung im Technologiemarketing. Steve war in mehreren öffentlichen und durch Risikokapital gestützten Unternehmen für weltweites Marketing verantwortlich, darunter Pica8, Infoblox, Force10 Networks (übernommen von Dell, Inc.) und Riverstone Networks (übernommen von Alcatel-Lucent). Er besitzt einen Master of Science in Materialwissenschaften des MIT und einen Bachelor of Science in Technischer Keramik der Alfred University.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45160853 / Virtualisierung)