Ein Jahrzehnt gemeinsamer Anstrengungen der Kubernetes-Gemeinde hat ein lebhaftes, ultra-fragmentiertes und kaum noch überschaubares Ökosystem hervorgebracht. Als Nächstes könnte eine Konsolidierung in den Sternen stehen, enthüllt eine Befragung unter den Eingeweihten. Die ersten unter den „VMware-Expats“ glauben inzwischen, ihre Schäfchen auf Kubernetes-Clustern in trockenen Tüchern zu haben.
Nach 10 Jahren Kubernetes: Steht eine Konsolidierung an? Immerhin gibt des zweite Unternehmen Schwierigkeiten damit an, den eigenen Stack aus dem breiten Ökosystem Cloud-nativer Lösungen zusammenzustellen.
Die befragten Unternehmen betreiben ihre Kubernetes-Cluster typischerweise in mehreren unterschiedlichen Umgebungen, vom Rechenzentrum (94 Prozent der Befragten) über die Edge (38 Prozent) bis hin zur Cloud (50 Prozent Amazon, 38 Prozent Azure, 28 Prozent Google). Knapp jede zweite der befragten Anwenderorganisationen (48 Prozent) orchestriert ihre Kubernetes-Cluster in vier oder mehr verschiedenen Umgebungen gleichzeitig.
Die nächste Veranstaltung „KubeCon + CloudNativeCon“ findet Ende August in Hong Kong statt; im November geht es nach Salt Lake City im U.S.-Bundesstaat Utah und danach Anfang April 2025 nach London, England.
(Bild: KubeCon)
Geheimnis-Smiley
KubeCon-Geheimtipp:🤐 Eine quelloffene Steuerungsebene mit der Bezeichnung „Kuma“ beherrscht fortschrittliches Traffic-Management und Observability für Microservices auch in komplexen hybriden Bereitstellungen.
Virtualisiert oder lieber doch „Rohkost“?
Knapp neun von zehn aller Befragten betreiben den Orchestrierer in einem virtualisierten Rechenzentrum. Diese Art der Bereitstellung sei am stärksten unter den Finanzdienstleistern verbreitet (89 Prozent).
Bare-Metal-Bereitstellungen in einem Rechenzentrum haben noch nicht dieselbe Verbreitung erreicht (31 Prozent) wie virtualisierte Rechenzentren (85 Prozent über alle Branchen hinweg). Ein Anstieg der Einführung von Kubernetes auf Bare Metal – statt auf einem Hypervisor wie VMware – sei jedoch bereits deutlich erkennbar: von 25 Prozent im Jahre 2023 auf aktuell 31 Prozent aller befragten Organisationen.
Die Analysten führen diesen Trend hauptsächlich auf zwei Einflussgrößen zurück: einerseits auf neue Anforderungen im Zusammenhang mit anspruchsvollen KI-Workloads wie LLMs, andererseits auf den Exodus von VMware-Kunden aus dem Broadcom-Ökosystem. (Siehe dazu den Bericht „Die Flucht zu VMware-Alternativen“).
Zwinkerndes Smiley
KubeCon-Geheimtipp:🤐 „Kubeflow“, die bevorzugte MLOps-Plattform für die Entwicklung und Bereitstellung von Modellen, deckt auch die Edge ab.
Eine von drei Organisationen (30 Prozent) untersuche Möglichkeiten der Migration von einer virtualisierten Infrastruktur auf Bare-Metal-Infrastrukturen, um von Einsparungen bei den Lizenzkosten zu profitieren.
Mehr als neun von zehn der befragten Organisationen betreiben Kubernetes-Cluster (auch) On-Premises; knapp vier von zehn (auch) an Edge-Standorten. Die beliebteste Art der Bereitstellung ist das virtualisierte Rechenzentrum, doch der Anteil von Bare-Metal-Rechenzentren wächst.
(Bild: Spectro Cloud)
Die „Cloud-inspirierte“ Modernisierung von Rechenzentren nimmt deutlich an Fahrt auf, berichten die Marktforscher. Angetrieben sei dieser Trend durch das Zusammenspiel steigender Cloud-Kosten und der wachsenden Nachfrage nach KI-Workloads, die spezielle Investitionen in Infrastrukturen vor Ort erforderlich machten, so die Analysten weiter.
Sieben von zehn (73 Prozent) der Anwender von Edge-Kubernetes (38 Prozent aller Teilnehmer der Umfrage) würden demnach KI-Workloads ausführen.
Wo der Durchblick fehlt
Zehn Jahre nach seiner Einführung sieht die Zukunft von Kubernetes vielversprechender denn je aus. Die Kubernetes-Gemeinde hat unter der Obhut der CNCF eine starke Eigendynamik entwickelt. Die Projektteilnehmer priorisieren aktuell Änderungen, die sowohl die Benutzererfahrung verbessern als auch die Bestandsfähigkeit des Projekts stärken.
Doch die Mehrheit der Nutzer von Kubernetes in Produktion macht sich Sorgen um die Überlebensfähigkeit ihrer Projekte und Ökosystemanbieter. 82 Prozent der leitenden Entscheidungsträger in der Spectro Cloud Studie vertreten die Meinung, dass dem Ökosystem Cloud-nativer Lösungen eine (offenbar dringend benötigte) Konsolidierung bevorsteht.
Viele Anwender haben den Durchblick verloren und wollen ihre Bereitstellung auf übersichtliche Dimensionen schrumpfen. Die Studie von Spectro Cloud hat in diesem Jahr einen starken Anstieg der Anzahl unterschiedlicher „Software-Elemente“ einer Kubernetes-Bereitstellung offenbart. Gemeint sind hierbei Cloud-native Integrationen zur Unterstützung der eigentlichen Kubernetes-Workloads.
Viele Kubernetes-Nutzer verzetteln sich offenbar: Je mehr Cluster eine Organisation betreibt, desto mehr unterschiedliche Software-Elemente kommen in der gesamten Kubernetes-Bereitstellung zum Einsatz.
(Bild: KubeCon)
Dynatrace bezeichnet diese Software-Elemente als „ergänzende Arbeitslasten“ (Englisch: “auxiliary workloads”). In diese Kategorie fallen Observability, Logging, CI/CD, Service Mesh, Sicherheits-Tools, Management-Agenten und andere.
Kubernetes-Nutzer verzetteln sich offenbar gerne. Das sei nicht verwunderlich, urteilen die Marktforscher: Je mehr Cluster eine Organisation betreibt, desto mehr unterschiedliche Software-Elemente kommen in der gesamten Kubernetes-Infrastruktur zum Einsatz. 38 Prozent der befragten Organisationen gaben an, dass sie mehr als 15 verschiedene Software-Elemente im Einsatz hätten. Das sind mehr als doppelt so viele wie noch im Vorjahr (16 Prozent). Das Phänomen nennt sich im Fachjargon 'tools sprawl'; es mindert die Produktivität und sabotiert Compliance-Bemühungen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die „Raubritter“ der Open-Source-Bewegung
Vielen Anbietern dienen Open-Source-Initiativen wie Kubernetes als ein Trichter für den Verkauf kommerzieller Angebote, von professioneller Beratung bis hin zum Support. Das vergangene Jahr brachte eine Verschiebung in dieser Dynamik.
Laut dem Bericht von Spectro Cloud haben 53 Prozent der Organisationen „restriktive Lizenzänderungen“ von Open-Source-Projekten erlebt, auf die sie angewiesen seien. Noch schlimmer: Einige Tools würden einfach von jetzt auf gleich verschwinden, weil sie ihren Anbietern kein Geld machen würden.
Die Anwender seien dann die Dummen, beschwerte sich ein DevOps-Engineer aus der Fertigungsindustrie bitter in der Umfrage. „Ich mache mir gar keine Sorgen um Kubernetes“, schrieb der CTO eines Energie-Unternehmens: „Ich sorge mich wegen VMware und einigen dieser anderen Anbieter da draußen… jene mit ihrer [Raubritter-Mentalität]“, fluchte er drauf los.
Des einen Leid, des anderen Freud: Fidelma Russo, VP und CTO bei HPE, sieht im VMware-Exodus eine Chance für die HPE-OEM-Variante des Hypervisors „KVM“. Auf der hauseigenen Veranstaltung „HPE Discover 2024“ in Las Vegas gab es dazu eine Preview.
Die VMware-Saga, dritter Akt
Die Möglichkeit, VM-Workloads neben Containern innerhalb von Kubernetes mithilfe von Cloud-nativen Mustern zu orchestrieren, ist mit Tools wie „KubeVirt“ gegeben. In den vergangenen Jahren hat KubeVirt tatsächlich an Verbreitung gewonnen.
Auf die Frage, warum ihre Organisationen mit Kubernetes gerade virtuelle Maschinen orchestrieren würden, nennen die Befragten der Spectro-Cloud-Studie in erster Linie operative Effizienzgewinne durch die Vereinheitlichung von VM- und Container-Management (48 Prozent). 43 Prozent geben an, die Einführung von Kubernetes sei Teil eines strategischen Bestrebens, die Abhängigkeit von VMware zu reduzieren; diese Zahl liegt im Falle von leitenden Technologieverantwortlichen sogar bei 51 Prozent.
Drei von vier Organisationen (74 Prozent) glauben, die fortlaufende Nutzung von Altlasten-VMs in ihrem Unternehmen habe die Einführung von Kubernetes (zur Containter-Orchestrierung) behindert. 72 Prozent führen dies auf die eigene Unternehmenskultur zurück. Schuld seien fehlende Anreize, Neues zu wagen.
Eine anschauliche KubeCon-Demonstration: Für viele Organisationen ist die Übernahme von Kubernetes ein Kraftakt.
(Bild: KubeCon)
VMware ist bisher „der bequeme Standard“ gewesen und sei „zu einem drängenden Problem geworden“, weswegen viele Organisationen Cloud-native Technologien wie Kubernetes in Erwägung ziehen. „Die Migration unserer Legacy-Anwendungen zu einer Kubernetes-Bereitstellung ist definitiv eines unserer Ziele“, so der Direktor für Cloud- und Anwendungssicherheit eines Einzelhandelsunternehmens in dem Bericht von Spectro Cloud. Es geht nur halt nicht auf Knopfdruck.
Ein VMware-Nutzer, CTO eines Energie-Unternehmens, bringt es wie folgt auf den Punkt: „Wir wissen, dass wir nicht sofort vollständig von der Virtualisierung wegkommen werden. Daher schauen wir uns alternative Möglichkeiten der Virtualisierung, Hypervisoren und dergleichen an, um uns [in der Zwischenzeit] über die Runden zu bringen“. Der Verantwortliche hält die Containerisierung 80 bis 90 Prozent der Anwendungen in seiner Organisation in drei bis vier Jahren für wahrscheinlich.
Zwinkerndes Smiley
KubeCon-Geheimtipp:🤐 „Konveyor“, eine Open-Source-Initiative unter der Schirmherrschaft der Cloud Native Computing Foundation (CNCF) will die Modernisierung von Altlasten-Anwendungen einfach, sicher und vorhersehbar gestalten. Konveyor verfügt über eine eigene Engine für statische Code-Analyse für Java, Go und Python. Unterstützung für C# und .NET ist noch in Arbeit, genauso wie die automatische Generierung von Kubernetes-Artefakten zur Vereinfachung der Migration von Legacy-Anwendungen. Konveyor will generative KI nutzen, um Modernisierungsaufgaben mit einem Code-Generierungsassistenten zu beschleunigen.
Angst vor einer Konsolidierung
Die überwältigende Mehrheit der Befragten – satte 78 Prozent – halten Kubernetes nach einem Jahrzehnt der Entwicklung für eine ausgereifte, produktionsreife Unternehmens-Technologie. Beinahe jeder zweite – 46 Prozent – stimmt dieser Aussage „stark“ zu. Sieben von zehn Befragten (genau 70 Prozent) halten ihre eigene Bereitstellung von Kubernetes für „sehr ausgereift“.
Man könnte meinen, dass eine ausgereiftere Technologie in einer ausgereiften Bereitstellung eine reibungslose Betriebserfahrung gewährleisten müsste. Dem ist es jedoch nicht so. Ganz im Gegenteil: Kubernetes-Nutzer berichten von vielen der gleichen Herausforderungen, mit denen sie sich schon in den vergangenen Jahren auseinandersetzen mussten. In der Tat spitzen sich einige dieser Herausforderungen sogar noch zu.
Jedes zweite Unternehmen (48 Prozent) hat Schwierigkeiten damit, den eigenen Stack aus dem breiten Ökosystem Cloud-nativer Lösungen zusammenzustellen, ein Zuwachs von 65 Prozent gegenüber dem Vorjahr. Nahezu genauso viele Kubernetes-Nutzer (45 Prozent) beklagen „schleichende Konfigurationsabweichung“ (Englisch.: configuration drift).
Zu viel Kostendruck: Die Kubernetes-Nutzergemeinde legt eine Vollbremsung ein.
(Bild: Spectro Cloud)
Auch dieses Problem hat sich zugespitzt: Ein Jahr zuvor hatten damit erst rund 33 Prozent der Befragten zu kämpfen. Konfigurationsabweichungen verursachen demnach Probleme mit der Compliance und Verfügbarkeit. Mit der zunehmenden Komplexität von Kubernetes-Umgebungen wird die Gewährleistung von Sicherheit und Compliance immer kritischer und schwieriger.
Geheimnis-Smiley
KubeCon-Geheimtipp:🤐 „Kyverno“ will die „einfachste Lösung zur Automatisierung der Kubernetes-Sicherheit mittels nativer Policy-as-Code“ sein. Das Projekt befolgt einen Cloud-nativen Ansatz für das Policy-Lifecycle-Management.
Mit zunehmender Anzahl von Elementen einer Bereitstellung in jedem Cluster und der wachsenden Anzahl von Clustern pro Organisation greifen herkömmliche imperative Managementansätze zu kurz. KI-gestützte Lösungen können Abhilfe schaffen.
Geheim-Smile
KubeCon-Geheimtipp:🤐 „K8sGPT“ für Kubernetes macht das Troubleshooting des Orchestrierers zum Kinderspiel.
Jeder vierte Anwender erwartet in den folgenden zwölf Monaten eine „Schrumpfkur“ der eigenen Kubernetes-Bereitstellung. Als Begründung nennen Unternehmen den Kostendruck (siehe: Abbildung). Nur jede zweite Anwenderorganisation stellt die Weichen auf Wachstum der eigenen Cluster.
Unternehmen planen eine ganze Reihe von Maßnahmen, um ihre Kubernetes-Ausgaben unter Kontrolle zu bekommen.
(Bild: Spectro Cloud)
Um die Ausgaben unter Kontrolle zu bekommen, ergreifen die Anwenderorganisationen eine ganze Reihe von Maßnahmen. Dazu zählen die Rückführung der Arbeitslasten aus der Public-Cloud ins Rechenzentrum, die Umstellung auf Bare-Metal, die Einführung von FinOps und KI-gestützte Optimierung des Betriebs.
Geheim-Smile
KubeCon-Geheimtipp:🤐 Ein Werkzeug mit der Bezeichnung Open Cost“ überwacht Kubernetes mit Blick auf die Cloud-Kosten [Anmerkung der Autoren: Wink mit dem Zaunpfahl: die Rückführung ins Rechenzentrum wäre eine passende Maßnahme].
*Das Fazit des Autorenduos
Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.
Ihr Fazit lautet: Im Kubernetes-Ökosystem bleibt nichts lange stehen. Die hohe Innovationskraft der Gemeinde und die breite Akzeptanz des Orchestrierers haben eine stark fragmentierte und komplexe Landschaft hervorgebracht. Die VMware-Expats tun sich damit schwer – und doch wollen sie schleunigst weg von Broadcom und runter von alten VMs (siehe auch den Bericht: „Die Lizenz zum Schröpfen? VMware zu neuen Konditionen“).
Im Mittelpunkt aktueller Diskussionen erfahrenen Anwenderorganisationen stehen die Optimierung des Stack im Hinblick auf die Anforderungen von KI/ML-Arbeitslasten und die Gefahren einer Konsolidierung des Kubernetes-Ökosystems. Die zunehmende Komplexität einer Kubernetes-Bereitstellung, der fehlende Durchblick und nicht zuletzt der persistente Kostendruck verleiten viele Organisationen zu dramatischen Maßnahmen wie dem Einsatz von KI für FinOps und der Rückführung von Arbeitslasten aus der Cloud zu Bereitstellungen On-Premises. Das neuartige Anforderungsprofil von GenAI-Workloads fördert gleichzeitig das Wachstum von Kubernetes auf Bare-Metal im Rechenzentrum und an der Edge.
Alles scheint sich gleichzeitig zu ändern – und doch ist das erst noch die Ruhe vor dem Sturm.