Nahezu jedes Unternehmen nutzt eine Form von Cloud-Native-Techniken und eine Mehrheit nutzt Container in der Produktion. KI-Inferenz betreiben 82 Prozent der Container-Nutzer auf Kubernetes, so eine CNCF-Erhebung. Selbst Skeptiker berufen sich nicht mehr auf technische Hürden. Popularität bedeutet zugleich eine immer kritischere Belastung für Open-Source-Infrastrukturen.
CNCF: Unternehmen nutzen Kubernetes und weitere Cloud-Native-Ansätze zunehmend für ihre KI-Workloads, ohne die Open-Source-Infrastruktur angemessen gestärkt zu haben.
(Bild: GPT-Image / KI-generiert)
Cloud Native ist Standard und kein Innovationsmerkmal mehr. Zwei Drittel der Unternehmen nutzen Kubernetes für mindestens einen Teil ihrer generativen KI-Workloads, während 98 Prozent zumindest in irgendeiner Form Cloud-Native-Techniken einsetzen.
Insgesamt 628 Vertreter von Unternehmen verschiedener Größen aus diversen Branchen und Weltregionen wurden für den „Annual Cloud Native Survey: The infrastructure of AI’s future“ der Cloud Native Computing Foundation (CNCF) befragt. 56 Prozent der Befragten nutzten Container in Produktionsumgebungen, ein Viertel setzt gar bei nahezu allen Entwicklungs- und Bereitstellungsaufgaben auf Cloud Native – fünf Prozent mehr als 2023.
Der Bericht zeigt laut den Autoren Adrienn Lawson und Jeffrey Sica, dass Kubernetes sich damit zum Standard-Orchestrierungs-Tool nicht bloß für Container, sondern speziell für KI-Workloads entwickelt hat. Grundlage seien die steigende Reife von Projekten wie „Kubeflow“ für Machine-Learning-Workflows (ML) und „Kserve“ für die Modellbereitstellung; hinzu kämen neue Cloud-Native-Möglichkeiten für die effiziente Steuerung von Ressourcen und insbesondere einzelner GPUs.
Kubernetes hat sich zum KI-Orchestrator entwickelt
Die Zahl der Unternehmen, die fast ihre gesamten Workloads Cloud Native betreiben, hat sich in den letzten zwei Jahren von 20 Prozent auf 25 Prozent erhöht. Nur 2 Prozent nutzen gar keine Cloud-Native-Techniken.
(Bild: A. Lawson/J. Sica, CNCF Annual Cloud Native Survey, Januar 2026, Lizenz: CC BY-ND 4.0)
Während 23 Prozent der Befragten Kubernetes für sämtliche Inferenz-Workloads nutzen und so in CNCF-Augen „eine echte MLOps-Reife“ (Machine Learning Operations) erreicht hätten, betonen auch die Studienautoren, dass der Weg dorthin nicht leicht sei. Zu bewältigen seien Beschränkungen proprietärer ML-Plattformen, anzupasssende Betriebsabläufe und Weiterbildungen der Mitarbeiter, aber auch eine Reihe technischer Herausforderungen.
Dazu gehören laut Lawson und Sica „die Verwaltung großer Modellartefakte über Container-Registries oder Object Storage“, die Verteilung von Modellen auf Knoten mit passenden GPU-Ressourcen, „die Entwicklung verschiedener Muster für Trainingspipelines respektive latenzarme Serving-Szenarien sowie die Implementierung von speziellen Canary-Deployments und Rollback-Strategien für ML-Modelle“.
Cloud-Native-Skeptiker können sich nicht mehr auf technische Hürden berufen
Kulturelle Herausforderungen bei dem Entwicklerteam haben im Vergleich zu 2023 Sicherheitsbedenken als wichtigste Hindernisse bei der Einführung und Nutzung von Containern in Unternehmen abgelöst.
(Bild: A. Lawson/J. Sica, CNCF Annual Cloud Native Survey, Januar 2026, Lizenz: CC BY-ND 4.0)
Trotz der Fülle technischer Anforderungen sei Kubernetes-Adoption kein technisches Problem mehr für die meisten Unternehmen. Selbst die Minderheit der Skeptiker werde nicht mehr von technischen, sondern von kulturellen Hindernissen zurückgehalten. 47 Prozent der Befragten führten die Notwendigkeit „kultureller Anpassungen im Entwickler-Team“ unter ihren zehn größten Herausforderungen für den Containerisierungs-Einsatz an, gefolgt von mangelnden Fortbildungen (36 Prozent). 2023 belegten noch technische Bedenken über Sicherheit und Komplexität die ersten Ränge.
Die Charakterisierung „Kubernetes ist langweilig“ verstehen die CNCF-Autoren so als „höchsten Form des Lobs“ für Verlässlichkeit und Vorhersehbarkeit. Auch andere CNCF-Projekte können mit zunehmend hohen Adoptionsraten in Produktionsumgebungen glänzen, darunter das Paket- und Release-Management-Tool „Helm„ (81 Prozent), die verteilte Schlüssel-Wert-Datenbank „Etcd“ (81 Prozent), das Monitoring- und Alerting-System „Prometheus“ (77 Prozent), der DNS-Server für servicebasierte Namensauflösung „CoreDNS“ (76 Prozent) sowie die Container-Runtime „Containerd“ (74 Prozent).
Dem plattformunabhängigen Ausführungsstandard „Web Assembly“ (Wasm) hingegen stehe ein vergleichbarer Durchbruch noch bevor. Fast zwei Drittel der Befragten hätten ihn nicht erst erprobt. Lawson und Sica zeigen sich dennoch von den Performance-, Sicherheits- und Portabilitätsvorteilen überzeugt: Wasm könne „für viele Workloads Container ersetzen“.
Die meisten Unternehmen sind KI-Verbraucher und an Inferenz-Optimierung interessiert
Der jährliche CNCF-Bericht zelebriert nicht nur Kubernetes als KI-Zuhause, sondern versteht sich auch als eine gute Dosis Realismus: die meisten KI-nutzenden Unternehmen sind Verbraucher, nicht KI-Entwickler und auch keine Anpasser. Weder die Entwicklung noch das Training von KI ist für 52 Prozent der befragten Nutzer generativer Modelle ein Thema.
Entsprechend nehmen 63 Prozent der Befragten neue Modelle einige Male im Jahr oder seltener in Betrieb. Der Anteil der Unternehmen, die täglich (etwa durch Anpassung mit neuen Daten) Modelle neu bereitstellen, ist mit 7 Prozent gering. Aus CNCF-Sicht werde die Prävalenz von KI-Verbrauchern erst einmal nicht verschwinden, sondern ist vielmehr ein Argument, Anforderungen an die Inferenz fertiger Modelle in den Vordergrund zu rücken.
Optimierungsmöglichkeiten böten vor allem Techniken wie die Modellverkleinerung (Quantization), der Einsatz der schnellen „ONNX“ Runtime, das Batching von mehreren, sich überschneidenden Inferenz-Anfragen, eine dynamische Hoch- und Runterskalierung von Instanzen, aber auch eine ressourcenschonende CPU-basierte Inferenz.
37 Prozent der befragten Unternehmen nutzen generative KI-Modelle für Inferenz über API-Dienste, 27 Prozent hosten Modelle selbständig in der Public Cloud, 25 Prozent betreiben diese On-Premises und 13 Prozent in Edge-Umgebungen.
(Bild: A. Lawson/J. Sica, CNCF Annual Cloud Native Survey, Januar 2026, Lizenz: CC BY-ND 4.0)
Dies gelte insbesondere für die 25 Prozent der Unternehmen, die Modelle On-Premises betreiben, aber auch die 27 Prozent, die auf Public-Cloud-Ressourcen zurückgreifen. Für den steigenden Anteil der Unternehmen, die aus Latenz-Überlegungen Modelle dezentralisiert am Edge betreiben, gälten nochmal speziellere Anforderungen. Zugleich nutzen 37 Prozent der Unternehmen schlicht KI-Dienste über Endpunkt-APIs.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Laut den CNCF-Autoren reflektiere dieser Einsatz eine Priorisierung von Bereitstellungszeiten über Kontrolle; bei Inferenzvolumen über einer Million Anfragen monatlich sei aber ein Self-Hosting regulär kosteneffenzienter. Auch die API-Nutzer würden gleichwohl von Kubernetes-basierten Orchestrierungsschichten bei der Nutzung mehrerer Provider profitieren.
Kritische Belastung offener Infrastruktur durch KI
Insgesamt sei eine reifere und skalierbare Infrastruktur für die KI-Reife von Unternehmen entscheidender als die Modellauswahl. KI und ML böten eine „Infrastruktur-Herausforderung erster Klasse“. Auch Jonathan Bryce, Executive Director der Linux Foundation für Cloud and Infrastructure, positioniert so KI zum einen als „nächste große Cloud-Native-Workload“. Eine dringende Aufgabe für Entwickler und insbesondere für die Cloud-Native-Gemeinschaft sei es zum anderen, „die Komplexität bei der Bereitstellung von KI-Workloads drastisch zu reduzieren und zugleich die verfügbaren Inferenz-Kapazitäten quer durch die Branche massiv zu erhöhen“.
Dahinter stehe ein akutes Risiko nicht nur für das Cloud-Native, sondern auch das ganze Open-Source-Ökosystem. Die CNCF-Autoren verweisen auf einen im September 2025 veröffentlichten offenen Brief diverser Träger von Open-Source-Projekten mit der deutlichen Botschaft: „Offene Infrastruktur ist nicht kostenfrei“. Ihnen zufolge trage die maschinelle, oft verschwenderische automatisierte Nutzung“ von Open-Source-Infrastrukturen durch KI-Systeme entscheidend zu ihrer Fragilität bei. Kommerzielle Workloads, zumal beim KI-Einsatz, würden „regulär ohne Caching, Drosselung oder auch nur ein Bewusstsein für die verursachte Belastung betrieben werden“, so die Unterzeichner.
Auch aus CNCF-Sicht habe sich „die Tragfähigkeit der Open-Source-Infrastruktur zu einer existenziellen Sorge entwickelt“, da zunehmend „kritische Systeme“ überlastet würden, „welche Software zu entwickeln, zu testen, bereitzustellen und zu verteilen helfen“. Die Stiftung appelliert so an die Nutzer ihres Ökosystems, vorhandene Möglichkeiten für eine nachhaltige und Ressourcenschonenden Nutzung bewusst einzusetzen: „Der Zukunftsweg für KI erfordert einen infrastrukturfokussierten Ansatz. Das bedeutet, Caching-Strategien zu implementieren, Ressourcenkontingente zu nutzen, den Ressourcenverbrauch zu überwachen und zu den Open-Source-Projekten beizutragen, die KI-Workloads überhaupt erst ermöglichen“.