Am Steuer der Wertschöpfung Repatriation = aus allen Wolken gefallen!

Von Anna Kobylinska und Filipe Martins* 8 min Lesedauer

Anbieter zum Thema

Mit dem Aufkommen von KI-Agenten wagen immer mehr Unternehmen eine strategische Neuausrichtung ihrer IT/OT - die gehörig ins Geld geht. Viele holen nämlich ihre Cloud-Workloads aus den Wolken wieder auf den Boden der Realität: in das auf Hochglanz modernisierte eigene Rechenzentrum. Das rechnet (sich) für sie schneller als die Public Cloud.

FinOps und KI lassen ist vielen Unternehmen die Blasen von kostengünstigen Clloud-Infrastrukturen platzen. Übrig bleibt manchmal nur das Ergebnis von Schaumschlägerei. (Bild:  Midjourney / KI-generiert)
FinOps und KI lassen ist vielen Unternehmen die Blasen von kostengünstigen Clloud-Infrastrukturen platzen. Übrig bleibt manchmal nur das Ergebnis von Schaumschlägerei.
(Bild: Midjourney / KI-generiert)

Flexeras aktueller Report „State of the Cloud 2025“ zeichnet ein überraschendes Bild: Der KI-Boom treibt Unternehmen keineswegs tiefer in die Public Cloud. Stattdessen kehren Workloads reihenweise in die firmeneigenen Rechenzentren zurück.

Für Marktbeobachter wirkt diese Welle der Cloud-Repatriierung im Jahr 2025 wie ein kultureller Paukenschlag – eine Rückbesinnung auf On-Prem, die mancher – wie etwa Gartner - bis vor Kurzem für radikal ausgeschlossen hielt.

Gartner hatte seinerzeit das vermeintlich unmittelbare Ende klassischer On-Premise-Infrastrukturen ausgerufen. „Bis 2025 werden 80 Prozent der Unternehmen ihre traditionellen Rechenzentren geschlossen haben,“ hieß es auf dem Gartner Symposium/ITxpo im Jahre 2018. News-Flash: Wir sind nun mal im Jahr 2025 und weiter?

Die IT-Verantwortlichen in Unternehmen wollen sich von den Analysten nicht vorschreiben lassen, was sie denken sollen. Sie wollen es selbst herausfinden.

Das Aufkommen von Agentik

Ein wesentlicher Treiber der Cloud-Repatriation ist das Aufkommen von KI-Agentik und ihre Anforderungen an Latenz, die Kosten der „Tokenisierung“ von Arbeitslasten und das Bestreben nach Souveränität - sowohl in Bezug auf die Daten als auch auf das KI-Modell.

Agentische KI – also autonome, mehrstufig planende Large Language Models (LLMs) – bringt eine neue Kostendynamik mit sich. Denn jeder „Gedankenschritt“ eines KI-Agents zieht zusätzliche Modellaufrufe, Speicherzugriffe und Orchestrierungslogik nach sich. Genau hier setzt die jüngste Welle der Repatriation an.

Ein Praxisvergleich mit einem 70-Billionen-Parameter-Modell zeigt: Schon ab rund 200 Millionen Tokens pro Monat rechnet sich ein eigenes „Nvidia A100“-Cluster nach sechs bis sieben Monaten. Danach liegen die Betriebskosten um ein Vielfaches unter den Cloud-API-Fees.

Es rechnet sich

Datarobot warnt vor „verteilten, versteckten Kostentreibern“ in Multi-Agent-Architekturen: Orchestrierung, Speicherzugriffe und Latenz-Optimierung treiben die Cloud-Rechnung schnell durch die Decke.

Agentische Systeme brauchen persistentes Memory (Vektor-DBs, Langzeitkontext). Cloud-Object-Storage schlägt hier mit den höchsten Euro-pro-Gigabyte-Sätzen im ganzen Stack zu. Das dürfte einer der Hauptgründe sein, warum KI-Vorreiter wie Geico und 37signals Storage-lastige Workloads aus der Public Cloud zurückholen.

Der Architektur-Leitfaden von Minio empfiehlt explizit, „datenlokale Lakehouses in Colos oder im eigenen Rechenzentren aufzubauen, bevor Agentic-Workloads darüberlaufen“. Object-Storage vor Ort erleichtert Fine-Tuning ohne Cloud-Egress-Kosten – und hält sensible Daten unter eigener Kontrolle.

Co-Location oder Enterprise-Rechenzentrum

McKinsey schätzt, dass bis 2030 rund 70 Prozent der weltweiten Nachfrage nach Rechenzentren „AI-ready“ sein muss; schon heute sind Co-Location-Flächen für GPU-Cluster in den USA nahezu ausgebucht. Unternehmen, die kurzfristig Agenten skalieren wollen, bauen daher eigene High-Density-Pods oder mieten „GPU-Islands“ in Regional-Colos.

Branchenanalysten sehen eine klare Korrelation: Die Explosion von Agentic KI treibt die Repatriation an. Hyperframe Research fasst es so zusammen: „Hybrid-Strategien und Workload-Rückführung gewinnen an Fahrt, weil Unternehmen für agentische KI mehr Kontrolle und Kostenoptimierung brauchen.“

Arthur Lewis ist Präsident der Dell Infrastructure Solutions Group.(Bild:  Dell Technologies)
Arthur Lewis ist Präsident der Dell Infrastructure Solutions Group.
(Bild: Dell Technologies)

'Nur' das Rechenzentrum zu modernisieren, würde aber nicht ausreichen, glaubt Arthur Lewis, Präsident der Dell Infrastructure Solutions Group. Man müsse auch die internen Abläufe grundlegend erneuern. Denn alle Daten müssen zugänglich und auffindbar sein, damit sie analysiert, verarbeitet und schließlich sinnvoll genutzt werden könnten.

Die Wende

Genau hier entstehe ein Wendepunkt: Unternehmen würden den greifbaren Mehrwert erkennen, den KI-basierte Analysen bringen — etwa höhere Produktivität und bessere Geschäftsergebnisse. Das führe dazu, dass man sich nicht mehr einfach zurücklehnen könne. KI-Agentik greift tief in die Kernkompetenzen der Unternehmen und verschmilzt damit.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

So verwandelt sich das unternehmenseigene Rechenzentrum aus einem reinen Kostenfaktor in ein Wertschöpfungszentrum und damit in das Herzstück des intelligenten Unternehmens. Wenn man als Unternehmensführung an ein Kostenzentrum denkt, würde man überlegen, wie man dort weniger Geld verpuffen lässt (sprich: wie man Kosten minimiert), argumentiert Lewis. Wenn man an ein Wertschöpfungszentrum denke, beginne man zu überlegen, wie man darin mehr Geld investiert, wie man es erweitert und wie man zusätzliche Fähigkeiten aufbaut.

On-Premises avanciert zum Rennwagen der Unternehmens-IT; Führungskräfte wie David Heinemeier Hansson (rechts) von 37signals haben es vorgemacht.(Bild:  Evrone)
On-Premises avanciert zum Rennwagen der Unternehmens-IT; Führungskräfte wie David Heinemeier Hansson (rechts) von 37signals haben es vorgemacht.
(Bild: Evrone)

37signals (Basecamp, HEY) hat AWS vollständig verlassen und spart dadurch laut eigenen Angaben über 2 Millionen Dollar jährlich. Das sind mehr als 10 Millionen über fünf Jahre. David Heinemeier Hansson (DHH), der Gründer von 37signals (Basecamp, Hey), entfachte mit der „De-Cloud“-Reise eine hitzige Debatte über Cloud-Ökonomie und Infrastrukturstrategien. Die innovative Softwareschmiede hat ihren Firmensitz in Chicago, Illinois, USA.

Parallel dazu holt Geico, einer der größten Kfz-Versicherer der USA, große Teile seiner Workloads aus der Public Cloud zurück und stellt seine IT-Architektur grundlegend neu auf. Rebecca Weekly, Vice President Platform & Infrastructure Engineering, zieht ein ernüchterndes Fazit: „Zehn Jahre nach Beginn unserer Cloud-Reise hatten wir immer noch nicht alles migriert, unsere Rechnungen lagen beim 2,5-Fachen – und die Zuverlässigkeit sank.“

Ein strategischer Rückzug in die eigenen vier Wände

Die Erfahrungen von Geico und 37signals zeigen deutlich, welche Hebel eine Cloud-Rückmigration in Bewegung setzen. „Storage in der Cloud ist eine der teuersten Disziplinen, direkt gefolgt von KI-Workloads in der Cloud,“ kommentiert, leicht verbittert, Rebecca Weekly, VP Platform & Infrastructure Engineering bei Geico.

Abschiedsessen von der Cloud? Na, fast! Feier der Vorstandsrotation der Open Compute Project (OCP) Foundation im Jahre 2024 – So reiht man sich zwischen den Hyperscalern ein (v.l.)  George Tchaparian (CEO, OCP Foundation), Rebecca Weekly (Geico), Amber Huffman (Google Cloud), Andy Bechtolsheim (Arista Networks), Partha Ranganathan (Google), Zaid Kahn (Neuron Factory, Microsoft) und David Ramku (Meta).(Bild:  Rebecca Weekly via LinkedIn)
Abschiedsessen von der Cloud? Na, fast! Feier der Vorstandsrotation der Open Compute Project (OCP) Foundation im Jahre 2024 – So reiht man sich zwischen den Hyperscalern ein (v.l.) George Tchaparian (CEO, OCP Foundation), Rebecca Weekly (Geico), Amber Huffman (Google Cloud), Andy Bechtolsheim (Arista Networks), Partha Ranganathan (Google), Zaid Kahn (Neuron Factory, Microsoft) und David Ramku (Meta).
(Bild: Rebecca Weekly via LinkedIn)

Für 37signals wurden die stetig steigenden Public-Cloud-Rechnungen immer schwerer zu rechtfertigen: Die Gesamtwirtschaftlichkeit eigener Hardware schlug die Hyperscaler-Tarife deutlich.

Weekly legt nach: „Das bloße Ausführen von Legacy-Anwendungen in der Cloud ist schon prohibitiv teuer.“

Damit führt sie das Kernproblem vieler Lift-and-Shift-Projekte vor Augen: Die erhofften Einsparungen bleiben aus, weil sich Altanwendungen mit dem hyperskalaren Betriebsmodell der Public-Cloud nicht gut vertragen. Genau hier fand 37signals heraus, dass bestimmte Workloads auf eigener Infrastruktur schneller und kosteneffizienter laufen.

Offenbar ein Freund rasanter Entscheidungen: David Heinemeier Hansson (Mitte) ist Partner und CTO bei 37signals (vormals Basecamp) und betätigt sich aktiv als Rennwagenfahrer.(Bild:  Evrone)
Offenbar ein Freund rasanter Entscheidungen: David Heinemeier Hansson (Mitte) ist Partner und CTO bei 37signals (vormals Basecamp) und betätigt sich aktiv als Rennwagenfahrer.
(Bild: Evrone)

Es geht bei Weitem nicht nur um Altlasten. Der Trend von Repatriation bedeutet nicht einen Rückfall in alte Muster, sondern ist Ausdruck einer strategischen Rebalancierung. Denn nicht nur Legacy auch Echtzeit- oder IO-intensive Anwendungen laufen lokal oft wesentlich besser als in den Wolken.

Zudem hat das Aufkommen von leistungsstarken FinOps-Tools hat dank besseren Kostenanalysen überraschende Ineffizienzen der Public-Cloud aufgedeckt und die Vorteile von On-Prem offensichtlich werden lassen.

Cloud-Preisschock

Laut Adam Centorrino, CEO von Centorrino Technologies, eines IT-Dienstleisters für digitale Transformation aus dem autralischen Melbourne, machen sich rund 30 Prozent der Cloud-Nutzer ernsthaft Sorgen um die Gesamtkosten ihres Fußabdrucks bei den Hyperscalern. Etwa 60 bis 70 Prozent dieser Organisationen nehmen erst einmal einen Anlauf auf eine Optimierung ihrer bestehenden Cloud-Landschaften. Doch die übrigen 30 bis 40 Prozent würden bereits „laut darüber nachdenken, Workloads zurückzuholen“ — also zu repatriieren — oder alternative, effizientere Wege zu finden, die auch ganz ohne Cloud auskommen könnten, erläutert er.

Vielen Entscheider/innen in Unternehmen hätten die Preiserhöhungen der Hyperscaler zu denken gegeben. Viele MSPs wie Centorrino Technologies lassen die Verteuerungen dumm aus der Wäsche gucken.

Adam Centorrino berichtet von einem Großkunden, der zuerst in die Cloud gewechselt sei; zwei Jahre später wollte dieser jedoch zurück ins eigene Rechenzentrum. „Wir haben die Workloads dann wieder on-premises migriert“, erinnert sich Centorrino. Dadurch haben wir aber auch den Vertrag für das Cloud-Management und die zugehörigen Lizenzen verloren“, räumt er ein.

Bittere Erkenntnisse

Solche Rückschritte bringen finanzielle Herausforderungen, aber auch einen Verlust des Vertrauens und emotionale Herausforderungen mit sich. Gerade in Sachen Reputation stehe man schnell am Pranger, so Centorrino: „Der Kunde wirft einem dann vor, schlechte Beratung geliefert zu haben, so nach dem Motto: ‚Ihr habt uns doch die Cloud empfohlen, jetzt ist sie unzuverlässig und teuer, [Ihr seid schuld].‘

Das Problem bestehe aus Sicht des MSPs darin, dass man als Partner dem Cloud-Anbieter vertraue, dessen Lösung kennen und empfehlen würde, aber keine Kontrolle über die Preise hätte. Würden dann die Preise plötzlich steigen, was ja inzwischen passiert ist, wirke es am Ende so, als habe man aus Eigennützigkeit gehandelt [und den Kunden über den Tisch gezogen].

Viele Unternehmen nehmen ihre Erfahrungen aus der Public Cloud bei der Repatriierung in ihr eigenes Rechenzentrum mit und versuchen, sie in einer Private Cloud zu replizieren, um die volle Kontrolle über ihre Daten mit eigener Innovationskraft zu verbinden — während man von den Hyperscalern abkupfert. Das dürfte einer der Gründe sein, warum nur wenige Unternehmen der Cloud gänzlich den Rücken kehren möchten.

Laut einer IDC-Umfrage von Oktober 2024 planen nur etwa acht Prozent der Organisationen, sämtliche Workloads aus der Cloud abzuziehen. Die Mehrheit repatriiert gezielt kritische Bestandteile wie Produktionsdaten, Backups oder Compute-Ressourcen. Dann heißt es: „Schau'n wir 'mal.“

Ein klarer Trend

Im Jahr 2025 bleibt Cloud-Repatriation klar aufwärtsgerichtet: 83 Prozent der CIOs gaben Ende 2024 in der Barclays CIO Survey an, künftig Teile ihrer Public-Cloud-Workloads in Private-Cloud- oder On-Prem-Umgebungen zurückzuholen – der höchste Wert seit Beginn der Erhebung.

X-Post von Michael Dell, Chef von Dell Technologies (Bild:  X)
X-Post von Michael Dell, Chef von Dell Technologies
(Bild: X)

Ein Jahr später fällt der Wert laut einer Puppet-Analyse noch etwas höher aus: Demnach würden 86 Prozent der CIOs im Jahre 2025 planen, zumindest Teile ihrer Workloads zurück in Private Clouds oder On-Premises zu verlagern. Als Gründe nennen sie Kosten, Datenschutzbedenken, Compliance-Vorgaben und Performance-Anforderungen. Typische Kandidaten für das Zurückholen seien Produktionsdaten, Backups und rechenintensive Workloads, also etwa KI.

„85 Prozent oder mehr der weltweiten IT-Ausgaben entfallen auf On-Premises-Infrastrukturen“, wunderte sich vor gerade einmal einem Jahr Andy Jassy, CEO bei Amazon. Gartner spricht inzwischen ganz vorsichtig über die Notwendigkeit hybrider Modelle und die Rolle von On-Premises in einer ausgewogenen Infrastrukturstrategie.

Nach und nach holen immer mehr Unternehmen ihre wertschöpfenden Workloads aus der Cloud zurück auf den Boden der Realität. Aus der Public Cloud werden vorrangig Workloads repatriiert, die sich dort als kostenintensiv, leistungslimitiert oder betrieblich zu komplex erwiesen haben – ebenso wie unternehmenskritische Systeme mit hoher strategischer Relevanz, die oft als proprietäre Kernkomponenten der Wertschöpfung gelten, allen voran die Agentik.

Vom Kosten- zum Wachstumstreiber

Agentische KI verschiebt den ökonomischen Sweet Spot vieler unternehmenskritischer Workloads. Hohe, kontinuierliche Token-Last im Zusammenspiel mit teurer Cloud-Storage und der anhaltenden GPU-Knappheit hat zur Folge, dass sich On-Prem oder Colocation schneller rechnen als gedacht.Gleichzeitig bleibt die Public Cloud attraktiv für Burst-Training, globale Bereitstellung und Experimentier­projekte.

Das Ergebnis ist kein Cloud-Massenexodus, sondern ein feingranulares „Right-Workload-in-Right-Place“-Modell. Agentische KI fungiert dabei als Katalysator, der CFOs und CTOs zwingt, jede Ressource neu durch die FinOps- und Compliance-Brille zu bewerten – und exakt dort zu betreiben, wo es am Meisten Sinn macht. Die Zukunft liegt eindeutig in hybriden Architekturen, die Flexibilität, Kontrolle und Effizienz miteinander in Einklang bringen. Dies geschieht erstmals vor dem Hintergrund einer neuen Zielsetzung: der datengetriebenen Wertschöpfung. Das Rechenzentrum verwandelt sich vom Kostenpunkt zum Wachstumstreiber.

Das Autorenduo*

Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.

Ihr Fazit lautet:

On-Premises avanciert zum Rennwagen der Unternehmens-IT: feingetunte Spitzentechnik, präzise Steuerung und unschlagbare Latenz vereinen Höchstleistung mit kompromissloser Sicherheit – verpackt in ein lückenloses Compliance-Paket. Hier sitzen die IT-Verantwortlichen selbst am Steuer der Wertschöpfung.

(ID:50478184)