„Rettungsanker für die deutsche Industrie“ und der „Staat als Ankerkunde“ Telekom-KI-Fabrik: ein Vorzeigeprojekt mit Warnfunktion

Von Daniel Schrader 8 min Lesedauer

Anbieter zum Thema

Die Telekom eröffnet ein 12-Megawatt KI-Rechenzentrum in München mit 10.000 Nvidia-GPUs als Basis eines „Deutschland-Stacks“ für die Industrie. Die KI-Fabrik zeichne, so die Telekom-Verantwortlichen, den Weg zu einer vierten industriellen Revolution und einer europäischen KI-Infrastruktur vor… mit klaren Forderungen an die Politik.

Andreas Falkner, Telekom-Verantwortlicher für das KI-Rechenzentrum in München, öffnet die Blende eines Nvidia-GPU-Servers.  (Bild:  Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
Andreas Falkner, Telekom-Verantwortlicher für das KI-Rechenzentrum in München, öffnet die Blende eines Nvidia-GPU-Servers.
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)

Jensen Huang kam nicht zur Eröffnung der ersten deutschen KI-Großfabrik, und doch ist der Nvidia-CEO im vollgepackten Konferenzsaal der Deutschen Telekom in München unübersehbar präsent: Telekom-Chef Tim Höttges und T-Systems-CEO Ferri Abolhassan treten in lässigen Arbeitsjacken auf, der Telekom-VP Peter Lorenz, der Verantwortliche für die KI-Fabrik Andreas Falkner und SAP-CEO Christian Klein glänzen tatsächlich mit schwarzem Leder.

Eine abgestimmte Botschaft? „Dein Style heute ist perfekt“, komplimentiert Höttges den SAP-Chef leicht schmunzelnd.

T-Systems CEO Ferri Abolhassan, SAP-Vorstandsmitglied Thomas Saueressig, SAP-CEO Christian Klein und Telekom-CEO Tim Höttges (v.l.n.r.) im Gespräch bei der offiziellen Einweihung des KI-Rechenzentrums von Telekom am 4.2.2026.(Bild:  Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
T-Systems CEO Ferri Abolhassan, SAP-Vorstandsmitglied Thomas Saueressig, SAP-CEO Christian Klein und Telekom-CEO Tim Höttges (v.l.n.r.) im Gespräch bei der offiziellen Einweihung des KI-Rechenzentrums von Telekom am 4.2.2026.
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)

Die symbolische Intention scheint klar: eine Macher-Mentalität zu demonstrieren, aber auch einen Stolz, binnen sechs Monaten 10.000 der heiß gefragten „Nvidia Blackwell“-GPUs nach Deutschland gebracht und in einem modernisierten Untergrund-Rechenzentrum mitten in München installiert zu haben. Soll Nvidia als wertmäßig größter US-Konzern die Basis des gleichzeitig angekündigten „Deutschland-Stacks“ für KI bilden?

Auch hier ist Tim Höttges deutlich: „Nvidia will und braucht den Standort Europa“ und habe hier „ein klares Commitment gezeigt“. Zugleich bleibe der US-Konzern das einzige nicht-europäische Unternehmen zwischen 35 Projektpartnern. Damit habe die Telekom „100 Prozent Datensouveränität“ und „100 Prozent Betriebssouveränität“ am Standort München erreicht.

Untergrundfläche, Bachwasserkühlung und Abwärmenutzung für 0,5 ExaFlops GPU-Leistung

Dass das KI-Rechenzentrum binnen sechs Monaten mitten in München im 'Eisbachvirtel'/'Tucherpark'. gleich an der Grenze zum Englischen Garten, entstehen konnte, ist nicht nur einem überraschend schnellen Planungsverfahren geschuldet, sondern auch einer idealen Ausgangslage. Für das Projekt konnten Räume des ehemaligen Hypovereinsbank-Rechenzentrums auf sechs Untergeschossen im Münchener Büroquartier Tucherpark für den KI-Einsatz modernisiert werden.

Der Beitrag von Elke Witmer-Goßner bietet ergänzende Einblicke in Statements aus Industrie und Politik, vorgestellte Anwendungsfälle sowie die Telekom-Pläne für die „Industrial AI Cloud“ und die „T Cloud Public“:

Entwickler und Infrastruktur-Betreiber für die Telekom ist Polarise. Das 2024 gegründete deutsche Unternehmen will europaweit KI-Rechenzentren auf Grundlage modularer „AI Pods“ errichten. Die Macquarie Group kündigte dafür im Januar 2026 Investitionen von 117 Millionen Euro an.

Ein Polarise-Rechenzentrum am Flughafen Oslo mit 16 Megawatt und ausgestattet mit „Nvidia GB200 NVL72-Racks“ ist bereits in Betrieb, nun kommt die KI-Fabrik in München hinzu. Weitere KI-Datacenter in Bayern, NRW und Hessen seien laut Polarise „in Planung oder bereits im Bau“.

Ein „AI Pod“ von Polarise im KI-Rechenzentrum der Telekom in München(Bild:  Deutsche Telekom AG / Cindy Albrecht)
Ein „AI Pod“ von Polarise im KI-Rechenzentrum der Telekom in München
(Bild: Deutsche Telekom AG / Cindy Albrecht)

In München kommt ebenfalls die aktuelle Generation von „Nvidia Blackwell“-Chips zum Einsatz, allerdings mit einer geringeren Dichte als in Oslo. Die Münchener KI-Fabrik beherbergt momentan 2040 leistungsstarke „B200“-Chips mit Fokus auf Training-Workloads in „DGX“-Systemen mit je 8 GPUs pro Server sowie 6144 der eher Inferenz-fokussierten „RTX Pro 6000“-Systeme.

Zusammen liefern die GPUs 0,5 ExaFlops Rechenleistung. Der Telekom zufolge werde damit die in Deutschland insgesamt zur Verfügung stehende KI-Rechenkraft um 50 Prozent erhöht. Die gesamte IT-Leistung des Rechenzentrums beträgt aktuell 12 Megawatt, ein Ausbau auf 20 Megawatt sei bei guter Nachfrage noch bis Jahresende 2026 möglich. Auch eine Verdreifachung der Rechenleistung sei in München technisch realisierbar.

Hybridkühlung: Einschiebbare Lüfter an der Vorderseite der GPU-Server...(Bild:  Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
Hybridkühlung: Einschiebbare Lüfter an der Vorderseite der GPU-Server...
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)

Zur hybriden Kühlung der Pods wird das Wasser aus dem anliegenden Eisbach genutzt. Für die Umsetzung des Kühlkonzepts sorgte BM Green Cooling. Der Eisbach friert auch im bayerischen Winter nicht ein, bleibt im Sommer relativ kühl und bringt 6 Megawatt Kühlungsleistung, wobei die Wasserversorgung des Rechenzentrums dennoch redundant ausgelegt sein soll.

Die GPU-Server werden dabei an der Vorderseite durch einschiebbare Lüfter gekühlt, während in den Wärmetauschern das Eisbach-Wasser zum Einsatz kommt. Die Kühlungshardware stellte Vertiv. Ob der Hersteller als weiteres US-Unternehmen neben Nvidia zum „Deutschland-Stack“ gehört, wurde nicht bekannt gegeben. Auch Siemens und Schneider Electric waren Infrastruktur-Partner.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die Münchener KI-Fabrik von Telekom in Zahlen.(Bild:  Deutsche Telekom AG)
Die Münchener KI-Fabrik von Telekom in Zahlen.
(Bild: Deutsche Telekom AG)

Mit der Abwärme soll das Rechenzentrum das umliegende Büro-Areal im Tucherpark beheizen. Das Wärmenetz wird allerdings erst künftig in Betrieb genommen.

Bereits heute erreicht das Rechenzentrum laut Telekom-Angaben einen PUE-Wert (Power Usage Effectivness) unter 1,2. Mit weiteren Effizienzsteigerungen sei ein Wert von 1,09 möglich, den die Telekom anstreben werde. Der gesamte Bedarf des Rechenzentrums werde mit erneuerbaren Energien abgedeckt.

Ein Cloud-Stack für industrielle KI

Mit dem Rechenzentrum bietet Telekom einen mit Partnern aufgebauten Software-Stack als Teil der „Telekom Industrial AI Cloud“ an. Eine klare Zielgruppe sind somit industrielle Unternehmen.

Bei „767 Milliarden Wertschöpfung in der Industrie“ sieht so der Telekom-CEO Höttges in spezialisierten KI-Anwendungen den „Rettungsanker für die deutsche Industrie“. Deutschland könne zur Avantgarde einer vierten Industriellen Revolution avancieren, indem „wir die Maschinen und Daten ineinander vernetzen und dadurch einen enormen Produktivitätssprung schaffen“.

„Es gibt genügend Large-Language-Modelle“, betont auch Abolhassan. Mit der KI-Infrastruktur, wie sie in München entstehe, könnten deutschen Unternehmen hingegen erfolgreich spezialisierte „Foundation Model[s] trainieren“ und „diese Fabrik mit dem füttern, was wir in Deutschland und Europa machen, nämlich fertigen.“

Eine besonders wichtige Zielgruppe seien dabei kleine und mittelständische Unternehmen, die nicht von günstigen Konditionen der Hyperscaler für Großkunden profitieren können. Das Preismodell der Telekom sei „so aufgebaut, dass es keine Benachteiligung für den Mittelstand gibt. Du brauchst keine Skalierung mitzubringen, um bei uns zu trainieren“, versprach Höttges.

Historischer Moment in München: Umrahmt von T-Systems CEO Ferri Abolhassan (3.v.l.) und Telekom-Chef Tim Höttges (3.v.r.) nehmen Dieter Reiter (OB München), Markus Söder (Ministerpräsident Bayern) und Lars Klingbeil (Bundesfinanzminister) Deutschlands erste KI-Fabrik ans Netz. (Bild:  Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
Historischer Moment in München: Umrahmt von T-Systems CEO Ferri Abolhassan (3.v.l.) und Telekom-Chef Tim Höttges (3.v.r.) nehmen Dieter Reiter (OB München), Markus Söder (Ministerpräsident Bayern) und Lars Klingbeil (Bundesfinanzminister) Deutschlands erste KI-Fabrik ans Netz.
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)

Bei deutlich unterschiedlichen Blicken auf Deutschlands Stand im digitalen Wettbewerb stimmen bei dem Potenzial industrieller KI-Anwendungen auch die eingeladenen Spitzenpolitiker Markus Söder (CSU) und Lars Klingbeil (SPD) überein. Der bayerische Ministerpräsident und der Bundesfinanzminister wie auch Münchens Bürgermeister Dieter Reiter (SPD) betonen es zudem als beispielhaft, dass das KI-Rechenzentrum ohne öffentliche Förderung entstanden sei (die Telekom investierte 1 Milliarde Euro, hinzu kamen nicht näher ausgeführte Partnerinvestitionen).

3D-Simulationen von Fabriken und Produkten mit Siemens- und Nvidia-Software

Simulationen, digitale Zwillinge, vorausschauende Wartung sowie die Entwicklung und Anwendung spezialisierter industrieller KI-Modelle sollen somit die Schwerpunkte des Angebots bilden. Telekom ist neben der technischen Infrastruktur auch für die Cloud-Technik verantwortlich.

SAP liefert mit der „Business Technology Platform“ eine Grundlage für Training- und Inferenzaufgaben im Zusammenspiel mit Nvidia-Software. Zudem böte die Plattform, so SAP-CEO Klein, umfangreiche Funktionen bei der Orchestrierung von KI-Agenten und Digitalisierung.

Entscheidend für 3D-Simulationen und digitale Zwillinge sollen neben „Omniverse“ von Nvidia auch Software-Beiträge von Siemens sein. Ab dem 2. Quartal 2026 sollen so Kunden der Industrial AI Cloud auf Grundlage der Rechenkapazitäten in München Simulation-as-a-Service-Dienste und ab dem 3. Quartal 2026 „Siemens Digital Twin Composer“ nutzen können.

Ein Co-Location-Modell für KI-Training?

Das Rechenzentrum ging zur offiziellen Eröffnung am 4. Februar 2026 bereits in Betrieb für Kunden der Industrial AI Cloud. 30 Prozent der Datacenter-Kapazitäten werden laut Telekom-Angaben bereits von Kundenunternehmen für ihre KI-Anwendungsfälle genutzt, darunter Catena-X, Volkswagen und Yamaha.

Zudem soll ab März 2026 das Training des Open-Source-Sprachmodells „Soofi“ beginnen. Das Modell wird von mehreren deutschen Forschungseinrichtungen entwickelt und soll bei annähernd 100 Milliarden Parametern 130 dedizierte „DGX B200“-Server mit über 1.000 GPUs in München beanspruchen.

Eröffnung des KI-Rechenzentrums der Deutschen Telekom in München am 4.2.2026.(Bild:  Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
Eröffnung des KI-Rechenzentrums der Deutschen Telekom in München am 4.2.2026.
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)

Passt dieses Co-Location-artige Modell zu dem Anspruch, auch Modelle mit Foundation-Anspruch in München nicht nur anzuwenden, sondern auch zu trainieren? Schließlich könnten selbst spezialisierte Modelle im Trainingsphasen einen erheblichen Teil der GPU-Kapazitäten des Rechenzentrums beanspruchen. Auf die Frage von DataCenter-Insider antwortet T-Systems CEO Abolhassan, in München gäbe es einen dedizierten „Platz zum Trainieren und einen Platz zum Anwenden“. Bei Inferenz-Aufgaben könne auch das CPU-lastige Telekom-Rechenzentrum in München helfen.

Gerade spezialisierte Modelle könnten künftig „ganz andere Techniken verwenden, die weniger Rechenzeit beim Training benötigen“, fügt Antonio Krüger hinzu, CEO des Deutschen Forschungszentrums für Künstliche Intelligenz. Zugleich befände man sich am „Anfang einer sehr dynamischen Entwicklung“, bei der man „nicht genau absehen kann, wo wir in zwei, drei Jahren stehen“. Tatsächlich stelle aktuell der Faktor Zeit bei der Verteilung der Nutzungsslots einen zentralen Unterschied und eine wichtige Orchestrierungsaufgabe im Vergleich zu klassischen Colocation-Ansätzen dar, verdeutlichen später Telekom-Vertreter auf Nachfrage.

Öffentliche Hand soll für Auslastung von KI-Infrastrukturen entscheidend sein

Dabei scheinen sich die Projektpartner Sorgen eher um eine unzureichende Auslastung der entstehenden KI-Infrastrukturen zu machen. Dies wird in den zahlreichen Appellen an die öffentliche Hand deutlich. Oft erscheint die Eröffnungsveranstaltung als Werbe-Aktion nicht nur für KI-Infrastruktur, sondern für die breitere Digitalisierung und Nutzung europäischer Cloud-Angebote.

Es gäbe „ein Riesenproblem“ bei der „Bündelung der öffentlichen Hand als Auftraggeber“, macht der Höttges deutlich. „Der Bund oder das Land als Ankerkunde zu finden, der die Daten in diese europäische oder deutsche Infrastruktur reinlegt“, sei weiterhin ein „ganz kompliziertes Unterfangen und da müssen wir ein Stück weit schneller werden“.

„Wir reden nicht, die Telekom macht”, sagt Tim Höttges, CEO Deutsche Telekom. “Wir investieren in KI. Wir beweisen hier, dass Europa KI kann.“(Bild:  Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
„Wir reden nicht, die Telekom macht”, sagt Tim Höttges, CEO Deutsche Telekom. “Wir investieren in KI. Wir beweisen hier, dass Europa KI kann.“
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)

Die Telekom könne nur dann investieren, „wenn wir auch eine Perspektive haben, wie wir die Auslastung auf diese Infrastruktur bekommen“. Man führe hier zahlreiche Gespräche, insbesondere mit der von Andrea Nahles geführten Bundesagentur für Arbeit, so auch Abolhassan. Auch aus seiner Sicht aber Zugleich müsse „die Politik uns aber sagen: Womit möchte sie den Bürger auch unterstützen? Wir stehen Gewehr bei Fuß“. Dies gelte auch für eine dringend benötigte Modernisierung und Digitalisierung der Verwaltung mit einem „Schub durch KI“, so der DVKI-Vorsitzende Krüger.

Telekom bewirbt sich um Gigafactories bei Forderungen an die Politik

Die Telekom versteht das Münchener KI-Rechenzentrum als Vorbereitung für eine künftige Bewerbung um den Bau einer von fünf von der Europäischen Union geförderten „AI Gigafactories“, bestätigten Höttges und Abolhassan explizit. Die Telekom führe dazu, so Höttges, Gespräche insbesondere mit der Schwarz-Gruppe, um die benötigten Kapazitäten liefern zu können.

Geschaffen für den Erfolg des Projektes müssten aber laut Höttges erst die „Rahmenbedingungen, damit wir diese Investitionen tätigen können“. Der Forderungskatalog an die Politik ist explizit: Eine Gigafactory brauche „acht bis zehn Milliarden an einem Standort“.

Entscheidend sei eine „Anschubfinanzierung“, aber auch eine zugesicherte Auslastung. Die von der Europäischen Union angekündigten 20 Milliarden Investitionen in die Gigafactories würden zwar mit der Zusage von „17,5 Prozent der Auslastung über die öffentliche Hand“ einhergehen. Es sei aber nicht klar, ob diese Zusagen weiterhin gälten.

Es sei zudem entscheidend, dass „Bund und auch die Länder“ bereit seien, „entsprechende Volumina an Daten zu bündeln, damit wir Auslastung auch von der öffentlichen Hand auf dieser Infrastruktur bekommen“. Zudem höre man in Brüssel von angedachten Nutzungspreisen, „die noch nicht einmal die Gestehungskosten für die Chips decken würden.“ Entscheidend sei letztlich die Senkung von Strompreisen in Deutschland für Datacenter. Ansonsten generiere eine „Gigafactory mit 10.000 GPUs ungefähr 80 Millionen an Kostennachteil gegenüber den Standorten Finnland oder Norwegen“.

Ministerpräsident Söder betont gwohnt, es brauche „schnelle Handlung“ und „eine Art Industriestrompreis für die Rechenzentren“. Lars Klingbeil verwies seinerseits auf die baldige Diskussion einer Rechenzentrumsstrategie im Bundeskabinett. Angehen werde man dabei den „Umgang mit den Energiekosten, aber auch die Frage, wie wir bürokratische Hürden für den Bau weiterer Rechenzentren abbauen können“.

(ID:50704120)