Die Telekom eröffnet ein 12-Megawatt KI-Rechenzentrum in München mit 10.000 Nvidia-GPUs als Basis eines „Deutschland-Stacks“ für die Industrie. Die KI-Fabrik zeichne, so die Telekom-Verantwortlichen, den Weg zu einer vierten industriellen Revolution und einer europäischen KI-Infrastruktur vor… mit klaren Forderungen an die Politik.
Andreas Falkner, Telekom-Verantwortlicher für das KI-Rechenzentrum in München, öffnet die Blende eines Nvidia-GPU-Servers.
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
Jensen Huang kam nicht zur Eröffnung der ersten deutschen KI-Großfabrik, und doch ist der Nvidia-CEO im vollgepackten Konferenzsaal der Deutschen Telekom in München unübersehbar präsent: Telekom-Chef Tim Höttges und T-Systems-CEO Ferri Abolhassan treten in lässigen Arbeitsjacken auf, der Telekom-VP Peter Lorenz, der Verantwortliche für die KI-Fabrik Andreas Falkner und SAP-CEO Christian Klein glänzen tatsächlich mit schwarzem Leder.
Eine abgestimmte Botschaft? „Dein Style heute ist perfekt“, komplimentiert Höttges den SAP-Chef leicht schmunzelnd.
T-Systems CEO Ferri Abolhassan, SAP-Vorstandsmitglied Thomas Saueressig, SAP-CEO Christian Klein und Telekom-CEO Tim Höttges (v.l.n.r.) im Gespräch bei der offiziellen Einweihung des KI-Rechenzentrums von Telekom am 4.2.2026.
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
Die symbolische Intention scheint klar: eine Macher-Mentalität zu demonstrieren, aber auch einen Stolz, binnen sechs Monaten 10.000 der heiß gefragten „Nvidia Blackwell“-GPUs nach Deutschland gebracht und in einem modernisierten Untergrund-Rechenzentrum mitten in München installiert zu haben. Soll Nvidia als wertmäßig größter US-Konzern die Basis des gleichzeitig angekündigten „Deutschland-Stacks“ für KI bilden?
Auch hier ist Tim Höttges deutlich: „Nvidia will und braucht den Standort Europa“ und habe hier „ein klares Commitment gezeigt“. Zugleich bleibe der US-Konzern das einzige nicht-europäische Unternehmen zwischen 35 Projektpartnern. Damit habe die Telekom „100 Prozent Datensouveränität“ und „100 Prozent Betriebssouveränität“ am Standort München erreicht.
Untergrundfläche, Bachwasserkühlung und Abwärmenutzung für 0,5 ExaFlops GPU-Leistung
Dass das KI-Rechenzentrum binnen sechs Monaten mitten in München im 'Eisbachvirtel'/'Tucherpark'. gleich an der Grenze zum Englischen Garten, entstehen konnte, ist nicht nur einem überraschend schnellen Planungsverfahren geschuldet, sondern auch einer idealen Ausgangslage. Für das Projekt konnten Räume des ehemaligen Hypovereinsbank-Rechenzentrums auf sechs Untergeschossen im Münchener Büroquartier Tucherpark für den KI-Einsatz modernisiert werden.
Der Beitrag von Elke Witmer-Goßner bietet ergänzende Einblicke in Statements aus Industrie und Politik, vorgestellte Anwendungsfälle sowie die Telekom-Pläne für die „Industrial AI Cloud“ und die „T Cloud Public“:
Entwickler und Infrastruktur-Betreiber für die Telekom ist Polarise. Das 2024 gegründete deutsche Unternehmen will europaweit KI-Rechenzentren auf Grundlage modularer „AI Pods“ errichten. Die Macquarie Group kündigte dafür im Januar 2026 Investitionen von 117 Millionen Euro an.
Ein Polarise-Rechenzentrum am Flughafen Oslo mit 16 Megawatt und ausgestattet mit „Nvidia GB200 NVL72-Racks“ ist bereits in Betrieb, nun kommt die KI-Fabrik in München hinzu. Weitere KI-Datacenter in Bayern, NRW und Hessen seien laut Polarise „in Planung oder bereits im Bau“.
Ein „AI Pod“ von Polarise im KI-Rechenzentrum der Telekom in München
(Bild: Deutsche Telekom AG / Cindy Albrecht)
In München kommt ebenfalls die aktuelle Generation von „Nvidia Blackwell“-Chips zum Einsatz, allerdings mit einer geringeren Dichte als in Oslo. Die Münchener KI-Fabrik beherbergt momentan 2040 leistungsstarke „B200“-Chips mit Fokus auf Training-Workloads in „DGX“-Systemen mit je 8 GPUs pro Server sowie 6144 der eher Inferenz-fokussierten „RTX Pro 6000“-Systeme.
Zusammen liefern die GPUs 0,5 ExaFlops Rechenleistung. Der Telekom zufolge werde damit die in Deutschland insgesamt zur Verfügung stehende KI-Rechenkraft um 50 Prozent erhöht. Die gesamte IT-Leistung des Rechenzentrums beträgt aktuell 12 Megawatt, ein Ausbau auf 20 Megawatt sei bei guter Nachfrage noch bis Jahresende 2026 möglich. Auch eine Verdreifachung der Rechenleistung sei in München technisch realisierbar.
Hybridkühlung: Einschiebbare Lüfter an der Vorderseite der GPU-Server...
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
Zur hybriden Kühlung der Pods wird das Wasser aus dem anliegenden Eisbach genutzt. Für die Umsetzung des Kühlkonzepts sorgte BM Green Cooling. Der Eisbach friert auch im bayerischen Winter nicht ein, bleibt im Sommer relativ kühl und bringt 6 Megawatt Kühlungsleistung, wobei die Wasserversorgung des Rechenzentrums dennoch redundant ausgelegt sein soll.
Die GPU-Server werden dabei an der Vorderseite durch einschiebbare Lüfter gekühlt, während in den Wärmetauschern das Eisbach-Wasser zum Einsatz kommt. Die Kühlungshardware stellte Vertiv. Ob der Hersteller als weiteres US-Unternehmen neben Nvidia zum „Deutschland-Stack“ gehört, wurde nicht bekannt gegeben. Auch Siemens und Schneider Electric waren Infrastruktur-Partner.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Münchener KI-Fabrik von Telekom in Zahlen.
(Bild: Deutsche Telekom AG)
Mit der Abwärme soll das Rechenzentrum das umliegende Büro-Areal im Tucherpark beheizen. Das Wärmenetz wird allerdings erst künftig in Betrieb genommen.
Bereits heute erreicht das Rechenzentrum laut Telekom-Angaben einen PUE-Wert (Power Usage Effectivness) unter 1,2. Mit weiteren Effizienzsteigerungen sei ein Wert von 1,09 möglich, den die Telekom anstreben werde. Der gesamte Bedarf des Rechenzentrums werde mit erneuerbaren Energien abgedeckt.
Ein Cloud-Stack für industrielle KI
Mit dem Rechenzentrum bietet Telekom einen mit Partnern aufgebauten Software-Stack als Teil der „Telekom Industrial AI Cloud“ an. Eine klare Zielgruppe sind somit industrielle Unternehmen.
Bei „767 Milliarden Wertschöpfung in der Industrie“ sieht so der Telekom-CEO Höttges in spezialisierten KI-Anwendungen den „Rettungsanker für die deutsche Industrie“. Deutschland könne zur Avantgarde einer vierten Industriellen Revolution avancieren, indem „wir die Maschinen und Daten ineinander vernetzen und dadurch einen enormen Produktivitätssprung schaffen“.
„Es gibt genügend Large-Language-Modelle“, betont auch Abolhassan. Mit der KI-Infrastruktur, wie sie in München entstehe, könnten deutschen Unternehmen hingegen erfolgreich spezialisierte „Foundation Model[s] trainieren“ und „diese Fabrik mit dem füttern, was wir in Deutschland und Europa machen, nämlich fertigen.“
Eine besonders wichtige Zielgruppe seien dabei kleine und mittelständische Unternehmen, die nicht von günstigen Konditionen der Hyperscaler für Großkunden profitieren können. Das Preismodell der Telekom sei „so aufgebaut, dass es keine Benachteiligung für den Mittelstand gibt. Du brauchst keine Skalierung mitzubringen, um bei uns zu trainieren“, versprach Höttges.
Historischer Moment in München: Umrahmt von T-Systems CEO Ferri Abolhassan (3.v.l.) und Telekom-Chef Tim Höttges (3.v.r.) nehmen Dieter Reiter (OB München), Markus Söder (Ministerpräsident Bayern) und Lars Klingbeil (Bundesfinanzminister) Deutschlands erste KI-Fabrik ans Netz.
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
Bei deutlich unterschiedlichen Blicken auf Deutschlands Stand im digitalen Wettbewerb stimmen bei dem Potenzial industrieller KI-Anwendungen auch die eingeladenen Spitzenpolitiker Markus Söder (CSU) und Lars Klingbeil (SPD) überein. Der bayerische Ministerpräsident und der Bundesfinanzminister wie auch Münchens Bürgermeister Dieter Reiter (SPD) betonen es zudem als beispielhaft, dass das KI-Rechenzentrum ohne öffentliche Förderung entstanden sei (die Telekom investierte 1 Milliarde Euro, hinzu kamen nicht näher ausgeführte Partnerinvestitionen).
3D-Simulationen von Fabriken und Produkten mit Siemens- und Nvidia-Software
Simulationen, digitale Zwillinge, vorausschauende Wartung sowie die Entwicklung und Anwendung spezialisierter industrieller KI-Modelle sollen somit die Schwerpunkte des Angebots bilden. Telekom ist neben der technischen Infrastruktur auch für die Cloud-Technik verantwortlich.
SAP liefert mit der „Business Technology Platform“ eine Grundlage für Training- und Inferenzaufgaben im Zusammenspiel mit Nvidia-Software. Zudem böte die Plattform, so SAP-CEO Klein, umfangreiche Funktionen bei der Orchestrierung von KI-Agenten und Digitalisierung.
Entscheidend für 3D-Simulationen und digitale Zwillinge sollen neben „Omniverse“ von Nvidia auch Software-Beiträge von Siemens sein. Ab dem 2. Quartal 2026 sollen so Kunden der Industrial AI Cloud auf Grundlage der Rechenkapazitäten in München Simulation-as-a-Service-Dienste und ab dem 3. Quartal 2026 „Siemens Digital Twin Composer“ nutzen können.
Ein Co-Location-Modell für KI-Training?
Das Rechenzentrum ging zur offiziellen Eröffnung am 4. Februar 2026 bereits in Betrieb für Kunden der Industrial AI Cloud. 30 Prozent der Datacenter-Kapazitäten werden laut Telekom-Angaben bereits von Kundenunternehmen für ihre KI-Anwendungsfälle genutzt, darunter Catena-X, Volkswagen und Yamaha.
Zudem soll ab März 2026 das Training des Open-Source-Sprachmodells „Soofi“ beginnen. Das Modell wird von mehreren deutschen Forschungseinrichtungen entwickelt und soll bei annähernd 100 Milliarden Parametern 130 dedizierte „DGX B200“-Server mit über 1.000 GPUs in München beanspruchen.
Eröffnung des KI-Rechenzentrums der Deutschen Telekom in München am 4.2.2026.
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
Passt dieses Co-Location-artige Modell zu dem Anspruch, auch Modelle mit Foundation-Anspruch in München nicht nur anzuwenden, sondern auch zu trainieren? Schließlich könnten selbst spezialisierte Modelle im Trainingsphasen einen erheblichen Teil der GPU-Kapazitäten des Rechenzentrums beanspruchen. Auf die Frage von DataCenter-Insider antwortet T-Systems CEO Abolhassan, in München gäbe es einen dedizierten „Platz zum Trainieren und einen Platz zum Anwenden“. Bei Inferenz-Aufgaben könne auch das CPU-lastige Telekom-Rechenzentrum in München helfen.
Gerade spezialisierte Modelle könnten künftig „ganz andere Techniken verwenden, die weniger Rechenzeit beim Training benötigen“, fügt Antonio Krüger hinzu, CEO des Deutschen Forschungszentrums für Künstliche Intelligenz. Zugleich befände man sich am „Anfang einer sehr dynamischen Entwicklung“, bei der man „nicht genau absehen kann, wo wir in zwei, drei Jahren stehen“. Tatsächlich stelle aktuell der Faktor Zeit bei der Verteilung der Nutzungsslots einen zentralen Unterschied und eine wichtige Orchestrierungsaufgabe im Vergleich zu klassischen Colocation-Ansätzen dar, verdeutlichen später Telekom-Vertreter auf Nachfrage.
Öffentliche Hand soll für Auslastung von KI-Infrastrukturen entscheidend sein
Dabei scheinen sich die Projektpartner Sorgen eher um eine unzureichende Auslastung der entstehenden KI-Infrastrukturen zu machen. Dies wird in den zahlreichen Appellen an die öffentliche Hand deutlich. Oft erscheint die Eröffnungsveranstaltung als Werbe-Aktion nicht nur für KI-Infrastruktur, sondern für die breitere Digitalisierung und Nutzung europäischer Cloud-Angebote.
Es gäbe „ein Riesenproblem“ bei der „Bündelung der öffentlichen Hand als Auftraggeber“, macht der Höttges deutlich. „Der Bund oder das Land als Ankerkunde zu finden, der die Daten in diese europäische oder deutsche Infrastruktur reinlegt“, sei weiterhin ein „ganz kompliziertes Unterfangen und da müssen wir ein Stück weit schneller werden“.
„Wir reden nicht, die Telekom macht”, sagt Tim Höttges, CEO Deutsche Telekom. “Wir investieren in KI. Wir beweisen hier, dass Europa KI kann.“
(Bild: Deutsche Telekom AG / Cindy Albrecht / Robert Dieth)
Die Telekom könne nur dann investieren, „wenn wir auch eine Perspektive haben, wie wir die Auslastung auf diese Infrastruktur bekommen“. Man führe hier zahlreiche Gespräche, insbesondere mit der von Andrea Nahles geführten Bundesagentur für Arbeit, so auch Abolhassan. Auch aus seiner Sicht aber Zugleich müsse „die Politik uns aber sagen: Womit möchte sie den Bürger auch unterstützen? Wir stehen Gewehr bei Fuß“. Dies gelte auch für eine dringend benötigte Modernisierung und Digitalisierung der Verwaltung mit einem „Schub durch KI“, so der DVKI-Vorsitzende Krüger.
Telekom bewirbt sich um Gigafactories bei Forderungen an die Politik
Die Telekom versteht das Münchener KI-Rechenzentrum als Vorbereitung für eine künftige Bewerbung um den Bau einer von fünf von der Europäischen Union geförderten „AI Gigafactories“, bestätigten Höttges und Abolhassan explizit. Die Telekom führe dazu, so Höttges, Gespräche insbesondere mit der Schwarz-Gruppe, um die benötigten Kapazitäten liefern zu können.
Geschaffen für den Erfolg des Projektes müssten aber laut Höttges erst die „Rahmenbedingungen, damit wir diese Investitionen tätigen können“. Der Forderungskatalog an die Politik ist explizit: Eine Gigafactory brauche „acht bis zehn Milliarden an einem Standort“.
Entscheidend sei eine „Anschubfinanzierung“, aber auch eine zugesicherte Auslastung. Die von der Europäischen Union angekündigten 20 Milliarden Investitionen in die Gigafactories würden zwar mit der Zusage von „17,5 Prozent der Auslastung über die öffentliche Hand“ einhergehen. Es sei aber nicht klar, ob diese Zusagen weiterhin gälten.
Es sei zudem entscheidend, dass „Bund und auch die Länder“ bereit seien, „entsprechende Volumina an Daten zu bündeln, damit wir Auslastung auch von der öffentlichen Hand auf dieser Infrastruktur bekommen“. Zudem höre man in Brüssel von angedachten Nutzungspreisen, „die noch nicht einmal die Gestehungskosten für die Chips decken würden.“ Entscheidend sei letztlich die Senkung von Strompreisen in Deutschland für Datacenter. Ansonsten generiere eine „Gigafactory mit 10.000 GPUs ungefähr 80 Millionen an Kostennachteil gegenüber den Standorten Finnland oder Norwegen“.
Ministerpräsident Söder betont gwohnt, es brauche „schnelle Handlung“ und „eine Art Industriestrompreis für die Rechenzentren“. Lars Klingbeil verwies seinerseits auf die baldige Diskussion einer Rechenzentrumsstrategie im Bundeskabinett. Angehen werde man dabei den „Umgang mit den Energiekosten, aber auch die Frage, wie wir bürokratische Hürden für den Bau weiterer Rechenzentren abbauen können“.