Laut der Unternehmensberatung McKinsey wird die steigende Nachfrage nach Rechenleistung bis 2030 weltweite Investitionen in Rechenzentren in Höhe von fast sieben Billionen Dollar erfordern. Und die KI-Cluster fordern immer mehr Ressourcen und zwingen die Rechenzentrumsbranche, in kürzester Zeit massive Infrastrukturen bereitzustellen.
Corning beteiligt sich an der Definition von 3.2 Tb/s Co-packaged Optical Transceiver-Modulen, die eng neben dem Switch-ASIC platziert werden, um die Latenz zu verringern und den Stromverbrauch drastisch zu senken.
(Bild: Corning)
Das Jahr 2026 markiert einen Wendepunkt. Der globale Wettlauf um Künstliche Intelligenz (KI) ist in eine neue Phase eingetreten. In den Jahren 2024 und 2025 lag der Fokus hauptsächlich auf ersten KI-Strategien und Pilotprojekten. Doch jetzt müssen Rechenzentrumsbetreiber ihren Fokus stark auf die industrielle Skalierung legen.
Um die Leistung, Effizienz und Langlebigkeit der nächsten KI-Generation zu gewährleisten, sind die folgenden fünf Schlüsselbereiche entscheidend.
1) Vom Training zur Inferenz: 1,6T als Standard, 3,2T in Sicht
Die Natur von KI-Workloads unterliegt einem grundlegenden Wandel. Während der primäre Fokus bisher auf dem Training massiver Modelle lag, wird 2026 durch den industriellen Einsatz von KI-Inferenz bestimmt sein.
Um Millionen gleichzeitiger Benutzeranfragen in Echtzeit zu bedienen, müssen Rechenzentren enormen Durchsatz und extrem niedrige Latenzzeiten garantieren. Dieser Übergang vom Training zum kontinuierlichen Hochleistungsbetrieb macht die bisher üblichen Geschwindigkeiten von 40G oder 100G obsolet.
Während der Fokus in den letzten Jahren auf der Migration zu 400G und 800G lag, wird 2026 der breite Rollout von 1,6T-Geschwindigkeiten erfolgen. Diese werden oft über 2x800G-Kombi-Transceiver realisiert. Darüber hinaus erwarten wir die ersten 3,2T-Pilotinstallationen bei führenden Hyperscalern, die ihre Architekturen bereits auf die nächste Stufe des Traffic-Managements vorbereiten.
Um diese Bandbreiten zu unterstützen, ist die Grundlage des KI-Ökosystems, die Glasfaser, unverzichtbar. Da Inferenz-Server eine ultraschnelle Datenlieferung benötigen, verzehnfacht sich oft die Konnektivität vom Switch zum Server. Dies erfordert, dass die Glasfaser bis zur GPU-NIC (Network Interface Card) selbst verlegt wird, was einen massiven Ausbau der Netzwerkkapazität, einschließlich der Weitverkehrsverbindungen zwischen Rechenzentrums-Campussen, notwendig macht.
Die massive Anzahl an Fasern, in einigen Fällen über 9.000 Faserstränge pro Spine-Core-Netzwerkschrank, verbietet die manuelle Handhabung einzelner Fasern. Hyperscaler und große Betreiber setzen daher konsequent auf modulare, vorkonfektionierte High-Density-Baugruppen.
Diese industriell gefertigten Kabel- und Konnektivitätslösungen ermöglichen reproduzierbare, schnelle und skalierbare Installationsprozesse. Sie garantieren nicht nur höchste optische Leistung, sondern reduzieren auch Installationsfehler und die Markteinführungszeit (TTM) erheblich.
3) Dichte als Engpass: Die Notwendigkeit von VSFF
Mit der exponentiellen Zunahme der Faseranzahl ist die Dichte zum primären Engpass im Rechenzentrum geworden. Die gebräuchliche MPO-Konnektivität stößt in hochdichten KI/ML-Schnittstellen an ihre Grenzen.
In Netzwerk-Switches, die für 800G oder 1,6T ausgelegt sind, sind die Transceiver-Ports eng angeordnet. Wenn hier herkömmliche MPO-Stecker verwendet werden, verbrauchen das erforderliche Volumen für die Kabel und das zugehörige Kabel-Management so viel Platz, dass die Kühlleistung beeinträchtigt und die Zugänglichkeit für Wartungsarbeiten nahezu unmöglich wird.
Steckverbinder wie MMC ermöglichen eine deutliche Erhöhung der Faserdichte im Patch-Feld, manchmal bis zu 100 Prozent.
(Bild: Corning)
Miniaturisierung ist daher zwingend erforderlich. Sie ist eine entscheidende Voraussetzung für die Skalierbarkeit. Dies führt zur Standardisierung von Very Small Form Factor Fiber Connectors (VSFFC).
Steckverbinder wie MMC, SN-M oder MMC16 ermöglichen eine deutliche Erhöhung der Faserdichte im Patch-Feld, in einigen Fällen um mehr als 100 Prozent im Vergleich zu herkömmlichen LC-Duplex- oder MPO-Steckern. Die reduzierte Größe dieser Steckverbinder, kombiniert mit innovativen Fasern mit hohem Biegeradius, die von Corning entwickelt wurden, ermöglicht eine weitaus effizientere Nutzung des wertvollen Platzes in den Schränken und ein besseres Management von Kabelstaus.
4) Thermik & Energie: Flüssigkeitskühlung wird unvermeidlich
Die extrem hohe Leistung von KI-GPUs und -CPUs führt zu einer Wärme-Entwicklung, die herkömmliche luftbasierte Kühllösungen nicht mehr effizient bewältigen können. Bei einem Stromverbrauch, der häufig 80 Kilowatt pro Rack übersteigt - gegenüber rund 15 kW pro herkömmlichem Server-Rack) - wird die Luftkühlung physikalisch und wirtschaftlich untragbar.
Hinzu kommt, dass KI-Workloads 3 bis 5 mal mehr Strom pro Recheneinheit verbrauchen als herkömmliche Anwendungen. Folglich wird die Flüssigkeitskühlung (Direct-to-Chip- und Immersionskühlung) die herkömmliche Luftkühlung für hochdichte KI-Racks ersetzen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die am häufigsten verwendete Methode ist die Zirkulation von Wasser durch isolierte Rohrleitungen, die entweder über Kühlplatten direkt auf den Prozessoren (Direct-to-Chip) oder als Rücktür-Wärmetauscher integriert sind, um die Wärme direkt von den Komponenten abzuführen. Dieser Wandel ist entscheidend, da die Flüssigkeitskühlung nicht nur eine überlegene thermische Effizienz bietet, sondern auch der Schlüssel zur Erreichung zukünftiger Nachhaltigkeitsziele ist.
Die Notwendigkeit der Flüssigkühlung von Servern und Komponenten
Durch die Ermöglichung höherer Betriebstemperaturen und die erhebliche Reduzierung der erforderlichen Lüfterenergie minimiert die Flüssigkeitskühlung die Power Usage Effectiveness (PUE) und ist für den langfristigen, energieeffizienten Betrieb von Hyperscale-KI-Implementierungen unerlässlich. Laut McKinsey können Flüssigkeitskühlsysteme den Energieverbrauch im Vergleich zu Luftkühlsystemen um mehr als 27 Prozent senken. Die Energiekosten für die Flüssigkeitskühlung sind daher auch deutlich niedriger als für die Luftkühlung (Direct-to-Chip: 31 Prozent niedriger, Immersion: 37 Prozent niedriger).
5) Vorbereitung auf Co-Packaged Optics (CPO)
Co-Packaged Optics (CPO) zielt darauf ab, Optik und Elektronik enger in einem Switching- oder Verarbeitungssystem zu integrieren. CPO ist die etablierte Lösung zur signifikanten Steigerung der Energie-Effizienz, da sie die Distanz, die das elektrische Signal zurücklegen muss, drastisch reduziert. Diese tiefe Integration verändert grundlegend, wie Glasfaser in den Switch gelangt und beeinflusst das Wärme-Management.
Erste Implementierungen von CPO werden voraussichtlich 2026 beginnen, hauptsächlich in Hyperscale-KI-Rechenzentren und proprietären Systemen von Unternehmen wie Nvidia und großen Cloud-Anbietern, zum Beispiel „Nvidia Spectrum-X Photonics“. Diese frühen Rollouts werden sich auf Scale-Up-Netzwerke - innerhalb von Racks und Reihen - als Alternative zu Kupfer-Interconnects konzentrieren, wo Bandbreiten- und Leistungsbeschränkungen am größten sind. Daher müssen Rechenzentrumsbetreiber ihre Infrastruktur bis 2026 CPO-fähig machen und dabei antizipieren, dass sich großflächige Einführungs- und Standardisierungsbemühungen in Richtung 2028 bis 2030 beschleunigen werden.
Dies bedeutet, dass Racks, Kühlung und Kabel-Management heute so geplant werden müssen, dass eine optimale Faserführung und thermische Kapazität gewährleistet sind, um ein späteres CPO-Upgrade ohne einen grundlegenden Umbau der gesamten Infrastruktur zu ermöglichen. Die Implementierung von VSFF-Steckverbindern (siehe: Punkt 3) ist ein entscheidender, nicht verhandelbarer Schritt, um diese zukünftigen hochdichten Integrationspfade offen zu halten und zukünftige Störungen zu mindern. Die Voraussicht bei der Verkabelung und dem Rack-Design von heute bestimmt die Machbarkeit der CPO-Einführung von morgen.
6) Die DCI-Kapazitätskrise: Integration von hochdichter Glasfaser für den Datenverkehr zwischen Rechenzentren
KI verwandelt die Glasfaserinfrastruktur in einen entscheidenden Wegbereiter für die Verbindung von Rechenzentren (Data Center Interconnect, DCI). Während Rechenzentren schnell skalieren, müssen Weitverkehrs- und Metro-Netzwerke aggressiv mit hochkapazitiver, latenzarmer Glasfaser skaliert werden, um verteiltes KI-Training und Inferenz über Regionen hinweg zu unterstützen. Folglich hat sich DCI im Zeitalter der KI schnell zu einem kritischen Engpass entwickelt, wobei KI-Workloads mittlerweile der größte Nachfragefaktor sind und Cloud Computing und Big-Data-Analysen übertreffen.
Die massive Datenbewegung zwischen spezialisierten Cluster erfordert eine grundlegende Neugestaltung der Verbindungswege. Die technischen Anforderungen sind kompromisslos: KI-Cluster benötigen extrem niedrige Latenzzeiten (<1 ms) und hochdichte Glasfaser für den Ost-West-Verkehr zwischen GPUs und über Standorte hinweg. Diese Notwendigkeit übt immensen Druck auf die breitere Netzwerkinfrastruktur aus. Um einen Bandbreitenengpass zu vermeiden, werden allein in den USA bis 2030 etwa 200 Millionen zusätzliche Fasermeilen benötigt, angetrieben von einer jährlichen Wachstumsrate von rund 35 Prozent für den Verkehr im Wide Area Netzwork.
Große Anbieter gehen dieses Problem aktiv an, indem sie massiv in neue Hochkapazitätsrouten investieren. Eunetworks setzt sein „Super Highway“-System ein, um die Latenz auf kritischen europäischen Routen, zum Beispiel Frankfurt - Paris, um bis zu 20 Prozent zu reduzieren. In ähnlicher Weise investiert Eurofiber in neue Weitverkehrsrouten, Amsterdam - Hamburg oder Rotterdam - Frankfurt), die für Hochleistungslaser und Raman-Verstärkung ausgelegt sind und die extrem niedrige Latenz und hohe Kapazität gewährleisten, die für KI-Interconnects ab 2026 erforderlich sind. Diese aggressiven Investitionen sind unerlässlich, um die verteilte Architektur moderner KI zu unterstützen.
Der Weg in die Zukunft
Im Jahr 2026 wird KI zu einer zentralen Säule der digitalen Wirtschaft. Die Infrastruktur muss in der Lage sein, diesem Wandel gerecht zu werden. Für Rechenzentrumsbetreiber bedeutet dies, dass Agilität und Weitsicht entscheidend für die Zukunftsfähigkeit sind.
Der Anstieg ist unbestreitbar: Der europäische Markt für KI-optimierte Rechenzentren wird voraussichtlich von 17,4 Milliarden Dollar im Jahr 2025 auf 53,9 Milliarden Dollar bis 2030 wachsen (CAGR: 25,4 Prozent).
Große Branchenakteure wie die Deutsche Telekom reagieren, indem sie jährlich Milliarden in Glasfaser- und KI-Infrastruktur investieren, um KI-Readiness zu erreichen. Dies unterstreicht, dass der Ausbau des zugrunde liegenden Glasfasernetzes direkt mit dem Erfolg des KI-Einsatzes verknüpft ist.
*Die Autorin Cindy Ryborz ist Marketing Manager EMEA bei Corning Optical Communications. Sie sagt: Es ist entscheidend, jetzt in die richtigen Glasfaser-, Kabel- und Konnektivitätslösungen zu investieren, die auf die extremen Anforderungen hinsichtlich Dichte, Bandbreite und Energieeffizienz vorbereitet sind. Die Auswahl von Lieferantenpartnern mit nachgewiesener Expertise und skalierbaren Lösungen gewährleistet einen reibungslosen Übergang und eine nachhaltige Leistung bei wachsender KI-Nachfrage. Denn nur wer seine Infrastruktur heute auf 1.6T/3.2T, VSFF und Flüssigkeitskühlung auslegt, kann die globalen Skalierungsanforderungen der KI von morgen bedienen.