China feiert 2026 einen historischen Meilenstein: Die technologische Aufholjagd zur westlichen Enterprise‑IT gilt als abgeschlossen. In ausgewählten Nischen geht das Reich der Mitte sogar in Führung, pünktlich zur nächsten Kalenderphase. Denn das aktuelle Yang-Jahr Bǐngwǔ steht im Zeichen des Feuerpferdes: willensstark, wandlungsfähig, eigenwillig und kaum zu bremsen.
Das aktuelle Yang-Jahr Bǐngwǔ steht im Zeichen des Feuerpferdes: willensstark, wandlungsfähig, eigenwillig und kaum zu bremsen.
Eine der bevölkerungsreichsten Volkswirtschaften der Welt wechselt von einer Phase des schnellen Wachstums zu einem Modell technologischer Souveränität. An diesem Wendepunkt verdichten sich fünf zentrale Technologiepfade zu einem erkennbaren Muster: Ein ausgeprägter Wille, Technologie schnell in skalierbare Betriebsmodelle zu überführen, verschmilzt wahrnehmungsfähige Mobilfunknetze, photonische Interconnects, alternative Prozessor-Architekturen und „Next Compute“ (Quanten/Photonik/Neuromorphik) mit KI‑Modellen zu einem „Sino‑Stack“.
Sinnbild der Zukunft: Beim Staatsbesuch von Bundeskanzler Friedrich Merz in China am 27. Februar 2026 demonstriert Peking die Schlagkraft der eigenen Industrietransformation mit einem Boxkampf zwischen Industrierobotern.
(Bild: Bundesregierung/Guido Bergmann)
Das neue chinesische Referenzmodell für Enterprise-IT basiert nicht mehr auf der bloßen Adaption von Standards, die der Westen vorgibt. Es treibt stattdessen zielstrebig, mit nicht zu unterschätzenden Implikationen für den Westen, eine tiefe vertikale Integration von Hardware, Software und staatlicher Industriepolitik voran.
Getragen vom 15. Fünfjahresplan (2026–2030) und der Initiative „New Quality Productive Forces“, löst sich China nach und nach von westlichen Abhängigkeiten mit dem Ziel, eine hochintegrierte, weitgehend autarke digitale Infrastruktur aufzubauen.
Auf dem Programm: Substitution westlicher Komponenten, Plattform-Integration, operative Resilienz. So entsteht ein eingespielter Stack aus Rechen-, Netzwerk- und Systemtechnologien, der industrielle Nutzung, Skalierung und strategische Unabhängigkeit adressieren soll.
Forscher kalibrieren und installieren am AQCERC in der Provinz Hefei den von China eigenständig entwickelten supraleitenden Quantencomputer der dritten Generation.
(Bild: Anhui Quantum Computing Engineering Research Center (AQCERC))
Der Trend zu vertikal koordinierten Plattformen mit eigener Governance-Logik verändert Sicherheit, Betrieb und Investitionsentscheidungen auch außerhalb Chinas. Im Zeitraum der vergangenen zwei Jahre stechen drei besonders „harte“ Indikatoren der neuen Großwetterlage hervor:
ein 105-Qubit-System der Zuchongzhi-Klasse mit messbaren Fidelity-Werten, Kohärenzzeit und Benchmark-Resultaten (publiziert für Zuchongzhi-3) sowie Berichten über kommerzielle Cloud-Zugänglichkeit über die Tianyan-Plattform;
großflächige 5G-Advanced/5.5G-Rollouts (Betreiber-Upgrades in Richtung „300+ Städte“ werden öffentlich kommuniziert) zur Verlagerung von Rechenleistung, Automatisierungslogik und Sensorik an die Edge—mit dokumentierten Live-Durchsatzwerten und ersten ISAC-Szenarien;
Reasoning‑orientierte Post‑Training‑Methoden und Mixture-of-Experts-(MoE)‑Architekturen verschieben die „Compute‑Ökonomie“ bis hinein in Telco‑Cloud‑Angebote und On‑Prem‑Budgetdebatten.
Der radikalste Bruch spielt sich in der Hardwareschicht ab.
Total Stack Sovereignty
Die derzeit wohl markanteste Transformation im Hinblick auf die Verfügbarkeit von Rechenleistung vollzieht sich in der hybriden Fusion von Quantentechnologie und klassischem High-Performance-Computing (HPC). China hat den Schritt aus der isolierten Laborlogik hin zur skalierten Anwendung vollzogen: Quantenprozessoren werden dort nicht im Elfenbeinturm der Isolation betrieben, sondern als Beschleuniger in bestehende HPC-Workflows integriert.
Chinas neue Quantenmaschine rechnet eine Million Mal schneller als Googles.
(Bild: USTC)
Systeme wie „Zuchongzhi-3.0“ mit über 100 Qubits fungieren dabei keineswegs als bloßer Ersatz für herkömmliche Supercomputer. Sie agieren als hochspezialisierte Werkzeuge innerhalb einer „Quantum-Classical Hybrid Cloud“: Während der Quantenpfad komplexe kombinatorische Optimierungsprobleme löst, übernimmt der klassische HPC-Cluster die Orchestrierung der Simulation, die Kontrolle der Datenbewegung und die Verifikation der Ergebnisse.
Fast surreale Geschwindigkeit
In der Zuchongzhi‑Architektur sind die Qubits nicht starr miteinander verbunden. Der 105‑Qubit‑Prototyp aus der der Zuchongzhi‑3.x‑Serie supraleitender Quantenprozessoren arbeitet mit 182 Kopplern, die wie intelligente Schalter agieren.
„Jiuzhang“, ein photonischer Quantenchip aus China.
(Bild: Chao-Yang Lu/University of Science and Technology of China)
Sie können die Interaktion zwischen benachbarten Qubits extrem schnell an‑ und ausschalten oder in ihrer Stärke modulieren, um Fehler durch ungewollte Rest‑Interaktionen zu minimieren. Das ermöglicht 2‑Qubit‑Gate‑Fidelities von 99,62 Prozent bei einer Kohärenzzeit von 72 μs (99,90 Prozent im 1‑Qubit‑Bereich).
Als entscheidender Benchmark dient ein 83‑Qubit‑RCS‑Experiment (Random Circuit Sampling) über 32 Layer. Die Überlegenheit gegenüber klassischer Hardware wirkt hier fast surreal: Das Quantensystem erledigt in wenigen hundert Sekunden, wofür klassische Exascale‑Systeme wie „Frontier“ oder „Jupiter“ rechnerisch Milliarden Jahre benötigen würden (auch wenn die Klassiker deutlich universeller bleiben). USTC spricht von einer Beschleunigung in der Größenordnung von „10^15-fach“ gegenüber dem schnellsten klassischen System.
Bemerkenswert ist jedoch, wie explizit die chinesischen Begleittexte von Institutionen wie der USTC und der CAS inzwischen einräumen, dass der „Quantum Advantage“ ein bewegliches Ziel bleibt. Mit Verweis darauf, dass der „Google Sycamore“-Claim von 2019 durch Fortschritte bei GPU-Clustern und verbesserten Algorithmen stark relativiert wurde, betonen sie die Notwendigkeit, Quanten-Benchmarks permanent gegen die besten bekannten klassischen Algorithmen zu kalibrieren.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Für die Enterprise-IT bedeutet dies einen Paradigmenwechsel: Die Debatte verschiebt sich weg von der theoretischen „Supremacy“ hin zu harten Engineering-Metriken wie Drift-Kontrolle, Cloud-Zugängen und stabilen Toolchains.
Der Trend zur Kommerzialisierung von Quantencomputing-Leistung wird durch Telco‑getriebene Cloud‑Plattformen greifbar. So berichtete Xinhua im Oktober 2025 über ein kommerziell eingesetztes System „ähnlich Zuchongzhi 3.0“ mit 105 lesbaren Qubits und 182 Kopplern. Aufgebaut wurde es durch ein Team von China Telecom Quantum Group und QuantumCTek und angebunden an die „Tianyan“‑Plattform.
Montage- und Inbetriebnahmebereich Y3 in einem Labor von Origin Quantum Computing in China.
(Bild: Origin Quantum)
Tianyan als Quantum-Cloud habe seit ihrem Start im November 2023 laut chinesischen Staatsmedien Millionen Zugriffe aus Dutzenden Ländern verzeichnet. Der nächste Skalierungsschritt soll Tianyan‑504 mit dem 504‑Qubit‑Chip „Xiaohong“ in die Plattform integriert und weltweit zugänglich gemacht werden.
Die Bereitstellung eines Cloud-beschleunigten Experimentier-Accelerators markiert einen Wendepunkt in der Kommerzialisierung von Quanten‑HPC: weg von isolierten Labor‑Experimenten hin zu regulär buchbaren Cloud‑Diensten für Enterprise‑Workloads.
„Origin Wukong“, die dritte Generation des Quantencomputers von Origin Quantum.
(Bild: Origin Quantum)
Eine begleitende Publikation vom Ende des Jahres 2025 belegt zudem die technische Reife der Hybridisierung. Durch das Open-Source-SDK „Cqlib“ als Full-Stack-Baustein gelang bereits 2023 die nahtlose Integration eines 176-Qubit-Systems in einen HPC-Cluster.
Dass dies keine bloße Theorie ist, zeigen dokumentierte Cloud-Services für RCS-Experimente, bei denen 74 Qubits über 24 Zyklen eine Million Samples in nur 18,4 Minuten lieferten – eine Aufgabe, für die klassische Systeme in der Publikation mit rund 16.000 Jahren veranschlagt werden.
Quantum as a Service
Origin Quantum hat inzwischen mit der „Wukong“-Serie den Sprung zum Quantum-as-a-Service (QaaS) vollzogen. „Origin Wukong“ ist ein 72‑Qubit‑System, ebenfalls supraleitend, das die gleichen Designprinzipien in produktnahe, kommerziell ausrollbare Maschinen (QaaS, automatisiertes Chip‑Testing, „Tianji“‑Control‑Stack) übersetzt. Mit „Tianji 4.0“ steht dafür nun eine vierte Generation des Quantum‑Control‑Systems bereit, die als skalierbare Steuer‑ und Ausleseplattform mehr als 500 Qubits in standardisierten, weitgehend automatisierten Workflows ansprechen kann.
„ez-Q Engine 2.0“, ein Quanten-Mess-und Kontrollsystem des chinesischen Startups QuantumCTek Co. für Quantencomputer mit über 1.000 Qubits, soll laut Angaben chinesischer Medien den Quantenchip „Zuchongzhi 3.0“ steuern und mehreren Institutionen insgesamt über 5.000 Qubits an Kontrollkapazität bereitstellen.
(Bild: QuantumCTek Co)
Origin Wukong, die dritte Generation der supraleitender Quantencomputer von Origin Quantum, stellt der Welt seit mehr als einem Jahr Quantenrechenleistung zur Verfügung. Der Dienst wurde laut dem Anbieter von Nutzern aus 139 Ländern und Regionen der Welt mehr als 22 Millionen Mal aufgerufen und habe erfolgreich 340.000 globale Quantencomputing-Aufgaben abgeschlossen.
Komplexe Logistik- und Materialsimulationen werden in China fortan über hybride Clouds gelöst, die Quanten- und klassisches HPC-Computing verschmelzen.
RISC-V für Rechenzentren
Parallel dazu schiebt China RISC-V aus der Nische ins Rechenzentrum. Während der Westen operativ weiter stark auf x86 und ARM baut, wird RISC‑V in China 2026 zur Server‑Option mit Ambitionen: Neue Chips aus dem lokalen Ökosystem – etwa von Spacemit (in erster Linie aus dem breiteren RISC-V-Ökosystem heraus, bislang sichtbar vor allem in Embedded- und PC-Klassen) – sollen in Leistungsregionen vorstoßen, die bislang von „Xeon“‑Klassen dominiert wurden, jedoch mit besserer Energiebilanz.
RISC‑V ist eine offene, lizenzfreie ISA, die von RISC‑V International, einer gemeinnützigen Stiftung mit Sitz in der Schweiz, als globaler Standard gepflegt wird. Jede Firma oder jedes Land kann die Spezifikation kostenlos nutzen und eigene Implementierungen bauen. Die lizenzfreie Architektur ermöglicht es Unternehmen, hochspezialisierte KI-Beschleuniger direkt in die CPU zu integrieren.
Offene Designs sparen Entwicklungsaufwand und verschieben die Wertschöpfung in höherwertige Ebenen wie SoC‑Integration, Tools und Services. China macht sowohl aus der offenen ISA als auch aus vielen der offenen RISC‑V‑Cores Gebrauch, aber nicht nur.
Weg von MIPS
Lange Zeit basierte Loongson seine Prozessoren „Longxin“ auf einer modifizierten MIPS-Architektur. Doch mit der geopolitischen Zeitenwende vollzog das Unternehmen den radikalsten Schritt der Halbleiterbranche: die Abkehr von fremden IP-Kernen mit einer Architektur mit der Bezeichnung „Loongarch“.
Loongarch ist eine eigenständige Reduced Instruction Set Computer (RISC)-Architektur, die zwar konzeptionell Ähnlichkeiten zu RISC-V und MIPS aufweist, diese aber um über 2.500 proprietäre Instruktionen erweitert. Das Ziel: Ein Befehlssatz, der modernste Features wie binäre Translation, zur Ausführung von x86/ARM-Code, nativ unterstützt, ohne Lizenzgebühren oder Sanktionsrisiken. So entsteht ein vertikal integriertes Ökosystem mit dem Ziel, die Kontrolle über den gesamten Software-Stack an sich zu reißen.
Im Rack zählen hauptsächlich zwei Parameter: die Performance pro Watt und die Skalierbarkeit. Mit dem „Loongson 3C5000“ hat das Unternehmen einen Server-Prozessor mit 16 Kernen (LA464) und Unterstützung von Multi-Way-Interconnects im Feld. In 4-Sockel-Konfigurationen ergibt das 64 Kerne pro Node. Das entspricht einem Setup, das bereits heute kritische Infrastrukturen in China antreibt.
Die 3-D-Serie
Doch der eigentliche Gamechanger ist die 3D-Serie, „3D7000“, bei der Loongson auf ein Chiplet-Design setzt. Durch die Verbindung zweier 16-Kern-Dies auf einem Package verdoppelt Loongson die Kapazität, ohne auf extrem komplexe (und sanktionierte) Monolith-Fertigungsverfahren angewiesen zu sein.
Für das Datacenter-Management bedeutet das: Die Lücke zu AMDs „Epyc“- oder Intels Xeon-Clustern schließt sich im Bereich der Standard-Enterprise-Workloads rapide.
Loongson hat aber auch erkannt, dass die CPU allein nicht reicht. Mit der Vorstellung von „9A1000“ hat das Unternehmen seine Ambitionen im Bereich der GPGPUs (General Purpose Graphics Processing Units) untermauert.
Proprietär oder offen?
Die Architektur zieht Synergien aus der Loongarch-CPU. Während sie in puncto Peak-TFlops bei LLM-Training einer „H200“ noch nicht „das Wasser reichen“ kann, zielt sie auf Inferenz-Workloads und Edge-Computing ab. Für Administratoren ist allerdings die Integration der entscheidende Vorteil: Loongson arbeitet an einer einheitlichen Programmierplattform, die den administrativen Overhead bei der heterogenen Ressourcenplanung minimieren soll.
Die Kombination aus der autarken Loongarch-Instruktionsmenge, dem effizienten Chiplet-Ansatz bei Server-CPUs und der Expansion in den GPGPU-Markt macht Loongson zum technologischen Vorposten einer neuen, bipolaren IT-Welt. Allerdings: Während Loongson mit einer proprietären Architektur den Weg der maximalen Isolation geht, sind Rivai und Spacemit die Speerspitze der RISC-V-Offensive Chinas.
Rivai Technologies ist eng mit der Halbleiter-Sparte von Alibaba verknüpft und konzentriert sich primär auf das High-End-Segment und die Infrastruktur. In den Jahren 2025/2026 hat das Unternehmen den ersten echten RISC-V-Server-Chip für HPC-Lasten herausgebracht.
Die AI-CPU
Spacemit baut eine beschleunigte AI-CPU für den Edge-Bereich auf der Basis von RISC-V. Sie ist vollständig kompatibel mit dem RVA23-Standard. Die aktuelle Generation liefert mit 15 bis 25 Watt bis zu 60 TOPS an KI-Rechenleistung direkt im Prozessor.
Rivai und Spacemit haben den RISC-V-Standard im Rechenzentrum noch nicht „flächig etabliert“. Analysten sprechen explizit von kleinmaßstäblichen Deployments ab etwa dem vierten Quartal 2026, PoCs, vertikalen Szenarien (HPC, Storage, LLM‑Inference) und politisch flankierten Beschaffungsmaßnahmen. Während x86/ARM in den meisten kritischen Workloads zwar weiterhin dominieren, beginnen sie, an Boden zu verlieren.
Inspur, der führende Systemintegrator im Reich der Mitte, ist im Serverbau CPU-agnostisch. Das Unternehmen baut Server sowohl mit Loongson als auch mit „Kunpeng“, den ARM-basierten Chips von Huawei und Rivai GPGPUs.
KI als ein einseitiger Hebel
Der dritte Hebel ist KI, jedoch nicht in der westlichen Logik der Token-Maximierung. Im Jahr 2026 zeichnet sich in China eine klare Abkehr vom Modell-Gigantismus ab: Chinesische Institute rund um Entwicklungen wie „Deepseek“ treiben „Reasoning-Native AI“ als Effizienzprogramm voran.
Das Aufkommen von Deepseek, Moonshot AI, Minimax & Co. - vor dem Grundrauschen lautstarker Vorwürfe von Anthropic über vermeintliche Modelldistillation – markiert eine neue, infrastrukturell relevante Ausprägung chinesischer Foundation-Model-Strategie. Das „Aufholen“ tritt gegenüber aggressiver Produktisierung über offene Modellfamilien, Effizienz-Architekturen und Preis-Leistungs-Kurven in den Hintergrund.
Deepseek hat diesen Kurs früh sichtbar gemacht, etwa mit Deepseek-V3 als Mixture-of-Experts-Modell (671 B Gesamtparameter, 37B aktiv pro Token) – sowie der Veröffentlichung von Deepseek-R1 samt technischer Dokumentation und MIT-Lizenz, welche kommerzielle Nutzung und explizit auch Distillation erlaubt.
Der Deepseek-Effekt
Für Rechenzentrums- und Cloud-Entscheider wirft der Sachverhalt eine Beschaffungsfrage auf: Offene, gut dokumentierte Modelle lassen sich schneller in Private-Inference-Stacks integrieren. Sie reduzieren Vendor-Lock-in und verschieben die Optimierung von „bestes Modell“ hin zu „bestes Gesamt-SLO pro Watt, Euro und Governance-Aufwand“. Der Fertigungsstandort wird zum Hebel.
Der neue Architektur- und Trainingsansatz zielt auf mehr logische Leistungsfähigkeit pro Rechenoperation ab. Für eine definierte Inferenzleistung lässt sich bei Deepseek-R1 keine pauschale „Ersparnis“ an Rechenleistung seriös behaupten. Aber MoE-Mechanismen (Aktivierung nur eines Parameter-Teils pro Token), Inference-/Serving-Optimierungen, zum Beispiel Expert-Parallelism, Hotspot-Expert-Replikation und spekulatives Decoding, sowie Post-Training können die Kosten-/Leistungs-Kurve spürbar verschieben. Das ist ein Effekt, den Deepseek in seinen Reports explizit über Effizienz- und Trainingskennzahlen adressiert.
Gleichzeitig wird die zweite Ebene der Debatte lauter: Marktdruck, Kapital und Provenienz. Moonshot (Kimi) sondiert laut Berichten Finanzierungsrunden im Bereich einer zweistelligen Milliardenbewertung, während Minimax Anfang Januar 2026 mit einem IPO-Erlös von rund 4,8 Milliarden Honkong-Dollar, mehr als 520 Millionen Euro) auf dem Parkett in Hongkong debütierte.
Offene Fragen
Minimax positioniert „M2.5“ und die schnellere Variante „M2.5-Lightning“ explizit über Durchsatz (100 Token/s) und Token-Preise. Und doch hängt über diesem Momentum ein Fragezeichen.
Guangyao Zhu, stellvertretender Leiter der Abteilung für Dienstleistungshandel des Handelsministeriums der Volksrepublik China, während eines Seminars der China-EU Digital Services Corporation am zweiten Tag des „Web Summit 2025“ in der MEO Arena in Lissabon, Portugal.
(Bild: Ramsey Cardy/Web Summit via Sportsfile)
Im Westen zählen neben rohen Leistungswerten auch Aspekte wie Datenschutz und die Nachvollziehbarkeit von Trainings‑ und Datenherkunft zu den Anforderungen. Daraus ergibt sich für westliche KI‑Anbieter die Notwendigkeit hieb‑ und stichfester Fähigkeiten, ihre Modelle in kontrollierten Umgebungen belastbar zu auditieren, ein Anspruch, der im Kern nur innerhalb der Regulatorik und Jurisprudenz einiger weniger Rechtsordnungen tatsächlich handlungsleitend ist.
Anthropics Vorwurf, Deepseek, Moonshot und Minimax hätten „Claude“ mittels „Distillation“ über zehntausende synthetische Benutzerkonten im industriellen Maßstab angezapft, verhallt jedoch vorerst.
Das Verschmelzen von Sensorik mit dem Netzwerk
Das vierte strukturbildende Technologie-Element im „Sino‑Stack“ ist die Aufhebung der Grenze zwischen Netzwerk und Sensorik. Der Mobilfunk ab der 5.5G-Generation (5G-Advanced) kann die Physik des Ortes 'anfühlen' und 'abtasten'.
Wer schon einmal in Shenzhen war, weiß, dass hier selbstfahrende Autos eine wichtige Rolle spielen. Hier ist das Zusammenspiel von Sensorik und IT in wahrstem Wortsinn erfahrbar.
(Bild: Bundesregierung/Guido Bergmann)
Mit der flächendeckenden Implementierung von 5.5G (5G-Advanced) und Integrated Sensing and Communication (ISAC) verwandeln sich Funknetze in eine Wahrnehmungsinfrastruktur, die Licht- und Funkwellen kombiniert. Mobilfunkmasten agieren nicht mehr ausschließlich als Kommunikationsvermittler, sondern auch als Radarsensoren, die ihre physische Umgebung laufend erfassen und auswerten.
Ein Fabriknetz kann dadurch Objekte im Raum, ihre Bewegungsrichtung und Geschwindigkeit per Mobilfunk überwachen, ohne zusätzliche Sensorik dafür zu benötigen. Das Edge-Rechenzentrum verarbeitet diese Umgebungsdaten in Echtzeit und speist sie direkt in autonome Logistik, Safety-Zonen, Asset-Tracking oder Prozesssteuerung ein.
Photonik und EUV-Lithografie
Bei hochverdichteten Server‑Racks einer KI-Fabrik wird jeder zusätzliche Kupfer‑Link zum Kompromiss zwischen Bandbreite, Reichweite und Kühlaufwand. Hier setzt Photonik an: Unternehmen wie Alibaba und Inspur integrieren photonische Chips direkt in ihre KI-Server-Architekturen.
China bringt 2026 optische Chip-zu-Chip-Kommunikation aus der Roadmap in Pilot- und Vorserien-Deployments in Richtung Serienfertigung. Ein von Branchenallianzen getriebener Standard für das Design und Packaging von Silizium-Photonik-Chips soll Packaging-Interfaces und Design-Rules vereinheitlichen und damit perspektivisch auch die Abhängigkeit von westlichen Design-Tools (EDA) verschieben.
Am stärksten profitieren davon AI-Cluster-Fabrics, Switch-Backplanes und scale-up/scale-out-Interconnects, überall dort, wo elektrische I/O zum Power- und Signal-Integrity-Bottleneck wird. Doch das ist erst der Anfang. China nutzt Lichttechnologien mittlerweile auch als strategischen Hebel, um westliche Exportbeschränkungen bei High-End-Chips zu umgehen.
In der chinesischen Photonik vollzieht sich aktuell ein massiver Umbruch. Die Krönung war die Inbetriebnahme eines funktionsfähigen EUV-Prototypen (Extreme Ultraviolet) in Shenzhen Anfang 2026. China hat ein nationales Konsortium, angeführt von Huawei und Forschungsinstituten, mobilisiert. Berichten zufolge nutzt der Prototyp eine LDP-Lichtquelle (Laser-Driven Plasma). Bis 2028 sollen damit erste KI-Chips in Massenproduktion gehen.
Das „Hetao Open Innovation Center Shenzhen“ wurde von dem deutsch-österreichischen Architekturbüro Schneider+Schumacher umgesetzt.
(Bild: Schneider+Schumacher)
Bis 2028 sollen damit erste KI-Chips in Massenproduktion gehen. Chinas EUV-Lithographiemaschine markiert das Ende der technologischen Isolation bei Strukturbreiten von 7nm und darunter.
Parallel dazu forscht die Tsinghua-Universität an einem völlig neuen Konzept mit der Bezeichnung „Steady-State Microbunching“ (SSMB). Hierbei dient ein ganzer Teilchenbeschleuniger als Lichtquelle, was die Leistung der EUV-Strahlen massiv erhöhen und die Chipfertigung potenziell effizienter als das bisherige ASML-Verfahren machen könnte.
Alibaba, Huawei und Tencent
Die Spitze des Sino-Stacks reiten die drei hyperskalaren Cloud-Giganten: Alibaba, Huawei und Tencent. Alibaba Cloud dominiert den kommerziellen Sektor mit seinem KI-Ökosystem („Qwen“-Serie) und trumpft mit der tiefsten Integration von Agentic AI in Geschäftsprozesse auf. Alibaba Cloud führt den Markt nach Anteil im China-Cloud-Infrastructure-Geschäft an und positioniert Qwen plus Agent-Werkzeuge als Produktisierungsschicht – „tiefste Integration“ bleibt dabei naturgemäß eine Marketing-Behauptung, keine harte Metrik.
Huawei Cloud hat sich als Standard für die Industrie und den Staatssektor etabliert. Durch die eigene Chip-Sparten „Ascend“ und „Kunpeng“ bietet Huawei den einzigen komplett sanktionsresistenten Full-Stack vom Silizium bis zur ERP-Schnittstelle.
Huawei Cloud ist (nach Marktanteilen) eine der beiden großen Verfolger im Infrastrukturgeschäft und spielt im staatlich/industriell geprägten Umfeld eine zentrale Rolle; Ascend und Kunpeng sind wichtige Bausteine für vertikale Integration, aber „komplett sanktionsresistent“ ist der Stack nicht, allein schon wegen Abhängigkeiten bei Fertigung, Optiken/Metrologie, EDA-Toolchains und Komponentenökosystemen.
Das „Hetao Open Innovation Center“
(Bild: Schneider+Schumacher)
Tencent Cloud besetzt die Nische für hochperformante Real-Time-Kollaboration und Edge-Szenarien. Tencent Cloud ist im China-Markt ein Top-3-Player und profitiert strukturell von Echtzeit-Workloads (Gaming, Social, Media) – daraus leiten sich Edge- und Low-Latency-Stärken ab, die aber je nach Branche stark variieren.
Ihr Fazit lautet: Chinas 'IT-Politik' ist eine Stack-Strategie. Quantenbeschleuniger ergänzen HPC, RISC-V schafft architektonische Gestaltungsmacht, reasoning-effiziente KI senkt Compute-Anforderungen, 5.5G/ISAC verlagert Wahrnehmung in das Netzwerk, und Photonik stabilisiert den Datentransport im Rechenzentrum.
Mit genau dieser Verzahnung vollzieht China den Übergang von der technologischen Adaption zur architektonischen Souveränität. Das neue Referenzmodell für Enterprise-IT ist kein bloßes Abbild westlicher Konzepte, sondern eine tief vertikal integrierte Volks-IT, die in Teilen bald bereit sein dürfte, sich vollständig zu entkoppeln.
Für europäische Firmen bedeutet dies in erster Linie das Ende der 'One Global IT'. Wer in China effizient produzieren will, muss sich mit dem lokalen Referenzmodell anfreunden. Dies erfordert eine Dual-Stack-Strategie und schafft eine Welt von zwei Geschwindigkeiten.