Vom Labor in die Praxis Acht Punkte zum Stand des Quantencomputing 2026

Ein Gastbeitrag von Mark Mattingley-Scott und Florian Preis* 3 min Lesedauer

Quantencomputing ist 2026 keine Science-Fiction mehr, sondern bewegt sich deutlich in Richtung Produktivität. Die Technologien haben die Phase reiner Machbarkeitsdemonstrationen weitgehend verlassen, der breite industrielle Durchbruch ist nur noch eine Frage der Zeit, der Finanzierung – und der geeigneten Use Cases.

Der Anspruch von Quantum Brlliance ist es, mithilfe von Diamanten-Spin Quantencomputer zu bauen, die bei Raumtemperatur funktionieren. Daniel Schrader, Redakteur bei DataCenter-Insider hat die Chefs,F lorian Preis, Vizepräsident, Quantensysteme und -lösungen  und Strategieleiter, sowie ark Mattingly-Scott ist der Geschäftsführer von Quantum Brilliance in Deutschland, im Podcast befragt. (Bild: ©  Thaweechai - stock.adobe.com / KI-genereiert)
Der Anspruch von Quantum Brlliance ist es, mithilfe von Diamanten-Spin Quantencomputer zu bauen, die bei Raumtemperatur funktionieren. Daniel Schrader, Redakteur bei DataCenter-Insider hat die Chefs,F lorian Preis, Vizepräsident, Quantensysteme und -lösungen und Strategieleiter, sowie ark Mattingly-Scott ist der Geschäftsführer von Quantum Brilliance in Deutschland, im Podcast befragt.
(Bild: © Thaweechai - stock.adobe.com / KI-genereiert)

1. Quantencomputer sind effiziente Spezialisten, aber keine Universalbeschleuniger

Quantencomputer zeigen ihre Stärke dort, wo sich Probleme als komplexe Wahrscheinlichkeitsrechnungen darstellen. Vor diesem Hintergrund ermöglichen sie es beispielsweise, mit spezifischen Algorithmen extrem effizient unsortierte Datenräumen zu durchforsten. Viele Optimierungsprobleme, bei denen eine bestmögliche Lösung aus einer Vielzahl von Möglichkeiten gefordert ist, können als solche Suchprobleme formuliert werden und profitieren damit direkt von Quantencomputing.

Klassische Workloads, etwa ERP-Systeme, Datenbanken oder Office-Anwendungen, stellen andere Anforderungen und laufen deshalb auf einem Quantencomputer nicht zwangsläufig effizienter. Quantencomputer sind also Spezialisten für bestimmte mathematische Probleme, dort extrem leistungsfähig und damit als Ergänzung und Entlastung für bestehende Computer prädestiniert.

2. Quantencomputer können viele Optimierungsprobleme hervorragend lösen, aber nicht alle

Ein weitverbreitetes Missverständnis ist, dass Quantencomputer beliebige kombinatorische Probleme effizient lösen könnten. Das stimmt für viele Anwendungen, aber nicht für jede.

NP-vollständige Probleme als komplexeste Herausforderungen, zum Beispiel die bekannte „Travelling-Salesman“-Aufgabe, lassen sich bislang von keinem Quantenalgorithmus generell effizient bearbeiten. Gleichzeitig zeigen heuristische Quantenverfahren in ersten Studien, dass sie bei konkreten Optimierungsproblemen aus der Praxis – etwa in Logistik, Produktionsplanung oder Energienetzen – dennoch helfen können, schneller hochwertige Näherungslösungen zu finden.

Was sind NP-Probleme?

NP-vollständige Probleme, NP steht für Nondeterministic Polynomial (time), sind eine Klasse besonders schwieriger Entscheidungsprobleme aus der Computational Complexity Theory. Sie besitzen zwei zentrale Eigenschaften:

  • NP-Eigenschaft - Eine vorgeschlagene Lösung lässt sich in polynomieller Zeit überprüfen (Klasse NP).
  • NP-Härte - Jedes andere Problem aus NP lässt sich in polynomieller Zeit auf dieses Problem reduzieren.

Damit gelten NP-vollständige Probleme als die schwierigsten Probleme innerhalb von NP. Findet man für eines davon einen effizienten (polynomialen) Lösungsalgorithmus, könnte man damit alle NP-Probleme effizient lösen, was direkt mit der offenen Frage „P versus NP problem“ zusammenhängt.

Beisiele für NPProbleme:

  • Boolean Satisfiability Problem
  • Traveling Salesman Problem
  • Clique Problem

In der Praxis sind NP-vollständige Probleme häufig in der Optimierung, der Logistik, im Chipdesign, Scheduling oder in der Netzwerkplanung zu finden. Da exakte Lösungen oft zu aufwendig sind, arbeitet man meist mit Heuristiken, Approximationsalgorithmen oder eben Spezialhardware.

Bald umsetzbar sind Verbesserungen in Teilaspekten: Verschlüsselungsverfahren, Modellierung von Materialien oder medizinischen Wirkstoffen, effizientere Stichprobenverfahren und bessere heuristische Näherungen machen Navigation oder Produktionsplanung wirksamer. Das ist bereits heute als signifikante Effizienzsteigerung für viele Industrie-Anwendungen relevant.

3. Die Qubit-Zahl alleine sagt nicht alles über die Leistung eines Quantencomputers

Mit jedem Qubit verdoppelt sich die Zahl der Zustände, die ein Computer abbilden kann. Bereits wenige ideal verschaltete Qubits ergeben somit eine riesige Zahl von Kombinationen und damit von potenziell in einem Schritt verarbeitbaren Informationen.

DataCenter-Insider bietet eine Podcast-Folge zum Thema

Redakteur Daniel Schrader hat im virtuellen Studio mit Mark Mattingley-Scott, Europachef und Chief Revenue Officer, und Dr. Florian Preis, Vice President Quantum Systems and Solutions bei Quantum Brilliance gesprochen. Die Aufnahme stellt DataCenter-Insider zur Verfügung.

(Bildquelle: Vogel IT-Medien GmbH)
In der Folge #63 der DataCenter Diaries will Daniel Schrader mit Mark Mattingley-Scott und Florian Preis, bei den Quantum Brlliane, klären, was genau Quantencomputer gut können und was nicht? Mattingly-Scott sagt: „Es wäre absolut sinnlos, Office-Anwendungen auf Quantenchips zu betreiben.“ Außerdem geht es geht es um die spannende Technologie des Herstellers: Quantencomputer bei Raumtemperatur statt mit kryogener Kühlung und im Taschenformat als Einsteckkarte. Die Podcast-Folge #63 der DataCenter Diaries findet sich auf Spotify, Apple Podcasts, Deezer und Amazon Music

.

In der Praxis zählt jedoch nicht allein die Anzahl physikalischer Qubits, sondern deren Qualität. Entscheidend wird zunehmend die Zahl so genannter logischer Qubits, also durch Fehlerkorrektur stabilisierter Recheneinheiten. Industrielle Anwender interessiert vor allem architektonische Robustheit und Skalierbarkeit.

4. Der Quantenvorteil ist relativ, nicht absolut

Der Begriff „Quantum Advantage“ wird unterschiedlich interpretiert. In der Praxis bedeutet er, dass ein Quantencomputer eine klar definierte Aufgabe messbar schneller oder ressourcenschonender löst als ein klassisches System.

Für IT-Strategen ist entscheidend, ob dieser Vorteil unter realen Betriebsbedingungen Bestand hat, inklusive Datenübertragung, Fehlerkorrektur-Overhead, Energieverbrauch und Integration in bestehende IT-Landschaften. Ein isolierter Geschwindigkeitsvorteil im Labor ist noch kein tragfähiger Business Case.

5. Cybersecurity ist zugleich Risiko- und Innovationsfeld

Das voraussichtlich erste unternehmenskritische Anwendungsgebiet von Quantencomputing liegt im Bereich Kryptografie und zwar passiv und aktiv. Verfahren, die darauf bauen, dass eine Faktorisierung zur Entschlüsselung zu schwierig oder aufwendig ist, könnten durch leistungsfähige Quantencomputer angreifbar werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Gleichzeitig eröffnet die Technologie neue Sicherheitsmechanismen: zertifizierbare Quanten-Zufallszahlen, quantenbasierte „Physical Uncloneable Functions“ oder einmalig nutzbare Signaturen. Quantencomputing ist somit nicht nur Bedrohung bestehender Sicherheitsarchitekturen, sondern auch Quelle neuer Schutzkonzepte. Hier müssen Hardware-Anbieter, Security-Spezialisten und Anwenderunternehmen zusammenarbeiten, um robuste, praxisgerechte Lösungen zu entwickeln.

6. Kein Entweder-oder: Hybride Systeme rücken in den Vordergrund

So faszinierend Quanten-Großcomputer mit ihrer Rechenpower sind, für viele Anwendungen in der Unternehmenspraxis sind sie nicht das passende Werkzeug. Der wahre Innovationshebel liegt oft in der Kombination klassischer Hochleistungsrechner mit spezialisierten Quantenbeschleunigern.

Unternehmen analysieren gezielt, welche Workloads prinzipiell quantenaffin sind und wie hybride Architekturen aussehen könnten. Hier sind kleinere, dezentral zu betreibende Quantencomputer im Vorteil, die Energie-effizient arbeiten und keine aufwendige Peripherie benötigen.

Für die wirtschaftliche Nutzung von Quantencomputing rückt daher weniger die maximale Leistungsfähigkeit eines einzelnen Systems in den Fokus, sondern der Rechendurchsatz über viele parallele Einheiten. In realen Unternehmensanwendungen entstehen quantenrelevante Aufgaben meist nicht als einzelnes großes Problem, sondern als Vielzahl ähnlicher Berechnungen, etwa bei Optimierungs-, Simulations- oder Samplingverfahren. Werden diese auf mehrere Quantenbeschleuniger verteilt, lässt sich die verfügbare Rechenleistung effizient vervielfachen.

Entscheidend ist daher eine Architektur, die horizontale Skalierbarkeit und elastische Nutzung ermöglicht, ähnlich wie in modernen Cloud- und HPC-Infrastrukturen. Quantenprozessoren werden dabei als spezialisierte Beschleuniger in bestehende Rechenzentren integriert und je nach Bedarf zugeschaltet. Diese Kombination aus Parallelisierung, skalierbarem Durchsatz und flexibler Ressourcenbereitstellung gilt als zentraler Baustein, um Quantencomputing aus experimentellen Demonstrationen in wirtschaftlich tragfähige Anwendungen zu überführen.

7. Hardware-Ökosysteme entwickeln sich parallel

Neben supraleitenden Qubits und Ionenfallen rücken alternative Ansätze zunehmend in den Vordergrund. Besonders interessant sind diamantbasierte Architekturen, die bei Raumtemperatur betrieben werden können. Der Wegfall komplexer Kühltechnik erleichtert die Miniaturisierung bis hin zum mobilen Einsatz und damit die industrielle Integration.

8. Deutschlands Chance liegt in Integration und Skalierung

Der Standort Deutschland verfügt über exzellente Forschung, Fachkräfte, industrielle Kernbranchen und hat Europas regulatorische Durchsetzungsfähigkeit an der Seite. Nicht ohne Grund findet hier ein wichtiger Teil des weltweiten Quantenfortschritts statt.

Wenn es gelingt, die vorhandenen Standortvorteile zu nutzen, namentlich technologische Integration und industrielle Skalierung, dann kann das Quantencomputing zu einer Disziplin werden, die von Europa zumindest mitbestimmt wird. Der entscheidende Aufholbedarf liegt in einer verlässlichen Finanzierung, um Potenziale in kommerzielle Erfolge umzuwandeln.

Das Autorenduo*

Bildquelle: Quantum Brilliance

Mark Mattingly-Scott ist der Geschäftsführer von Quantum Brilliance in Deutschland sowie verantwortlich für die Präsenz von Quantum Brilliance in Europa. Vor seiner Tätigkeit bei Quantum Brilliance leitete Mark das Quantum Ambassador-Programm von IBM und führte ein internationales Team von mehr als 250 Experten, das für die Geschäftsentwicklung, den Vorverkauf und den technischen Vertrieb für das kommerzielle Quantum Network von IBM zuständig war. Bis 2022 war er deutscher Delegierter in der Expertengruppe für neue und disruptive Technologien der NATO und war direkt an der Konzeption des Innovationsfonds der NATO und der NATO DIANA beteiligt.

Bildquelle: Quantum Brlliance


Dr. Florian Preis ist Vizepräsident, Quantensysteme und -lösungen bei Quantum Brilliance und Strategieleiter. Unter seiner Führung hat das Unternehmen das Open-Source-SDK „Qristal“ und Emulationsfunktionen entwickelt, die die Programmierung, Simulation und Systemintegration von Diamant-Quantenbeschleunigern bei Raumtemperatur ermöglichen.

Die beiden sagen: Deutschland steht bei den entsprechenden internationalen Patentfamilien weltweit an fünfter Stelle und stellt 5,8 Prozent der Quanten-Kernunternehmen weltweit. Gleichzeitig fließen jedoch lediglich 2,9 Prozent der globalen Finanzmittel in den Standort, während alleine in den USA 60 Prozent investiert werden. Wenn sich das ändert, hat die Technologie in Deutschland das Zeug, die Bedeutung einzunehmen, die wir von der Automobilindustrie kennen.

Artikelfiles und Artikellinks

(ID:50779125)