Einladung zum Bitkom Quantum Summit 2023 HPC und Quantencomputing - ein Power-Duo
Anbieter zum Thema
Während die wirtschaftlichen Potenziale von Quantencomputing immer mehr in den Fokus rücken, liegt der wahre Schlüssel für einen breiten Einsatz und die Anwendung von Quantensystemen in ihrer nahtlosen Integration in existierende und sich entwickelnde Hochleistungsrechnerinfrastrukturen. Ein Schulterschluss dieser beiden Technologien eröffnet ungeahnte Möglichkeiten für komplexe Berechnungen in Wirtschaft und Wissenschaft.

Dies erfordert aber auch eine aktive Beteiligung potenzieller Nutzerinnen und Nutzer, um künftige Supercomputing-Systeme für ihre individuellen Anwendungen maßzuschneidern.
Moderne Hochleistungsrechner sind in der Lage, über Hunderte Billiarden (1015) Operationen pro Sekunde zu rechnen und somit enorme Menge von Berechnungen gleichzeitig durchzuführen. Damit lassen sich zum Beispiel große KI-Modelle mit Tausenden von Variablen trainieren, Modelle für den Klimawandel berechnen oder der Ausbruch und der Verlauf von Epidemien simulieren.
Die perfekte Symbiose: Wie HPC vom Quantencomputing profitiert und umgekehrt
Dennoch stoßen herkömmliche Hochleistungsrechner an ihre Grenzen, wenn es um äußerst präzise Einschätzungen oder die Berechnung komplexer Moleküle oder physikalischer Systeme geht. Neben den technologischen Herausforderungen stellt die steigende Komplexität der Probleme auch immer höhere Anforderungen an die Energie-Effizienz der Datenverarbeitung.
Quantencomputer können Hochleistungsrechner dabei unterstützen, indem sie als Beschleuniger bestimmte Teile von Problemen übernehmen und diese deutlich schneller, effizienter oder präziser berechnen. Somit werden die Quantum Processing Units (QPUs) künftig mit „klassischen“ HPC-Akzelerationstechnologien wie Field-Programmable Gate Arrays (FPGAs) oder Application-Specific Integrated Circuits (ASICs) im Konzert spielen. Dies mündet in ein künftiges Paradigma des erweiterten Supercomputing, bei dem klassische und Quantentechnologien von Grund auf als eine Recheneinheit betrachtet werden.
High Performance Computing kann wiederum die Daten für Quantencomputing-Algorithmen vorab verarbeiten und in optimierter Form bereitstellen. Klassische HPC-Systeme können darüber hinaus helfen, Fehler in den Quantencomputerberechnungen, die durch Rauschen entstehen, zu mitigieren und so die noch fehleranfälligen Quantencomputer früher für reale Anwendungen nutzbar machen.
Denn tatschlich: Eine der größten Herausforderungen bei Quantencomputersystemen ist derzeit das Rauschen. Doch durch den Einsatz von Hochleistungsrechnern können so genannte „Error Mitigation“-Aufgaben ausgeführt werden. Das bedeutet, dass das erzeugte Rauschen für konkrete Algorithmen geschätzt und während der Berechnungen unterdrückt werden kann. Kürzlich wurde für einen bestimmten Anwendungsfall in mathematischen Modellen, die große magnetische Systeme beschreiben, demonstriert, dass Quantenrechner mit dieser Technik mittlerweile mit herkömmlichen Hochleistungsrechnern auf Augenhöhe sind.
Darüber hinaus ermöglicht HPC den Anwenderinnen und Anwendern durch HPC-basierte Brückentechnologien einen früheren und einfacheren Einstieg in die Entwicklung von Quantencomputing-Anwendungen. Quantensimulatoren können zum Beispiel einen Quantencomputer bis zu einer bestimmten maximalen Anzahl von Qubits auf Standardhardware simulieren und eignen sich vor allem für Trainings- und Ausbildungszwecke sowie zum Testen neuer Algorithmen.
Quantenemulatoren, bei denen Quanteneffekte in spezieller Siliziumtechnologie emuliert werden, versprechen Vorteile insbesondere bei der Lösung kombinatorischer Optimierungsprobleme. Durch die Unterstützung von HPC können Entwicklerinnen und Entwickler schneller experimentieren und ihre Anwendungen für den Einsatz auf Quantencomputern vorbereiten.
Für welche Anwendungen ist die hybride Lösung besonders interessant?
Ein hybrider Ansatz, der sowohl klassische als auch quantenmechanische Rechenteile miteinander verknüpft, zeigt spannende Aussichten vor allem für die mathematischen Probleme, die durch so genannte Variational-Quanten-Algorithmen (VQA) dargestellt werden könnten. Eine breite Palette von Problemen lässt sich in solche Algorithmen übersetzen.
- In der Quantenchemie können diese Algorithmen verwendet werden, um die elektronische Struktur von Molekülen zu simulieren und Energieniveaus oder Reaktionspfade zu berechnen.
- Im Bereich des maschinellen Lernens bergen sie das Potenzial, zur Optimierung von neuronalen Netzen oder zur Verbesserung von Mustererkennungsaufgaben beizutragen.
- Eingesetzt im Finanzbereich können damit komplexe Optimierungsprobleme gelöst werden, die bei der Portfolio-Optimierung, der Risikobewertung oder bei der Entwicklung von Handelsstrategien auftreten.
- Ein weiteres Beispiel im Finanzbereich stellt die Transaktionsabwicklung dar. Hierbei könnten Quantenrechner der Clearingstelle helfen, den Handel mit Finanzinstrumenten durch Maximierung der Volumina der jeweils abgewickelten Geschäfte zu optimieren.
Die Grundpfeiler des Erfolgs für hybride Quanten-Klassik-Supercomputer
Um die visionäre Idee eines quantenklassischen Supercomputers zu verwirklichen, sind folgende vier Komponenten von besonderer Bedeutung:
Weiterentwicklung von Quanten-Systemen: Grundlegende Schritte zur Verwirklichung dieser Vision sind die fortlaufende Skalierung und die Verbesserung der Stabilität und Fehlertoleranz von Quantensystemen. Dies bildet das Fundament für die Leistungsfähigkeit eines solchen hybriden Supercomputers.
QC-Anwendungen von Anfang an mitdenken: Um Quantencomputing effektiv zu nutzen, ist die nahtlose Integration in die Entwicklung von High Performance Computing (HPC)-Anwendungen von entscheidender Bedeutung. Hierbei kommt der Middleware eine zentrale Rolle zu, indem sie Programmier- und Infrastrukturabstraktionen ermöglicht und so die Anwendungsentwicklung erleichtert.
Effizientes Ressourcen-Management über klassische und Quanteninfrastruktur hinweg: Die Koordination und effiziente Ausführung von Anwendungen auf klassischer und Quanteninfrastruktur ist ein weiterer entscheidender Faktor. Die Ressourcen-Management-Schicht trägt dazu bei, die verfügbaren Rechnerressourcen optimal zu nutzen und Anwendungen reibungslos auf beiden Ebenen auszuführen.
Industriebeteiligung am Co-Design-Prozess: Potenzielle Anwenderunternehmen sollten bereits in der Co-Design-Phase aktiv in die Entwicklung von Schnittstellen zwischen Middleware und Anwendungen eingebunden sein. In Deutschland werden bereits verschiedene private und öffentlich geförderte Initiativen, zum Beispiel in Baden-Württemberg, Bayern oder Nordrhein-Westfalen, zur Entwicklung solcher Infrastrukturen durchgeführt. Eine aktive Beteiligung der Industrie in diesem Prozess ist essenziell, um praxisnahe Systeme zu gestalten, die den realen Anforderungen und Herausforderungen gerecht werden und industrierelevante Probleme effizient angehen können.
Bits, Qubits und darüber hinaus
Obwohl das Quantencomputing potentiell die größte Disruption mit sich bringt, ist es nicht die einzige Rechentechnologie, von der Fachleute erwarten, dass sie das Supercomputing-Konzept der Zukunft ausmachen wird. Weitere Ansätze umfassen beispielsweise neue Rechenkonzepte wie das neuromorphe Rechnen, das auf den Prinzipien der Informationsverarbeitung nach dem Gehirn beruht.
Andere setzen auf neue Rechenplattformen wie das optische (wobei Lichtteilchen, Photonen, als Informationsträger verwendet werden) oder chemische Rechnen (Moleküle). In der jüngsten Veröffentlichung „Future Computing: Overview of Technological Landscape“ gibt der Bitkom einen Überblick über einige der bedeutendsten technologischen Ansätze, die eine Erweiterung der derzeitigen Computerlandschaft versprechen, indem sie Vorteile in Bezug auf die Skalierung der Rechenleistung, die Energieeffizienz und die Einsetzbarkeit für ein neues Problemspektrum bieten.
Artikelfiles und Artikellinks
(ID:49694342)