Einladung zum Bitkom Quantum Summit 2023 HPC und Quantencomputing - ein Power-Duo

Ein Gastkommentar von Oliver Oberst, Daniel J. Egger und Natalia Stolyarchuk Lesedauer: 6 min |

Anbieter zum Thema

Während die wirtschaftlichen Potenziale von Quantencomputing immer mehr in den Fokus rücken, liegt der wahre Schlüssel für einen breiten Einsatz und die Anwendung von Quantensystemen in ihrer nahtlosen Integration in existierende und sich entwickelnde Hochleistungsrechnerinfrastrukturen. Ein Schulterschluss dieser beiden Technologien eröffnet ungeahnte Möglichkeiten für komplexe Berechnungen in Wirtschaft und Wissenschaft.

Quantencomputer als Beschleuniger für das High Performance Computing, als Akzelerator für Superrechner im Austausch gegen FPGAs, GPUs oder ASICs? Die bildliche Erfindung auf diesem Bild rückt das schneller in den Bereich des Möglichen als die Forschung.
Quantencomputer als Beschleuniger für das High Performance Computing, als Akzelerator für Superrechner im Austausch gegen FPGAs, GPUs oder ASICs? Die bildliche Erfindung auf diesem Bild rückt das schneller in den Bereich des Möglichen als die Forschung.
(Bild: frei lizenziert: TheDigitalArtist/ AI-generiert / Pixabay)

Dies erfordert aber auch eine aktive Beteiligung potenzieller Nutzerinnen und Nutzer, um künftige Supercomputing-Systeme für ihre individuellen Anwendungen maßzuschneidern.

Moderne Hochleistungsrechner sind in der Lage, über Hunderte Billiarden (1015) Operationen pro Sekunde zu rechnen und somit enorme Menge von Berechnungen gleichzeitig durchzuführen. Damit lassen sich zum Beispiel große KI-Modelle mit Tausenden von Variablen trainieren, Modelle für den Klimawandel berechnen oder der Ausbruch und der Verlauf von Epidemien simulieren.

Die perfekte Symbiose: Wie HPC vom Quantencomputing profitiert und umgekehrt

Dennoch stoßen herkömmliche Hochleistungsrechner an ihre Grenzen, wenn es um äußerst präzise Einschätzungen oder die Berechnung komplexer Moleküle oder physikalischer Systeme geht. Neben den technologischen Herausforderungen stellt die steigende Komplexität der Probleme auch immer höhere Anforderungen an die Energie-Effizienz der Datenverarbeitung.

Quantencomputer können Hochleistungsrechner dabei unterstützen, indem sie als Beschleuniger bestimmte Teile von Problemen übernehmen und diese deutlich schneller, effizienter oder präziser berechnen. Somit werden die Quantum Processing Units (QPUs) künftig mit „klassischen“ HPC-Akzelerationstechnologien wie Field-Programmable Gate Arrays (FPGAs) oder Application-Specific Integrated Circuits (ASICs) im Konzert spielen. Dies mündet in ein künftiges Paradigma des erweiterten Supercomputing, bei dem klassische und Quantentechnologien von Grund auf als eine Recheneinheit betrachtet werden.

High Performance Computing kann wiederum die Daten für Quantencomputing-Algorithmen vorab verarbeiten und in optimierter Form bereitstellen. Klassische HPC-Systeme können darüber hinaus helfen, Fehler in den Quantencomputerberechnungen, die durch Rauschen entstehen, zu mitigieren und so die noch fehleranfälligen Quantencomputer früher für reale Anwendungen nutzbar machen.

Der Bitkom Quantum Summit am 20. & 21. September

Quantencomputer sind kein Zukunftstrend mehr - sie sind auf dem Vormarsch und versprechen, sowohl lokale als auch globale Probleme in verschiedenen Bereichen zu lösen, die für die heutigen Computer unerreichbar sind. Der Bitkom lädt zur Veranstaltung „Bitkom Quantum Summit 2023“ nach Berlin.
Quantencomputer sind kein Zukunftstrend mehr - sie sind auf dem Vormarsch und versprechen, sowohl lokale als auch globale Probleme in verschiedenen Bereichen zu lösen, die für die heutigen Computer unerreichbar sind. Der Bitkom lädt zur Veranstaltung „Bitkom Quantum Summit 2023“ nach Berlin.
(Bild: Bitkom e.V.)

Wer mehr über die die Potenziale von Quantencomputing und quantenklassischen Ansätzen erfahren möchte, ist herzlich von Bitkom und DataCenter-Insider auf dem Bitkom Quantum Summit 2023 eingeladen. der am 20. und 21. September in Berlin stattfindet.

Besucher treffen live wichtige Entscheidungsträgerinnen und Entscheidungsträger aus Wirtschaft und Politik sowie Forschende. Sie können entdecken, wie die aktuellen politischen, wirtschaftlichen und technologischen Entwicklungen die Zukunft des Quantencomputing in Europa bestimmen. Der Veranstalter will einen Überblick über die Fortschritte, Strategien und technologischen Lösungen in diesem Bereich bieten.

Rabatt: Für die Leser von DataCenter-Insider gibt es einen Rabatt-code, der eine Ticket um 30 Prozent günstiger werden lässt: QUANTUM_DATACENTER-INSIDER_30. Interessenten melden sich auf dem Ticket-Shop für den Quantum Summit an und geben den Code ein.

Bonus: Die Tickets sind auch für die Partnerkonferenz „Big-Data.AI Summit“ gültig, die parallel am selben Ort stattfindet.

Denn tatschlich: Eine der größten Herausforderungen bei Quantencomputersystemen ist derzeit das Rauschen. Doch durch den Einsatz von Hochleistungsrechnern können so genannte „Error Mitigation“-Aufgaben ausgeführt werden. Das bedeutet, dass das erzeugte Rauschen für konkrete Algorithmen geschätzt und während der Berechnungen unterdrückt werden kann. Kürzlich wurde für einen bestimmten Anwendungsfall in mathematischen Modellen, die große magnetische Systeme beschreiben, demonstriert, dass Quantenrechner mit dieser Technik mittlerweile mit herkömmlichen Hochleistungsrechnern auf Augenhöhe sind.

Darüber hinaus ermöglicht HPC den Anwenderinnen und Anwendern durch HPC-basierte Brückentechnologien einen früheren und einfacheren Einstieg in die Entwicklung von Quantencomputing-Anwendungen. Quantensimulatoren können zum Beispiel einen Quantencomputer bis zu einer bestimmten maximalen Anzahl von Qubits auf Standardhardware simulieren und eignen sich vor allem für Trainings- und Ausbildungszwecke sowie zum Testen neuer Algorithmen.

Quantenemulatoren, bei denen Quanteneffekte in spezieller Siliziumtechnologie emuliert werden, versprechen Vorteile insbesondere bei der Lösung kombinatorischer Optimierungsprobleme. Durch die Unterstützung von HPC können Entwicklerinnen und Entwickler schneller experimentieren und ihre Anwendungen für den Einsatz auf Quantencomputern vorbereiten.

Für welche Anwendungen ist die hybride Lösung besonders interessant?

Ein hybrider Ansatz, der sowohl klassische als auch quantenmechanische Rechenteile miteinander verknüpft, zeigt spannende Aussichten vor allem für die mathematischen Probleme, die durch so genannte Variational-Quanten-Algorithmen (VQA) dargestellt werden könnten. Eine breite Palette von Problemen lässt sich in solche Algorithmen übersetzen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung
  • In der Quantenchemie können diese Algorithmen verwendet werden, um die elektronische Struktur von Molekülen zu simulieren und Energieniveaus oder Reaktionspfade zu berechnen.
  • Im Bereich des maschinellen Lernens bergen sie das Potenzial, zur Optimierung von neuronalen Netzen oder zur Verbesserung von Mustererkennungsaufgaben beizutragen.
  • Eingesetzt im Finanzbereich können damit komplexe Optimierungsprobleme gelöst werden, die bei der Portfolio-Optimierung, der Risikobewertung oder bei der Entwicklung von Handelsstrategien auftreten.
  • Ein weiteres Beispiel im Finanzbereich stellt die Transaktionsabwicklung dar. Hierbei könnten Quantenrechner der Clearingstelle helfen, den Handel mit Finanzinstrumenten durch Maximierung der Volumina der jeweils abgewickelten Geschäfte zu optimieren.

Die Grundpfeiler des Erfolgs für hybride Quanten-Klassik-Supercomputer

Um die visionäre Idee eines quantenklassischen Supercomputers zu verwirklichen, sind folgende vier Komponenten von besonderer Bedeutung:

Weiterentwicklung von Quanten-Systemen: Grundlegende Schritte zur Verwirklichung dieser Vision sind die fortlaufende Skalierung und die Verbesserung der Stabilität und Fehlertoleranz von Quantensystemen. Dies bildet das Fundament für die Leistungsfähigkeit eines solchen hybriden Supercomputers.

QC-Anwendungen von Anfang an mitdenken: Um Quantencomputing effektiv zu nutzen, ist die nahtlose Integration in die Entwicklung von High Performance Computing (HPC)-Anwendungen von entscheidender Bedeutung. Hierbei kommt der Middleware eine zentrale Rolle zu, indem sie Programmier- und Infrastrukturabstraktionen ermöglicht und so die Anwendungsentwicklung erleichtert.

Effizientes Ressourcen-Management über klassische und Quanteninfrastruktur hinweg: Die Koordination und effiziente Ausführung von Anwendungen auf klassischer und Quanteninfrastruktur ist ein weiterer entscheidender Faktor. Die Ressourcen-Management-Schicht trägt dazu bei, die verfügbaren Rechnerressourcen optimal zu nutzen und Anwendungen reibungslos auf beiden Ebenen auszuführen.

Industriebeteiligung am Co-Design-Prozess: Potenzielle Anwenderunternehmen sollten bereits in der Co-Design-Phase aktiv in die Entwicklung von Schnittstellen zwischen Middleware und Anwendungen eingebunden sein. In Deutschland werden bereits verschiedene private und öffentlich geförderte Initiativen, zum Beispiel in Baden-Württemberg, Bayern oder Nordrhein-Westfalen, zur Entwicklung solcher Infrastrukturen durchgeführt. Eine aktive Beteiligung der Industrie in diesem Prozess ist essenziell, um praxisnahe Systeme zu gestalten, die den realen Anforderungen und Herausforderungen gerecht werden und industrierelevante Probleme effizient angehen können.

Bits, Qubits und darüber hinaus

Obwohl das Quantencomputing potentiell die größte Disruption mit sich bringt, ist es nicht die einzige Rechentechnologie, von der Fachleute erwarten, dass sie das Supercomputing-Konzept der Zukunft ausmachen wird. Weitere Ansätze umfassen beispielsweise neue Rechenkonzepte wie das neuromorphe Rechnen, das auf den Prinzipien der Informationsverarbeitung nach dem Gehirn beruht.

Andere setzen auf neue Rechenplattformen wie das optische (wobei Lichtteilchen, Photonen, als Informationsträger verwendet werden) oder chemische Rechnen (Moleküle). In der jüngsten Veröffentlichung „Future Computing: Overview of Technological Landscape“ gibt der Bitkom einen Überblick über einige der bedeutendsten technologischen Ansätze, die eine Erweiterung der derzeitigen Computerlandschaft versprechen, indem sie Vorteile in Bezug auf die Skalierung der Rechenleistung, die Energieeffizienz und die Einsetzbarkeit für ein neues Problemspektrum bieten.

Die Autoren

Dr. Daniel J. Egger ist Senior Research Scientist und arbeitet bei IBM Quantum, IBM Research Europe - Zürich. Seine Forschung konzentriert sich auf die Steuerung von Quantencomputern, ihre Integration in moderne Software-Stacks und auf die praktischen Anwendungen von Quantenalgorithmen in den Bereichen Finanzen, Optimierung und Naturwissenschaften. Egger kam 2016 zu IBM. Von 2014 bis 2016 arbeitete er in der Vermögensverwaltungsbranche als Risikomanager. Er promovierte 2014 in theoretischer Physik für seine Arbeit über Quantensimulationen und die optimale Steuerung von Quantencomputern auf der Grundlage supraleitender Qubits.

Dr. Oliver Oberst kam 2013 als IT-Architekt zu IBM und konzentrierte sich zunächst auf HPC- und KI-Kunden in Forschung und Hochschulbildung in der DACH-Region und später in ganz Europa. In dieser Funktion gehörte er dem Lenkungsausschuss der ETP4HPC an, einem Technologie-Thinktank, der die Europäische Kommission bei ihrer Strategie im Supercomputing berät. Derzeit ist Oliver Quantum Sales Executive für EMEA bei IBM und berät Partner und Kunden von IBM zu ihrer Quantencomputerstrategie. Oliver hat einen Doktortitel in Teilchenphysik vom Karlsruher Institut für Technologie und war Mitglied der CMS-Kollaboration am CERN.

Dr. Natalia Stolyarchuk verantwortet beim Bitkom die Themenbereiche High-Performance & Quantum Computing und Mikroelektronik. Sie hat eine Promotion in Experimentalphysik an der Humboldt-Universität zu Berlin und der Universität Côte d'Azur abgeschlossen. Während ihrer Promotion untersuchte sie an einem Leibniz-Forschungsinstitut mikrostrukturelle Eigenschaften von Halbleiter-Nanofilmen für optoelektronische Anwendungen. Bevor sie zum Bitkom kam, hat sie außerdem vielfältige Erfahrungen in der Wissenschaftskommunikation und -administration beim Forschungsverbund Berlin gesammelt.

Artikelfiles und Artikellinks

(ID:49694342)