IDC-Studie im Auftrag von Atos und IQM Schneller als gedacht: 76 Prozent der HPC-Rechenzentren nutzen bis 2023 Quantencomputing

Von Ulrike Ostler

Es ist nicht die erste Quantencomputing-Studie, aber die erste die Atos, Hersteller eines Quantencomputer-Simulators, und IQM, ein deutsch-finnisches Start-up, das Quantencomputer bauen will, beim Marktforschungsinstitut in Auftrag gegeben hatten. Demnach wollen 76 Prozent der weltweiten HPC-Rechenzentren bis 2023 Quantencomputing nutzen - und zwar on premises; Cloud ist eine zeitlich begrenzte Option.

Anbieter zum Thema

76 Prozent der HPC-Zentren nutzen Quantencomputer bereits oder planen deren Einsatz in den nächsten zwei Jahren ein.
76 Prozent der HPC-Zentren nutzen Quantencomputer bereits oder planen deren Einsatz in den nächsten zwei Jahren ein.
(Bild: IQM)

Auch die Studienmacher und -auftraggeber wissen nicht, welche der Quantencomputer-Techniken und -Technologien sich durchsetzen werden und keiner weiß, wann die so genannte Supremacy, die Überlegenheit von Quantencomputern über die Digitaltechnik, erreicht sein wird oder wann Quantencomputer so gebaut werden können, dass sie in ein 'normales' Rechenzentrum einziehen können, oder wann sich Quantencomputer mit HPC-Aufgaben wie Künstliche Intelligenz verheiraten lassen. Das haben alle, die bei der Präsentation dabei gewesen sind, noch einmal ganz deutlich gemacht.

IDC-Analyst Stefano Perini präsentierte am 18. November 2021 in dem Ad-hoc-Studio bei Atos in München die vom Bundesforschungsministerium geförderte Studie Studie “Stand des Quantencomputing im Hochleistungscomputerbereich”
IDC-Analyst Stefano Perini präsentierte am 18. November 2021 in dem Ad-hoc-Studio bei Atos in München die vom Bundesforschungsministerium geförderte Studie Studie “Stand des Quantencomputing im Hochleistungscomputerbereich”
(Bild: Ulrike Ostler)

Also ist die Entwicklung und Erprobung von realen Anwendungsfällen entscheidend für den künftigen Erfolg der Quantencomputer. Wie IDC-Analyst Stefano Perini ausführt, sind die vier wichtigsten Anwendungsfälle für das Quantencomputing derzeit mit der Analyse riesiger Datenmengen und der Lösung branchenspezifischer Anwendungsfälle verbunden. Die von den befragten HPC-Zentren genannten wichtigsten Anwendungsfälle sind:

  • Durchsuchung von Datenbanken (59 Prozent)
  • Analyse von Investitionsrisiken (45 Prozent)
  • Molekulare Modellierung (41 Prozent)
  • Vermögensverwaltung (32 Prozent)

Damit einher geht die Erkenntnis, dass es für Nutzer*innen immer schwieriger wird, die optimale Leistung aus den Hochleistungsrechnern herauszuholen und gleichzeitig Sicherheit und Ausfallsicherheit zu gewährleisten.

So hat der exponentielle Anstieg von Big Data neue Herausforderungen für die Verarbeitung von Speichersystemen mit sich gebracht, Bandbreite und Latenz. Das Aufkommen leistungsfähigerer Systeme mit heterogener Datenverarbeitung wie GPU, ASIC und Field Programmable Gate Array (FPGA) stößt an die Grenzen der technologischen Möglichkeiten. Für viele HPC-Zentren reicht jedoch die Verarbeitungsgeschwindigkeit immer noch nicht aus, um ihren Forschungsbedarf zu decken und ihre geschäftlichen Herausforderungen zu bewältigen.

Das betrifft auch den Punkt Nachhaltigkeit und Energie. HPC-Infrastrukturen benötigen eine enorme Menge an Energie zur Verarbeitung der Daten. „Fugaku“, der derzeit leistungsstärkste Supercomputer , der im Riken Centre for Computational Science in Japan steht, hat eine Spitzenleistung von 537 Petaflops und verbraucht fast 30 Megawatt Strom - das entspricht, obwohl Fukaku durchaus als energiesparend gilt, der Leistung einer Kleinstadt.

Die Höhe des Energieverbrauchs eines Systems wirkt sich auf die Gesamtbetriebskosten (TCO) aus. IDC-Untersuchungen zeigen, dass Führungskräfte mit fortschrittlichen Ansichten zu Nachhaltigkeit und Energie-Effizienz dazu neigen, ihre Hardware schneller zu erneuern und daher eine jüngere Infrastruktur einzusetzen, um ihre Nachhaltigkeitsziele zu erreichen.

Befragt wurden 110 Entscheidungsträger*innen aus High-Performance-Computing (HPC)-Zentren weltweit. „Die Ergebnisse liefern konkrete Einblicke in einen Technologiebereich, der Europa und die Welt erheblich verändern wird“, heißt es unisono bei der Vorstellung der Studienergebnisse von den an der Studie Beteiligten.

Bildergalerie
Bildergalerie mit 9 Bildern

Quantencomputing sei gar „die wichtigste Technologie in Europa“ und gehöre zu den drei wichtigsten Technologien der 500 größten HPC-Rechenzentren weltweit. 76 Prozent der HPC-Zentren nutzen bereits Quantencomputer oder planen, sie in den nächsten zwei Jahren einzusetzen.

So wundert es auch nicht, dass die erwarteten Vorteile der Einführung von Quantencomputern für HPC-Rechenzentren klar auf der Hand liegen: Laut den Ergebnissen bestehen diese darin, neue Probleme wie die Lieferkettenlogistik oder Herausforderungen im Zusammenhang mit dem Klimawandel anzugehen (45 Prozent) und bestehende Probleme schneller zu lösen (38 Prozent) – bei gleichzeitiger Reduzierung der Rechenkosten (42 Prozent).

Fehlendes Wissen

Zugleich aber mangelt es jedoch an Wissen darüber, wie Quantencomputing in Verbindung mit einer klassischen HPC-Infrastruktur funktionieren kann. Das liegt einerseits an fehlender Ausbildung, aber auch an einem generellen Verständnis, wie Quantencomputing funktioniert. „Ich habe 20 Jahre gebraucht, um mich dem anzunähern, was Quantencomputing bedeutet“, sagt Stephan Schenk, Product Manager HPC bei BASF, der selbst einst Quantenchemie studiert hat, während der nachfolgenden Diskussion.

Und ohne ein Wissen darüber, wie Quantencomputing funktioniere, ließen sich auch keine Anwendungen programmieren. Als Beispiel nennt er, dass es unitäre Matrizen brauche, die reversibel sein müssen, also vorwärts und rückwärts funktionierten, ansonsten wären Ergebnisse nicht nachvollziehbar (nachzulesen etwa unter Fast Fourier Transform oder in den Vorlesungen von Richard Phillips Feynman nachschlagen.). Das aber müsse ein Informatiker erst einmal verinnerlichen. Sein Team umfasst derzeit zwölf Personen.

Trotzdem ist auch für ihn klar, dass es keinen Weg am Quantencomputing vorbei gibt: Wir können mit der jetzigen Computertechnik nicht einmal ein Zuckermolekül durchrechnen.“ Als Beispiel für eine praktische Anwendung nennt er zunächst die Entwicklung neuer Stoffe für zukünftige Batterien, die in Elektro-Autos verbaut werden sollen. Doch neben diesem Beispiel, das durch alle Medien zu geistern scheint, erläutert er die Magie des Wäschewaschens: Auf einem Wäschestück sammeln sich verschiedene Arten von Verschmutzungen und in einer Waschmaschine nicht nur verschiedene Wäschestücke sondern auch unterschiedliche Materialien, Oberflächen und Dichten. Alles soll möglichst nach dem Waschvorgang möglichst sauber sein.

Direkter Nutzen ist erkennbar

Im asiatisch-pazifischen Raum waren wir sehr erfolgreich, weil wir zeigen konnten, wie sich die Materialien beim Waschen verhalten. Doch reiche die Kapazität nicht, um die Waschvorgänge mitsamt der unterschiedlichen Flecken komplett zu simulieren.

Zudem stiegen die Kosten ungleich schnell, je mehr Parameter einem Modell hinzugefügt würden und nicht linear, was dem bisherigen Supercomputing zusätzlich Grenzen setze.

Doch auch die Entwicklung von Quantencomputern ist nur technisch mehr als eine Herausforderung, sondern auch die Kosten. In Deutschland und weltweit beteiligen sich Regierungen, zum einen um im internationalen Wettbewerb nicht den Anschluss zu verlieren, vielleicht aber auch aus Angst, ein Quantencomputer könne zu den Staatsgeheimnissen durchdringen.

Die Teilnehmer der Diskussionsrunde: links: Raghunath Koduvayur, CMO bei IQM und Stephan Schenk, Product Manager HPC bei BASF, rechts: Jan Wender, Consultant for Quantum Computing bei Atos CE und Laura Schulz, Head of Strategic Development and Partnering am Landesrechenzentrum - LRZ. Mitte: Francesca Ciarletta, Research Manager bei IDC
Die Teilnehmer der Diskussionsrunde: links: Raghunath Koduvayur, CMO bei IQM und Stephan Schenk, Product Manager HPC bei BASF, rechts: Jan Wender, Consultant for Quantum Computing bei Atos CE und Laura Schulz, Head of Strategic Development and Partnering am Landesrechenzentrum - LRZ. Mitte: Francesca Ciarletta, Research Manager bei IDC
(Bild: Ulrike Ostler)

BASF-Mann Schenk, Laura Schulz, Head of Strategic Development and Partnering am Landesrechenzentrum - LRZ, Jan Wender, Consultant for Quantum Computing bei Atos CE und Raghunath Koduvayur, CMO bei IQM, die Teilnehmer des Diskussions-Panel, halten die hohen Fördergelder jedenfalls für gerechtfertigt: „Das könnten wir nicht aufbringen“, so Schenk. „Kein Unternehmen oder Institut könnte das alleine stemmen, so Schulz.“

Andererseits dürfen die Unternehmen, die schnell Quantencomputer einsetzen, mit einem Quantensprung beim Umsatz rechnen; der Wettbewerbsvorteil lasse sich gar nicht hoch genug ansetzen, sagen Marktauguren. Schenk bringt es auf den Punkt: „Am Ende reden wir natürlich über Geld und nicht über Grundlagenforschung. “

Die Investitionen steigen

Nach Angaben der IDC-Studie werden die Ausgaben für Quantencomputer in den kommenden zwei Jahren dementsprechend zunehmen: 13 Prozent der HPC-Zentren planen mehr als eine Million Euro ein, und zwei Prozent wollen mehr als fünf Millionen Euro investieren.

Die Investitionsentscheidungen werden nicht von den IT-Abteilungen, sondern in der Führungsebene getroffen, und zwar auf der Grundlage relevanter Anwendungsfälle wie Pharma- oder Klimaforschung. Wissenschaftliches Knowhow und Reputation sind daher die wichtigsten Faktoren für die Wahl des Quantencomputing-Anbieters, aber auch Faktoren wie die finanzielle Tragfähigkeit, das Partner-Ökosystem und die Präsenz in derselben Region sind entscheidend.

Doch derzeit sind sich die Diskussionsteilnehmer einig, dass angesichts der Tatsache, dass noch nicht einmal feststehe, welche Quantencomputertechnik sich durchsetzen wird, es Sinn macht, sich mithilfe von Initiativen und Partnerschaften möglichst breit aufzustellen, um den entscheidenden Moment, die Revolution nicht zu verpassen. Laut IDC weisen die Studienergebnisse darauf hin, dass es 2026 zu einem Technologiewechsel kommt: Die aktuell am häufigsten genutzten supraleitenden Quantencomputer werden von Trapped-Ion-Quantencomputern überholt.

Wer soll das bezahlen?

Angesichts der immensen Kosten ist das Shared Modell des Cloud-Computing vielleicht das bevorzugte? Laut IDC-Analyst Perini geht aus den Studienergebnissen hervor, dass Hybrid- und Cloud-Implementierungen in der EMEA-Region besonders wichtig sind. 50 Prozent haben ausgesagt, dass eine hybride HPC-Architektur oberste Priorität habe; in Nordamerika seien es 46 Prozent, im Raum Asien-Pazifik sind es 38 Prozent.

Auch angesichts der fehlenden Skills rechnet Perini mit dem Fortbestehen der Auslagerung von Betrieb und Wartung an Partner, auch wenn sich das Quantencomputing ausbreitet. „Die Cloud ist ein wichtiger Bestandteil dieser HPC-Architektur, bei der Standardelemente mit individuell entwickelten Infrastrukturkomponenten kombiniert werden.“

Auch bis jetzt schon sind die Kosten für den Kauf und die Installation von Hardware für HPC-Zentren hoch. Neben der Recheninfrastruktur müssen sie auch in die Software und das Gebäude investieren, in dem die HPC beherbergt.

Cloud oder lieber nicht Cloud?

Außerdem haben HPC-Systeme heute eine kürzere Lebensdauer bevor sie veraltet sind. Die schnellen Fortschritte in der HPC-Technologie in der gesamten Lieferkette bedeuten für die meisten eine Nutzungsdauer von drei Jahren. Sobald die Leistung und Fähigkeiten der Hardware nicht mehr den Forschungs- und Geschäftszielen dienen, muss das muss das HPC-Zentrum mehr Kapital beschaffen und investieren um seine strategischen Ziele zu erreichen.

So hat IDC einen Anstieg flexibler Zahlungsoptionen wie Leasing und Verbrauchsmodelle Modelle beobachtet. Die am weitesten fortgeschrittenen digitalen Organisationen nutzen diese flexiblen Finanzierungsmöglichkeiten und Finanzoptionen, um Zugang zu den neuesten Hardware-Optionen zu haben, ohne ihren Cashflow zu beeinträchtigen.

Um so überraschender erscheint es, dass die Diskussionsteilnehmer die Nutzung von Quantencomputern in der Cloud als eine Option für einen Übergangszeitraum sehen. Zu wertvoll ist den Anwendern das Know-how, das in den Algorithmen steckt und die Ergebnisse, die sich erzielen lassen. „Die besten Dinge kann man einfach nicht in die Cloud geben“, sagt BASF-Mann Schenk.

'Nur' ein großer Beschleuniger

Es bleibt die Frage, welche Rolle ein Quantencomputer einnehmen kann. Derzeit scheint eine Mehrheit davon auszugehen, dass ein Quantenrechner eine Art Beschleuniger für das HPC-Rechnen wird, also wie eine GPU oder DPU, eine Smart NIC und nicht der Ersatz eines digital rechnenden Computers. Auch die IDC-Studie geht davon aus. Was nach einem perfect match aussieht, offenbart bei genauerem Hinsehen zahlreiche Lücken; denn ein Quantencomputer funktioniert nun einmal gänzlich anders.

Wer also soll sich um die neue Technik kümmern? Wie bringt man Stochastik und KI zusammen? Wie muss ein Rechenzentrum gebaut sein, etwa um genügend Abschirmung hinzubekommen? Wie bekommt man die Connectivity hin?

Heute werden FPGA von 17,2 Prozent der HPC-Zentren als die wichtigste aufkommende Technologie genannt. Die heutigen FPGAs sind integrierte Schaltungen mit programmierbaren Verbindungen. Sie bieten ein großes Leistungspotenzial und können als HPC Hardware-Beschleuniger fungieren, um die Rechenleistung zu erhöhen. FPGAs ermöglichen es Unternehmen, Daten in Echtzeit zu verarbeiten und eignen sich gut für Deep-Learning-Anwendungen, die eine geringe Latenzzeit erfordern.

Was hilft weiter?

Ein weiterer neuer architektonischer Ansatz ist das chiplet-basierte Computing, das ebenfalls von 17,2 Prozent der HPC-Zentren angeführt wurde. Historisch gesehen verfolgt die Entwicklung von CPUs einem monolithischen Ansatz. Ein Chiplet enthält einige der spezialisierten Funktionsblöcke, die Teil der monolithischen CPU sind. Aufgrund der Modularität des Chiplet-Designs gibt es mehr Möglichkeiten zur einzelne Komponenten auszuwählen und zu kombinieren.

Speicherbasierte, FPGA- und Chiplet-basierte Technologien versprechen inkrementelle Leistungsverbesserungen. Doch das Quantencomputing stellt ein neues Paradigma dar.

Die IDC-Studie enthält eine Art Roadmap für die HPC-Zentren. In einem ersten und unmittelbaren Schritt sollten die HPC-Zentren sich auf Probleme konzentrieren, die sie mit ihrer derzeitigen klassischen Infrastruktur nicht vollständig lösen können: auf die potenziellen Leistungsverbesserungen für Probleme die HPC-Zentren bereits bearbeiten, sowie auf neue Berechnungen, die über das hinausgehen, was derzeit möglich ist. Universelle Quantencomputer liegen eben noch in weiter Ferne.

Bildergalerie
Bildergalerie mit 9 Bildern

Sobald die endgültigen Ziele klar sind, sollten die Quantencomputer in die bestehende klassische HPC-Infrastruktur integriert werden. „Das wird ein hohes Maß an Anpassung erfordern“, heißt es bei IDC. Aus diesem Grund sollte die Lösung hauptsächlich auf einem On-Premises-Ansatz beruhen, plus

einer geeigneten Auswahl von Cloud-Anwendungen .

Der hohe Grad der erforderlichen Anpassung und die reibungslose Interaktion mit der bestehenden Infrastruktur kann nur durch eine kontinuierliche Interaktion zwischen dem HPC-Zentrum und dem Quantencomputer-Anbieter gelöst werden. In dieser Phase sollten unbedingt Forscher und IT-Entwickler eingebunden werden.

Das Finale

In der letzten Phase ist die Quantencomputerlösung bereits in die bestehende Infrastruktur integriert, so dass das HPC-Forschungsteam Anwendungsfälle entwickeln kann. Das Ziel ist nun die Erzielung eines Quantenvorteils, nämlich die Entwicklung von Piloten, die nur noch Quantencomputer lösen können.

Zugleich sollte sich ein Technik- und Anwendungs-Ökosystem entwickeln. Dieser letzte Schritt werde auch die Gelegenheit sein, die gesamte Organisation in den quantenbasierten Innovationsprozess einzubeziehen und den kulturellen Wandel herbeizuführen. So die Theorie.

Warum Unternehmen jetzt anfangen sollten, sich an diesem Prozess zu beteiligen, erläutert Jan Wender in diesem Vortrag:

Artikelfiles und Artikellinks

(ID:47848150)