Suchen

Rechner für die Covid19- und andere Forschung Qubits, Bits, Neuronen - auf der Suche nach der besten HPC-Technologie

| Autor / Redakteur: Holm Landrock* / Ulrike Ostler

Während Quantencomputing sich derzeit noch als Forschungstechnologie darstellt, lässt sich neuromorphes Computing vor allem im Bereich des HPC (High-Performance-Computing) immer häufiger auch an der Seite „klassischer“ Supercomputer finden. Den Multipurpose-Supercomputern wird dafür beispielsweise eine Anzahl Racks mit GPUs (Graphics Processing Units) an die Seite gestellt, die ein neuronales Netz darstellen können. Synaptische Chips und neuronale Netze auf der Basis von GPUs können das neuronale Netz technisch darstellen.

Firmen zum Thema

Moore´s Law und Gambetta´s Law im Vergleich - Erstens sind sich Experten einig, dass Moore´s Law nicht mehr funktioniert und zweitens durch anderes Gesetze, etwa eines, das nach dem IBM-Fellow Jay Gambetta benannte ist und besagt, dass Quantencomputer auf einem Weg scheinen, das Quantenvolumen jedes Jahr zu verdoppeln.
Moore´s Law und Gambetta´s Law im Vergleich - Erstens sind sich Experten einig, dass Moore´s Law nicht mehr funktioniert und zweitens durch anderes Gesetze, etwa eines, das nach dem IBM-Fellow Jay Gambetta benannte ist und besagt, dass Quantencomputer auf einem Weg scheinen, das Quantenvolumen jedes Jahr zu verdoppeln.
(Bild: IBM Research)

Supercomputer mit GPUs werden schon seit einiger Zeit für die Genom-Analyse von Viren verwendet. Schon bei der letzten größeren EHEC-Epidemie im Mai 2011 half das BGI (Beijing Genome Institute) mit einem in China stehenden Supercomputer bei der Entschlüsselung des EHEC-Virus-Genoms. Dass schon damals Rechenleistung aus China hinzugezogen werden musste, zeigt, wie groß der Bedarf an Supercomputing-Leistung in Westeuropa schon vor zehn Jahren war.

Was stellt ein Molekül mit einem Virus an?

Supercomputer spielen eine große Rolle bei der pharmazeutischen Forschung. Vereinfacht gesagt, sollen die Supercomputer riesige Datenbanken daraufhin durchforsten, ob zum Beispiel ein bestimmtes Molekül geeignet ist, sich mit bestimmten Strukturen (oft Proteinen) in einem Organismus oder auch einem Virus zu verbinden.

Was vor über 20 Jahren mit sehr großen Servern begann und sich über Server-Farmen weiter entwickelte, findet heute in Supercomputern mit GPU-Unterstützung statt. So sollen die Substanzen identifiziert werden, die das Potential haben, eine Wirkung auf, zum Beispiel, einen Virus ausüben. Diese Kandidaten werden dann im Labor synthetisiert und auf ihre tatsächliche Wirkung hin untersucht. Diese Prozess endet schließlich in der Entwicklung von Wirksubstanzen gegen Krankheitserreger und in der Entwicklung eines Medikaments.

Das findet auch beim Kampf gegen das SARS-CoV-2-Virus statt (siehe: Abbildung 1). Grundsätzlich gibt es drei Ansatzpunkte für eine Wirksubstanz, auch gegen das Coronavirus: Da wäre zunächst das Abtöten des Virus durch die Zerstörung der Hülle. Auch die Einhüllung des Proteins, das die Spikes des Coronavirus bildet, könnte man mit bestimmten Molekülen so verändern, dass sich das Virus nicht mehr mit Wirtszellen verbinden und dort seine RNA (Ribonukleinsäure) einschleusen kann. Außerdem suchen die Forscher nach Strukturen für den Schutz der Wirtszellen.

Zu komplex für Supercomputer?

Wegen des Zeitdrucks werden hier enorme Rechenleistungen benötigt. In den USA stellen verschiedene Anbieter und Dienstleister – darunter AWS (Amazon Web Services), das LLNL (Lawrence Livermore National Laboratory), das ORNL (Oak Ridge National Laboratory) und viele andere – Rechenleistung im Rahmen des US Covid-19 HPC Consortiums zur Verfügung. Auch IBM engagiert sich hier.

Der von IBM gebaute Supercomputer Summit hat beispielsweise 8.000 Moleküle innerhalb von zwei Tagen analysiert und daraus 74 Kandidaten für die weitere Forschung identifiziert. Solche Analysen hätten ohne die synaptischen Racks, die per Infiniband mit dem Summit-Supercomputer verbunden sind, sehr viel länger gedauert.

Bildergalerie

Bildergalerie mit 6 Bildern

HPC-Anwendungen, wie die Suche nach Interaktion von Molekülen untereinander, gibt es nicht nur in der Pharma-Forschung. Was die winzigen Moleküle miteinander anstellen, interessiert unter anderem auch die Erforschung von Batterie-Technologien für mobile Anwendungen und im besonderen für die E-Mobilität. Auch im Banking könnte die Berechnung immer größerer Volumina sehr kleiner Datenpunkte neue Erkenntnisse bringen.

„Herkömmliche Computer auf der Basis einer Von-Neumann-Architektur sind in der Analyse der Moleküle begrenzt. Die Vielzahl der Möglichkeiten, wie Atome miteinander agieren, erfordert neue Verfahren“, erläutert Ingolf Wittmann, Technical Director für Quanten Computing bei IBM in Deutschland: „Wir reden auch nicht von der einen Anwendung für Quantencomputer. Während es im HPC bisher typisch war, dass ein Supercomputer für Crashtests und ein anderer Supercomputer für die Simulation der Verbrennung von Raketentriebwerken gebaut wurde, sollen Quantencomputer die komplexesten Teilaufgaben solcher Anwendungen schneller lösen.“

Bits, Qubits und Neuronen

Immer häufiger werden für solche komplexen Aufgaben neuronale Netze in den Computern verwendet. Darstellen lassen sich die neuronalen Netze grundsätzlich sowohl mit Supercomputern als auch mit Quantencomputern oder mit neuromorphen Systemen. Neuromorphe Prozessorchips gelten als erheblich schneller als GPUs, und sie verbrauchen weniger Strom als diese. Der Stromverbrauch ist so niedrig, dass neuromorphe Chips der nächsten Generation auch zur Technologie für KI- (Künstliche Intelligenz-) Anwendungen in mobilen Geräten werden könnten.

Apple und Samsung arbeiten bereits daran, und IBM entwickelt die nächste Generation seiner Synapse-Chips. Mit den neuromorphen Systemen lassen sich neuronale Netze letztendlich leichter, das heißt: mit weniger Aufwand für das Gesamtsystem, darstellen. Aber auch durch immer mehr Qubits in einem Quantensystem lassen sich die Funktionen eines neuronalen Netzes darstellen. Quantencomputer benötigen für die Darstellung von Daten deutlich weniger Datenkapazität. Sie könnten sich schlussendlich als Gewinner-Technologie gerieren.

Allerdings benötigen Quantencomuter derzeit noch einen ziemlich hohen Aufwand rings um das eigentliche Q-System – vor allem Strom und Kühlung – so das für die nächsten Jahre typische Installationen von HPC-Systemen für neuronale Netze als technologische Basis für KI-Anwendungen so aussehen könnten: Bei sehr großen Datenvolumen und Aufgaben im Exascale-Bereich wird ein MPP- (Massively Parallel Processing-) Supercomputer – quasi als Datenbankserver und Präprozessor – die Datenportionen berechnen, die von einem komplexen Algorithmus im Quantencomputer analysiert werden. Bei KI-Anwendungen, insbesondere bei mobilen KI-Anwendungen, kommen die neuromorphen Chips wie Intels Loihi oder IBMs Synapse ins Spiel.

Simulierte Qubits sind schnell entlarvt

Ein Punkt, an dem sich die Technologie-Pfade gabeln werden, wird der Stromverbrauch der Rechner sein. Wie drastisch die Unterschiede sind, lässt sich recht anschaulich erklären, indem die Funktionalität eines Quantencomputers in einem Supercomputer simuliert wird. Das ist grundsätzlich bis zu einigen Qubits möglich, wird aber auch schnell unwirtschaftlich.

IBM-Director Wittmann erläutert: „Ein Summit-Supercomputer könnte durchaus die Leistung von 50 Qubits simulieren. Allerdings beträgt die Leistungsaufnahme des Supercomputers rund 13 Megawatt. Ein Quantencomputer berechnet dieselbe Aufgabe mit 10 Kilowatt Leistungsaufnahme. Würde man dieser Rechnung nun nur die Leistung von 1 Qubit hinzufügen, müssten wir die Ressourcen des Supercomputers verdoppeln. Auch die Leistungsaufnahme stiege auf 26 Megawatt. Mit immer größeren und komplexeren Aufgaben kommen wir also schnell in einen Bereich, wo ein Quantencomputer günstiger ist.“

Bildergalerie

Bildergalerie mit 6 Bildern

Woran die Forscher derzeit arbeiten, unter anderem mit beziehungsweise an Systemen am Forschungszentrum Jülich und im Hochleistungsrechenzentrum Stuttgart sind die Kühltemperaturen im Rechenzentrum. Eine optimierte, dynamische Regulierung Temperatur soll – wie man es im Kern von PC-Prozessoren her kennt – die Kühlleistung drosseln, wenn die CPUs eines Supercomputers weniger stark belastet werden. Ergebnis dieser Forschung sollen dann Betriebsmodelle für künftige HPC-Rechenzentren und deren Übertragung auf konventionelle Data Center sein.

Holm Landrock ist Freier Journalist und Autor in Dresden.
Holm Landrock ist Freier Journalist und Autor in Dresden.
(Bild: rosephotography)

Darüber, welche Technologie das Rennen macht, will sich IBM nicht festlegen. Wittmann: „Wir stehen bei den Quantencomputern noch ganz am Anfang. Komplexe Aufgaben wie die Erforschung atomarer Strukturen werden die Entwicklung vorantreiben. Diese Entwicklung läuft auf eine Koexistenz von Supercomputern mit Quantencomputern und neuromorphen Systemen hinaus, wobei die künftige Anwendung die Wahl der Technologie und der Rechnerarchitektur bestimmen wird.“

* Holm Landrock ist freier Journalist und und Autor. Er wohnt in Dresden.

(ID:46584517)