Die Internationale Supercomputing-HPC-Konferenz kündigt sich an Künstliche Intelligenz wandelt das High Performance Computing

Von Jürgen Frisch 5 min Lesedauer

Anbieter zum Thema

Hochleistungsrechenzentren gibt es längst nicht mehr nur in der Forschung. Auch die Chemie, die Automobilindustrie und der Flugzeughersteller Airbus nutzen die damit verbundenen Technologien und Techniken. Der größte Technologieschub kommt aktuell aus Projekten mit Künstlicher Intelligenz (KI), erläutert Eric Schnepf*, Senior Advisor HPC für die ISC Group.

KI macht Supercomputing für Einsteiger interessant.(Bild:  Ulia Koltyrina - stock.adobe.com)
KI macht Supercomputing für Einsteiger interessant.
(Bild: Ulia Koltyrina - stock.adobe.com)

Wo stehen wir denn aktuell in Sachen Supercomputing? In welchen Branchen jenseits der Forschung kommt aktuell diese Technologie zum Einsatz?

Im Gespräch:
Eric Schnepf* ist Senior Advisor HPC für die ISC Group. Vorher war er Lead Solution Architect High Performance Computing and AI bei Fujitsu in Central Europe.

Bildquelle: ISC Group

Eric Schnepf: Die meisten Top500-Systeme stehen zwar nach wie vor in Forschungseinrichtungen, aber auch Unternehmen nutzen Supercomputer. Die Chemie beispielsweise, die Energieversorgung, die Automobilindustrie oder auch die Luftfahrtindustrie, wo Airbus mit Hochleistungsrechnern Technologien für ein umweltfreundliches Fliegen entwickelt.

Hinzu kommt, dass nicht jeder industriell genutzte Supercomputer öffentlich bekannt wird. Künftige Supercomputer werden heterogener und modularer, um die nötigen Leistungssteigerungen zu realisieren. Den aktuellen Stand zeigt die nächste Top500-Liste, die wir am 13. Mai auf der ISC-Konferenz veröffentlichen.

Wo stehen wir beim Quantencomputing? Haben wir hier schon die Stufe erreicht, wo Unternehmen konkrete Business-Vorteile daraus ziehen?

Eric Schnepf: Experten für Quantencomputing rechnen sich große Chancen in den Materialwissenschaften, bei Optimierungsaufgaben wie beispielsweise der Verkehrssteuerung und im Quantum Machine Learning aus. Den aktuellen Stand erläutert ein Fokusvortrag auf der Konferenz.

Sie gehen davon aus, dass es künftig ein intensives Miteinander von High Performance Computing, Künstlicher Intelligenz und Quantencomputing geben wird. Wie wird dieses Miteinander konkret aussehen? Welche Rollen kommen dabei den genannten Disziplinen zu?

Eric Schnepf: Wir beobachten schon seit einiger Zeit, dass Experten mit unterschiedlichen Schwerpunkten zusammenarbeiten. Zum Beispiel bei der Integration von Quantencomputing mit High-Performance-Computing, oder auch, wenn es um Methoden der Künstlichen Intelligenz in wissenschaftlichen Simulationsanwendungen geht. Um herausfordende Anwendungen effizient zu realisieren, ist ein Miteinander von Quantencomputing, High-Performance-Computing und Künstlicher Intelligenz erforderlich. Reine Quantencomputer lassen sich bislang nicht in die Workflows integrieren. Für konkrete Anwendungsfälle ist daher künftig das Miteinander aller Technologien erforderlich. Dabei laufen einige Anwendungen auf klassischen Systemen, während man geeignete Teilaufgaben auf Quantentechnologie auslagert, um sie maximal zu beschleunigen.

Der DataCenter-Diaries-Podcast #32 „KI bringt frischen Wind und neue Ansätze ins Hochleistungsrechnen“ mit Eric Schnepf behandelt im Gespräch mit Jürgen Frisch, wie sich das Hochleistungsrechenzentren aktuell wandelt. Ganz und gar nicht unschuldig daran ist die Verbandelung mit Techniken und Vorgehensweisen der Künstlichen Intelligenz. Schnepf ist beratend für die ISC Group tätig und bereitet gerade die nächste Internationale Supercomputing Konferenz - HPC in Hamburg vor.

Die Podcast-Folge #32 von DataCenter Diaries findet sich auf Spotify, Apple Podcasts, Deezer, Amazon Musik und Google Podcasts.

Sie vertreten die These, dass viele Technologien gerade für Künstliche Intelligenz entwickelt werden, weil hier viel Geld für Investitionen vorhanden ist. Anwendungen aus der Wissenschaft würden erst im zweiten Schritt zum Zug kommen. Wie darf ich mir das konkret vorstellen?

Eric Schnepf: Es ist ja nicht das erste Mal, dass Technologien, die zunächst für andere Anwendungsfelder entwickelt wurden, später in Hochleistungsrechnern zum Einsatz kommen. Erinnern wir uns beispielsweise an die ersten PC-Cluster. Erst danach wurden dann x86 CPUs praktisch ein Standard für HPC-Cluster.

Auch die Graphics Processing Units wurden zunächst für Grafikanwendungen entwickelt, bevor sie dann Wissenschaftler für Berechnungen eingesetzt haben. Aktuell erwarten viele Experten, dass neue Technologien künftig besonders für die Anforderungen Generativer Künstlicher Intelligenz entwickelt werden. Dort sehen wir gerade große Investments. Danach wird man dann untersuchen, wie sich diese Technologien für wissenschaftliches Hochleistungsrechnern nutzen lassen. Dabei muss man dann berücksichtigen, welche Präzision in den Datenformaten und welche Genauigkeiten für Generative Künstliche Intelligenz nötig sind.

Wissenschaftliche Berechnungen brauchen oft eine sehr große Genauigkeit, aber möglicherweise nicht in allen Phasen der Berechnung. Vielleicht kann man mit arithmetischen Operationen, wie beispielsweise Mixed Precision aus der Künstlichen Intelligenz, auch in wissenschaftlichen Simulationen Fortschritte und eine Beschleunigung erreichen.

Als Sie in einer Vorab-Umfrage zur Konferenz das thematische Interesse abgefragt haben, war neben Künstlicher Intelligenz auch Cloud Computing ein Schwerpunkt. Wie reiht sich die Cloud in das Miteinander von High Performance Computing, Künstlicher Intelligenz und Quantencomputing ein?

Eric Schnepf: Wir sehen ein großes Interesse der Konferenzteilnehmer an Themen wie High Performance Computing in der Cloud und Containertechnologien für High Performance Computing. Diese Themen adressieren wir in Tutorials, Sessions und Workshops, und auch die Aussteller zeigen entsprechende Lösungen. Ob ein Anwender High Performance Computing in der Cloud oder eher in einem hybriden Ansatz mit Cloud-Bursting nutzt, hängt stark von seinen individuellen Anforderungen ab.

Finden mittelständische Unternehmen möglicherweise über die Cloud einfacher den Einstieg in Künstliche Intelligenz oder in High Performance Computing?

Eric Schnepf: Ja. Zum Ausprobieren von Künstlicher Intelligenz oder in der Entwicklungsphase einer Lösung ist die Cloud sehr gut geeignet. Kommt es dann zum produktiven Einsatz, möglicherweise mit Kundendaten oder streng vertraulichen Entwicklungsdaten, können die Anforderungen schon völlig anders aussehen. Wichtig hierbei ist, dass Unternehmen auch in der Cloud den für sie am besten passenden Software Stack verwenden können.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Verweisen möchte ich an dieser Stelle auf das Euro HPC Joint Undertaking, das High-Performance-Ressourcen für Anwendungen auf Basis Künstlicher Intelligenz bereitstellt. Die Anwender nutzen diese Ressourcen nicht anders als solche aus der Cloud.

HPC-Einsteiger bekommen einen besonderen Service

Unternehmen, die in Projekten mit Künstlicher Intelligenz Bedarf an High Performance Computing haben, brauchen Unterstützung, da ihnen diese Welt typischerweise fremd ist. Genau diese Gruppe will die ISC-Konferenz besonders ansprechen:

„Provider in der Ausstellung richten ihre Angebote nicht nur an Wissenschaftler, sondern auch an Unternehmen“, berichtet Eric Schnepf. „Hinzu kommen entsprechende Tutorials. Darüber hinaus geht das European HPC Joint Undertaking in einem Workshop auf die Unterstützungsangebote für Aktivitäten von mittelständischen Unternehmen und Startups in Sachen Künstlicher Intelligenz ein. Da geht es beispielsweise um die Frage, wie ein Unternehmen Anwendungen für Künstliche Intelligenz testen kann, welchen Software-Stack sie dafür am besten nutzen, wie die optimale Systemarchitektur für das Training der Algorithmen aussieht und wie man diese Applikationen in vorhandene IT-Infrastrukturen und Prozesse integriert.“

Die ISC-Konferenz war lange der Insidertreff der High Performance Computing Experten. Neueinsteigern war diese Welt bisher fremd. Damit Teilnehmer auf einen Blick erkennen, welche Sessions sich eher an Newcomer, und welche sich an Experten wendet, wird nun jeder Vortrag und jeder Workshop gekennzeichnet.

Weitere Informationen zur Veranstaltung gibt es hier.

Ein weiterer Interessenschwerpunkt in der Vorab-Umfrage war das Thema Sustainability. Wie können wir künftig Hochleistungs-Rechenzentren umweltverträglich betreiben und wer zahlt die enormen Stromrechnungen dafür?

Eric Schnepf: Das ist ein enorm wichtiges Thema, wo für eine Lösung noch viel zu tun ist. Elemente der dazugehörigen Diskussion betreffen unter anderem das Liquid Cooling für eine bessere Energie-Effizienz und reichen bis hin zur Herstellung der Supercomputer und das spätere Recycling der dabei verwendeten Materialien. Auf der ISC-Konferenz haben wir dazu eine Panel-Diskussion mit Experten aus Europa, Amerika und Asien, die Tor Björn Minde von Rise Research Institute of Sweden moderiert.

(ID:50022086)