Suchen
Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

High Performance Computing für extrem viel Rechnerei Was ist High Performance Computing, HPC?

Autor / Redakteur: Blue Floyd* / Ulrike Ostler

High Performance Computing (HPC) bezieht sich auf die extrem anspruchsvolle Berechnung von Daten innerhalb von Computersystemen. High Performance Computing spielt in der Forschung, im Big-Data, KI- und Simulationsumfeld eine große Rolle. Auch kleinere Unternehmen nutzen HPC , selten inhouse, zunehmend jedoch in der Cloud.

Firma zum Thema

Rechnen bis der Strom zu knapp oder die Energiekosten zu hoch werden: High Performance Computing ist dennoch ein Markt mit einer steilen Wachstumskurve.
Rechnen bis der Strom zu knapp oder die Energiekosten zu hoch werden: High Performance Computing ist dennoch ein Markt mit einer steilen Wachstumskurve.
(Bild: © djarma/ Fotolia.com)

Der deutsche Begriff „Hochleistungsberechnung“ fasst es zusammen: Hinter dem Begriff High Performance Computing verbergen sich Computer, die deutlich komplexere Berechnungen als einzelne Geräte durchführen können. HPC ist damit unweigerlich auch an große Computer-Cluster gebunden: Nur diese sind schnell genug, um überhaupt Berechnungen dieser Art durchzuführen. Heute findet High Performance Computing nicht nur auf lokal verfügbaren Computern statt, sondern auch über Cloud-Dienste.

Anforderungen an High Performance Computing

Gleich mehrere Bedarfsfälle sorgen dafür, dass sich Interessenten nach HPC umsehen. Dazu zählen unter anderem:

  • Der Bedarf nach einer extrem hohen theoretischen Rechenleistung. Sie wird in großen Computer-Cluster und Supercomputern in Tera- oder PetaFLOP pro Sekunde angegeben. Je höher die Rechenleistung, desto schneller kann HPC das zugrundeliegende Problem lösen.
  • Die rasante Speicherung von Daten. Berechnen die CPU- und GPU-Kerne in diesen Computern bestimmte Aufgaben, müssen die Ergebnisse gespeichert werden. Dies findet auf extrem umfangreichen RAID-Verbunden aus HDDs oder SSDs statt.
  • Um Daten schnell verfügbar zu machen, ist High Performance Computing auf hohe Mengen RAM angewiesen. Für Supercomputer ist es nicht unüblich, RAM-Mengen im Petabyte-Bereich zur Verfügung zu stellen. Auch die Geschwindigkeit des Arbeitsspeichers spielt für HPC eine Rolle.
  • Daten werden über Netzwerkschnittstellen zur Verfügung gestellt und gespeichert. Ergo muss für wirkungsvolles High Performance Computing auch das Netzwerk so aufgebaut sein, dass es sich nicht zu einem Flaschenhals für die Datenübertragung entwickelt.

Im HPC-Bereich werden normalerweise alle genannten Anforderungen zugleich abgedeckt, da sie alle eine gleichmäßig starke Rolle für den Gesamterfolg des Projekts spielen. Flaschenhälse - etwa durch eine enorme Rechenleistung, aber eine nur geringe Speicherleistung - sind nicht akzeptabel.

Anwendungsbereiche von HPC

Theoretisch spielt High Performance Computing überall dort eine Rolle, wo der Bedarf nach extremer Rechenleistung besteht. Naturgemäß sind es vor allem die Wissenschaften, die von HPC Gebrauch machen. Praktisch alle großen Supercomputer auf der Welt werden für die Wissenschaft oder Regierungsinstitutionen verwendet.

Typisch sind beispielsweise diverse Bereiche der Physik wie Astro- und Teilchenphysik, die Aufschlüsselung von DNA-Sequenzen, Genetik, Strömungsmechanik, Klimamodellierung, zunehmend Big Data und KI-Bereiche wie Deep-Learning und dergleichen mehr. Da in diesen Bereichen extreme Datenmengen anfallen und ausgewertet werden müssen, sind Supercomputer und HPC in der Regel die einzige sinnvolle Methode.

In Unternehmen ist High Performance Computing ebenfalls teilweise verbreitet. Beispiele umfassen etwa Automobilkonzerne, die Windwiderstände an neuen Designentwürfen messen möchten und dazu auf die Verarbeitung der gesammelten Daten über HPC angewiesen sind.

Die dafür notwendigen Computer werden meist direkt vor Ort betrieben, um einen Datenverlust und damit eventuell den Verlust von Geschäftsgeheimnissen unmöglich zu machen. Auch Crashtests werden häufig von Computerclustern ausgewertet, wodurch sie ebenfalls zum High Performance Computing zählen. HPC ist auch im Entertainment verbreitet, da sich aufwendige Spezialeffekte ohne enorme Rechenleistung heute nicht mehr berechnen lassen.

Cluster für das High Performance Computing

High Performance Computing findet auf Computer-Cluster oder Supercomputern statt. Im Kern unterscheiden sich diese Systeme für HPC nur leicht von gewöhnlichen Computern. Die größten Unterschiede bestehen vor allem in den folgenden Bereichen:

Anzahl der CPU- und GPU-Kerne

Nicht nur wenige Kerne, sondern bis zu mehrere Millionen CPU- und GPU-Kerne arbeiten in einem Supercomputer für High Performance Computing parallelisiert. Ein Beispiel ist der aktuell schnellste Computer „Sunway TaihuLight in Wuxi“ in China: Der Computer befindet sich in 40 einzelnen Server-Schränken und ist mit insgesamt 10,6 Millionen CPU-Kernen ausgestattet. Diese bearbeiten durch High Performance Computing bei Bedarf alle gleichzeitig ein bestimmtes Problem. Die theoretische Rechenleistung beläuft sich dadurch auf 93,01 PetaFLOPs.

Art des Betriebssystems

Jeder Supercomputer, der für HPC zur Verfügung stehen soll, erhält ein eigenes Betriebssystem auf Linux-Basis. Andere Betriebssysteme spielen in diesem Bereich kaum eine Rolle. Da der Einsatzzweck des Geräts für High Performance Computing bereits im Voraus feststeht, wird das Betriebssystem exakt auf diesen Bedarf zugeschnitten. Es würde also nicht die Möglichkeit bestehen, diesen Computer für andere Anwendungsfälle als ursprünglich geplant einzusetzen.

Art der Hardware

Für gewöhnlich werden für HPC keine CPUs eingesetzt, die am oberen Ende der derzeit verfügbaren Leistungsspitze rangiert. Stattdessen spielen beim High Performance Computing verhältnismäßig günstige x86-CPUs mit guter Energie-Effizienz eine Rolle. Die eigentliche Leistung wird durch Parallelisierung entweder von GPUs (aus Händen von NVIDIA oder AMD) oder FPGAs und ASICs bereitgestellt, die für spezifische Anwendungen konzipiert wurden. Für die gedachten Aufgaben können diese Komponenten eine Leistung bereitstellen, die weit oberhalb der Performance reiner CPU-Cluster liegt.

Anwendung von HPC durch kleine Unternehmen

Die Cloud ist dafür verantwortlich, dass High Performance Computing inzwischen auch für kleinere Unternehmen verfügbar ist. Über Dienste wie „Microsoft Azure“ oder „Amazon AWS“ können Unternehmen HPC mieten und für bestimmte Aufgaben verwenden. Vorteile dieser Methode umfassen etwa die Tatsache, dass Unternehmen für High Performance Computing keine eigenen Investitionen in Serve-Ccluster vornehmen müssen.

Auch Support, Pflege und Weiterentwicklung fallen nicht in die Hände des Unternehmens. Die Miete von Rechenleistung für HPC steht außerdem für genau diejenigen Aufgaben zur Verfügung, die benötigt wird - und nicht mehr. Kosten lassen sich dadurch sehr einfach kalkulieren.

* Blue Floyd arbeitet unter diesem Pseudonym für die Agentur Content.de.

Artikelfiles und Artikellinks

(ID:44724109)