Was ist High Performance Computing?

High Performence Computing für extrem viel Rechnerei

| Autor / Redakteur: Blue Floyd* / Ulrike Ostler

Rechnen bis der Strom zu knapp oder die Energiekosten zu hoch werden: High Performance Computing ist dennoch ein Markt mit einer steilen Wachstumskurve.
Rechnen bis der Strom zu knapp oder die Energiekosten zu hoch werden: High Performance Computing ist dennoch ein Markt mit einer steilen Wachstumskurve. (Bild: © djarma/ Fotolia.com)

High Performance Computing (HPC) bezieht sich auf die extrem anspruchsvolle Berechnung von Daten innerhalb von Computersystemen. High Performance Computing spielt in der Forschung, im Big-Data, KI- und Simulationsumfeld eine große Rolle. Auch kleinere Unternehmen nutzen HPC , selten inhouse, zunehmend jedoch in der Cloud.

Der deutsche Begriff „Hochleistungsberechnung“ fasst es zusammen: Hinter dem Begriff High Performance Computing verbergen sich Computer, die deutlich komplexere Berechnungen als einzelne Geräte durchführen können. HPC ist damit unweigerlich auch an große Computer-Cluster gebunden: Nur diese sind schnell genug, um überhaupt Berechnungen dieser Art durchzuführen. Heute findet High Performance Computing nicht nur auf lokal verfügbaren Computern statt, sondern auch über Cloud-Dienste.

Mehr HPC für den Mittelstand durch Förderung und Cloud

Ein Marktplatz für Computersimulationen

Mehr HPC für den Mittelstand durch Förderung und Cloud

31.10.16 - „Fortissimo“ heißt der Marktplatz, der Anbieter von High Performance Computing (HPC) mit kleinen und mittelständischen Unternehmen zusammenbringen will. Projekt-Management und Abrechnung sind im Marketplace integriert. Und: Fortissimo ist ein europaweites Förderprojekt der Europäischen Kommission. lesen

Anforderungen an High Performance Computing

Gleich mehrere Bedarfsfälle sorgen dafür, dass sich Interessenten nach HPC umsehen. Dazu zählen unter anderem:

  • Der Bedarf nach einer extrem hohen theoretischen Rechenleistung. Sie wird in großen Computer-Cluster und Supercomputern in Tera- oder PetaFLOP pro Sekunde angegeben. Je höher die Rechenleistung, desto schneller kann HPC das zugrundeliegende Problem lösen.
  • Die rasante Speicherung von Daten. Berechnen die CPU- und GPU-Kerne in diesen Computern bestimmte Aufgaben, müssen die Ergebnisse gespeichert werden. Dies findet auf extrem umfangreichen RAID-Verbunden aus HDDs oder SSDs statt.
  • Um Daten schnell verfügbar zu machen, ist High Performance Computing auf hohe Mengen RAM angewiesen. Für Supercomputer ist es nicht unüblich, RAM-Mengen im Petabyte-Bereich zur Verfügung zu stellen. Auch die Geschwindigkeit des Arbeitsspeichers spielt für HPC eine Rolle.
  • Daten werden über Netzwerkschnittstellen zur Verfügung gestellt und gespeichert. Ergo muss für wirkungsvolles High Performance Computing auch das Netzwerk so aufgebaut sein, dass es sich nicht zu einem Flaschenhals für die Datenübertragung entwickelt.

Im HPC-Bereich werden normalerweise alle genannten Anforderungen zugleich abgedeckt, da sie alle eine gleichmäßig starke Rolle für den Gesamterfolg des Projekts spielen. Flaschenhälse - etwa durch eine enorme Rechenleistung, aber eine nur geringe Speicherleistung - sind nicht akzeptabel.

Anwendungsbereiche von HPC

Theoretisch spielt High Performance Computing überall dort eine Rolle, wo der Bedarf nach extremer Rechenleistung besteht. Naturgemäß sind es vor allem die Wissenschaften, die von HPC Gebrauch machen. Praktisch alle großen Supercomputer auf der Welt werden für die Wissenschaft oder Regierungsinstitutionen verwendet.

Von der gedruckten menschlichen Zelle bis zum 10.000 Euro 3D-Bild

High Performance per X86

Von der gedruckten menschlichen Zelle bis zum 10.000 Euro 3D-Bild

13.07.15 - Seit gestern läuft zum 30. Mal die International Supercomputing Conference (ISC) – in Frankfurt. Galt HPC einst als elitär, schwierig und unerschwinglich, machen x86-Cluster die Technik auch für kleinere Institute und mittelständische Unternehmen attraktiv. Seit jüngstem gibt es gar integrierte Systeme. Die Anwendungen aber bleiben allemal spannend, zum Beispiel von Dell und Fujitsu. lesen

Typisch sind beispielsweise diverse Bereiche der Physik wie Astro- und Teilchenphysik, die Aufschlüsselung von DNA-Sequenzen, Genetik, Strömungsmechanik, Klimamodellierung, zunehmend Big Data und KI-Bereiche wie Deep-Learning und dergleichen mehr. Da in diesen Bereichen extreme Datenmengen anfallen und ausgewertet werden müssen, sind Supercomputer und HPC in der Regel die einzige sinnvolle Methode.

In Unternehmen ist High Performance Computing ebenfalls teilweise verbreitet. Beispiele umfassen etwa Automobilkonzerne, die Windwiderstände an neuen Designentwürfen messen möchten und dazu auf die Verarbeitung der gesammelten Daten über HPC angewiesen sind.

Die dafür notwendigen Computer werden meist direkt vor Ort betrieben, um einen Datenverlust und damit eventuell den Verlust von Geschäftsgeheimnissen unmöglich zu machen. Auch Crashtests werden häufig von Computerclustern ausgewertet, wodurch sie ebenfalls zum High Performance Computing zählen. HPC ist auch im Entertainment verbreitet, da sich aufwendige Spezialeffekte ohne enorme Rechenleistung heute nicht mehr berechnen lassen.

Cluster für das High Performance Computing

High Performance Computing findet auf Computer-Cluster oder Supercomputern statt. Im Kern unterscheiden sich diese Systeme für HPC nur leicht von gewöhnlichen Computern. Die größten Unterschiede bestehen vor allem in den folgenden Bereichen:

Anzahl der CPU- und GPU-Kerne

Nicht nur wenige Kerne, sondern bis zu mehrere Millionen CPU- und GPU-Kerne arbeiten in einem Supercomputer für High Performance Computing parallelisiert. Ein Beispiel ist der aktuell schnellste Computer „Sunway TaihuLight in Wuxi“ in China: Der Computer befindet sich in 40 einzelnen Server-Schränken und ist mit insgesamt 10,6 Millionen CPU-Kernen ausgestattet. Diese bearbeiten durch High Performance Computing bei Bedarf alle gleichzeitig ein bestimmtes Problem. Die theoretische Rechenleistung beläuft sich dadurch auf 93,01 PetaFLOPs.

100mal effizienter bei 1018 Operationen pro Sekunde

Supercomputing neu gedacht

100mal effizienter bei 1018 Operationen pro Sekunde

08.07.16 - Die Idee hinter „DEEP“ ist so einfach wie genial. Das Akronym steht für „Dynamical Exascale Entry Platform“. Das ist ist ein europäisches Supercomputing-Projekt unter der Leitung des Forschungszentrums Jülich. Es kombiniert intelligent und flexibel traditionelle Cluster mit einem „Booster“, einem Cluster von Beschleunigern, in einem einzigen Rechner. lesen

Art des Betriebssystems

Jeder Supercomputer, der für HPC zur Verfügung stehen soll, erhält ein eigenes Betriebssystem auf Linux-Basis. Andere Betriebssysteme spielen in diesem Bereich kaum eine Rolle. Da der Einsatzzweck des Geräts für High Performance Computing bereits im Voraus feststeht, wird das Betriebssystem exakt auf diesen Bedarf zugeschnitten. Es würde also nicht die Möglichkeit bestehen, diesen Computer für andere Anwendungsfälle als ursprünglich geplant einzusetzen.

Art der Hardware

Für gewöhnlich werden für HPC keine CPUs eingesetzt, die am oberen Ende der derzeit verfügbaren Leistungsspitze rangiert. Stattdessen spielen beim High Performance Computing verhältnismäßig günstige x86-CPUs mit guter Energie-Effizienz eine Rolle. Die eigentliche Leistung wird durch Parallelisierung entweder von GPUs (aus Händen von NVIDIA oder AMD) oder FPGAs und ASICs bereitgestellt, die für spezifische Anwendungen konzipiert wurden. Für die gedachten Aufgaben können diese Komponenten eine Leistung bereitstellen, die weit oberhalb der Performance reiner CPU-Cluster liegt.

Maßgeschneiderte Supercomputer stärken Unternehmen jeder Größe

Mehr Rechenpower für den Mittelstand

Maßgeschneiderte Supercomputer stärken Unternehmen jeder Größe

31.08.16 - In immer kürzerer Zeit bessere Ergebnisse liefern – dieses Mantra treibt jede Branche an. Komplexe Simulationen mit unzähligen Variablen und Echtzeit-Anwendungen erfordern schnelle, zuverlässige und hoch leistungsfähige Rechnersysteme. High-Performance Computing (HPC), früher großen Konzernen, Universitäten und Forschungsinstituten vorbehalten, findet Eingang in den Mittelstand. lesen

HPC führt remote zum Konstruktionserfolg

High Performance Computing im Mittelstand

HPC führt remote zum Konstruktionserfolg

10.12.15 - Das Anwendungsspektrum für HPC-Lösungen ist größer denn je. Auch mittelständische Unternehmen können sie in-zwischen kostengünstig und prozessoptimierend nutzen, wie die Beispiele aus diesem Artikel zeigen. lesen

Anwendung von HPC durch kleine Unternehmen

Die Cloud ist dafür verantwortlich, dass High Performance Computing inzwischen auch für kleinere Unternehmen verfügbar ist. Über Dienste wie „Microsoft Azure“ oder „Amazon AWS“ können Unternehmen HPC mieten und für bestimmte Aufgaben verwenden. Vorteile dieser Methode umfassen etwa die Tatsache, dass Unternehmen für High Performance Computing keine eigenen Investitionen in Serve-Ccluster vornehmen müssen.

Auch Support, Pflege und Weiterentwicklung fallen nicht in die Hände des Unternehmens. Die Miete von Rechenleistung für HPC steht außerdem für genau diejenigen Aufgaben zur Verfügung, die benötigt wird - und nicht mehr. Kosten lassen sich dadurch sehr einfach kalkulieren.

* Blue Floyd arbeitet unter diesem Pseudonym für die Agentur Content.de.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44724109 / Definitionen)