Von der Cray bis zum Linux-Cluster mit GPU Was ist ein Supercomputer?
Supercomputer, der Begriff beschreibt Computersysteme mit extrem großer Leistungsfähigkeit, auch im Vergleich zu den schnellsten normalen Computern. Er schließt dabei Grid- oder Cloud-Computing-Lösungen aus, bei denen räumlich verteilte, vernetzte Computer numerische Probleme gemeinschaftlich lösen, oft auf freiwilliger Basis.
Anbieter zum Thema

Seinen Ursprung hat der Begriff Supercomputer in der von Seymour Cray entworfenen „CDC-6600“, die bei ihrer Vorstellung 1964 rund zehnmal so schnell rechnete wie die schnellsten Computer ihrer Zeit. Am typischen Aufbau von Supercomputern hat sich inzwischen allerdings sehr viel verändert.
Die Top500: Supercomputer im Vergleich
Die TOP500-Liste bietet seit 1993 einen detaillierten, zweimal jährlich aktualisierten Überblick der weltweit leistungsfähigsten Supercomputer. Sie bietet daher neben dem Vergleich der jeweils aktiven Systeme hinsichtlich Rechenleistung, verschiedenen Hardware-Kennzahlen, Betriebssystem, Hersteller, geographischer Verteilung und nationaler Zugehörigkeit ebenso die Grundlage für eine Analyse der historischen Entwicklung.
Seit 2007 ergänzt die Green500-Liste der Energie-effizientesten Supercomputer den Vergleich der leistungsstärksten Systeme. Zu den bedeutsamsten aktuellen Trends zählen die massive Zunahme der Anzahl Prozessorkerne pro Cluster, der fast durchgängige GPU-Einsatz zur Leistungssteigerung bei reduziertem Energieverbrauch, eine Verschiebung der Führung von den USA nach China und eine abnehmende Fluktuation unter den ersten zehn Plätzen.
:quality(80)/images.vogel.de/vogelonline/bdb/1138900/1138948/original.jpg)
Energieeffizienter Fujitsu-Supercomputer QPACE3 in Jülich in Betrieb
Der Urknall im Rechner
Geblieben ist dagegen die Dominanz von Betriebssystemen aus der Unix-Welt in der TOP500 Liste, wobei sich ab 1998 ein Wechsel vom Vektorrechner zum Cluster mit Linux als Betriebssystemkern vollzogen hat. Selbst Cray konnte sich dem Trend zum Linux Cluster nicht entziehen.
Petaflops und Terabyte
Im Gegensatz zum Desktop-PC bemisst sich die Performance von Supercomputern nicht in Instruktionen (MIPS), sondern Gleitkommaoperationen pro Sekunde (FLOPS, Floating point Operations per Second), beziehungsweise deren durch SI-Präfixe gekennzeichneten Vielfachen wie TFLOPS. Aber auch in anderer Hinsicht können aktuelle, massiv parallele Linux Cluster, die Terabyte-weise Daten verarbeiten, mit beeindruckenden Zahlen aufwarten.
Die chinesische Nummer Eins der TOP500-Liste vom November 2016, Sunway TaihuLight, verfügt beispielsweise über 1.311 Terabyte RAM und hat eine Anschlussleistung von gut 15 Megawatt. Der bis 2015 leistungsfähigste deutsche Supercomputer, die im Forschungszentrum Jülich installierte JUQUEEN, nimmt sich mit 459 Terabyte Speicher und 2,3 Megawatt fast bescheiden aus, lieferte aber auch nur 5 PFLOPS, im Vergleich zum TaihuLight mit 93 PFLOPS. Im November 2015 verdrängte ihn die Hazel Hen des Stuttgarter Höchstleistungsrechenzentrums (HLRS), einer von nur zwei Neuzugängen unter den ersten zehn der TOP500-Liste.
:quality(80)/images.vogel.de/vogelonline/bdb/1047800/1047806/original.jpg)
Neue Spitzenreiter der Top500-Supercomputer
Größer, schneller, grüner - die HPC- und Superrechner
Mehr Rechenpower aus der GPU
Fast alle aktuellen Supercomputer, von der Cray bis zum Linux Cluster, ziehen Rechenleistung nicht nur aus den für allgemeine Rechenaufgaben im Computer vorgesehenen CPUs, sondern auch aus GPU Bausteinen (Graphical Processing Unit). Ein Vorteil des GPU-Einsatzes ist der geringere Stromverbrauch pro Recheneinheit. Die ursprüngliche Aufgabe der GPU ist die Beschleunigung der Berechnung von Bilddaten, die für die Speisung von Ausgabegeräten wie Monitoren benötigt werden.
Die GPU ist daher für die parallele Manipulation großer Speicherblöcke optimiert. Diese Eigenschaft macht sie aber ebenfalls für den Einsatz in einem Linux Cluster interessant, dessen Datendurchsatz sich in Terabyte misst. Sogar in den Rechnersystemen von Cray Inc. taucht die GPU auf, zuerst 2010 bei den Cray CX1000 Systemen und danach, 2011 in der Cray XK6. Ab der Cray XK6 kommen die von Nvidia als General Purpose GPU (GPGPU) vermarkteten Tesla und Kepler Prozessoren zum Einsatz.
:quality(80)/images.vogel.de/vogelonline/bdb/1039700/1039716/original.jpg)
ISC 2016: Intel ein Schnippchen geschlagen
Der schnellste Computer rechnet auf CPUs aus China
TOP500 2016: China und USA Kopf an Kopf
Seit der ersten Veröffentlichung haben die USA die TOP500 Liste mit den schnellsten, meisten und auch insgesamt leistungsfähigsten Systemen angeführt. Mit 167 Supercomputern und zusammen 211 PFLOPS führte China in der ersten TOP500-Liste 2016 erstmals mit mehr Systemen und mehr Leistung als die USA mit 165 Supercomputern und insgesamt 173 PFLOPS. Bei der Anzahl konnten die USA Ende des Jahres wieder mit China gleichziehen und sich dank einem neuen Cray-Supercomputer mit 14 PFLOPS bei der Gesamtleistung sogar wieder an die Spitze setzen.
Auf dem ersten Platz steht jedoch weiterhin der chinesische Supercomputer TaihuLight, mit Linux-basiertem RaiseOS, nur noch knapp 7 PFLOPS von der 100-PFLOPS-Marke entfernt. Die chinesische Nummer Eins mit 1.311 Terabyte Speicher zeichnet sich außerdem dadurch aus, dass es vollständig aus chinesischer Produktion stammt. Mitverantwortlich dafür ist ein US-Exportverbot für Intel Xeon Chips aus dem Jahr 2015.
Bei welchen Aufgaben kommen Supercomputer zum Einsatz?
Zu den typischen Anwendungen von Supercomputern zählen nach wie vor Wettervorhersagen, für die bereits die Cray-1 genutzt wurde. Von der Simulation eines vollständigen Wettermodells, das bis zu einem Zeitraum von zwei Wochen eine genaue Wettervorhersage liefern könnte, sind die aktuellen Linux Cluster und Cray Superrechner wahrscheinlich noch gut zwei Jahrzehnte entfernt. Ein weiteres Einsatzgebiet ist die Simulation nuklearer Explosionen.
Darüber hinaus konnten IBM BlueGene/P Supercomputer mit rund 200 TFLOPS und etwa 150 Terabyte Speicher bereits ein System von 1,6 Milliarden Neuronen mit etwa 9 Billionen Verbindungen simulieren, was etwa einem Prozent des menschlichen Gehirns entspricht. Mit dem Stampede Supercomputer am Texas Advanced Computing Center haben drei Wissenschaftler 2016 einen Beweis für ein kombinatorisches Problem im Zusammenhang mit pythagoreischen Zahlentripeln ausgerechnet, der im DRAT-Format 200 Terabyte Speicher benötigt.
* LineFeed arbeitet für die Agentur Content.de.
(ID:44572142)