Neue Spitzenreiter der Top500-Supercomputer

Größer, schneller, grüner - die HPC- und Superrechner

| Autor / Redakteur: Michael Matzer / Ulrike Ostler

Der HPC Server Markt 2015 gemäß Marktforschung vom Marktforschungsunternehmen IDC.
Der HPC Server Markt 2015 gemäß Marktforschung vom Marktforschungsunternehmen IDC. (Bild: IDC)

Auf der International Supercomputing Conference (ISC) 2016, die vergangenen Monat wieder in Frankfurt am Main stattfand, wurde die neue „Top500“-Liste der schnellsten Rechner der Welt vorgestellt. Schnellster Rechner ist wieder ein System aus China, das inzwischen die USA hinsichtlich der Zahl der HPC-Systeme überflügelt hat.

Die Liste der Top500-Supercomputer hat einen neuen Spitzenreiter. Das chinesische System „Sunway Taihu Light“ überholte das chinesische Top-System „Tianhe-2“, das die letzten drei Jahre dominierte, mit selbst entwickelten Prozessoren. Mit über 10,6 Millionen Rechenkernen in knapp 41.000 Rechenknoten erzielt Taihu Light eine Rechenleistung von 93 Petaflop/s, also 93 Billiarden von Gleitkommaoperationen pro Sekunde. Der Tianhe-2 kommt „nur“ auf 33,86 Petaflop/s, gemessen mit dem gängigen Linpack-Benchmark.

Der Taihu Light-Supercomputer ist der neue Spitzenreiter der Top500-Liste.
Der Taihu Light-Supercomputer ist der neue Spitzenreiter der Top500-Liste. (Bild: Sunway-Taihu Light)

Besonders interessant ist dabei der Umstand, dass der TaihuLight mit einer Leistung von 6 Gigaflop/s pro Watt beziehungsweise 15,37 MW insgesamt immer noch einer der Energie-effizientesten Rechner der Welt ist. Dies ist aber noch längst kein Exaflop-System, das eine Trillion FLOP/s verarbeitet.

Ein solches System, da sind sich die HPC-Experten einig, würde zehnmal so viel Gesamtleistung (150-170 MW) verschlingen und müsste mindestens 50 GFLOP/s pro Watt Leistung liefern. Horst Simon, der stellvertretende Direktor und Forschungsleiter am Lawrence Berkeley National Laboratory bei San Francisco, ist sich sicher, dass ein solches Exascale-System nicht vor dem Jahr 2020 gebaut werden. Dennoch: Die Chinesen arbeiten unverdrossen darauf hin.

Die Grünen unter den Superrechnern

Da dieses Jahr die Ranglisten für allgemeine Supercomputer und die Green500-Rechner zusammengelegt wurden, rangiert die neue Nummer eins Taihu Light in beiden Listen ganz oben und wird in Sachen „Green-IT“ nur vom System Shoubu geschlagen, das bei "RIKEN" in Japan betrieben wird. Das Shoubu-System wird mit Wasseraggregaten gekühlt, die PEZY Computing herstellt.

Taihu Light wurde vom Nationalen Forschungszentrum für Parallel Computer Engineering & Technology am National Supercomputer Center in Wuxi gebaut, das mit der Tsinghua-Universität kooperiert. Das System ist insofern technisch bemerkenswert, als die Forscher auf Standard-Hardware verzichteten und Chips der Marke Eigenbau verwendeten.

Der schnellste Computer rechnet auf CPUs aus China

ISC 2016: Intel ein Schnippchen geschlagen

Der schnellste Computer rechnet auf CPUs aus China

23.06.16 - Das „Wuxi Supercomputer Center“ in der Nähe von Shanghai hat mit „Sunway TaihuLight“ einen neuen Supercomputer: 93 Petaflops LINPACK (125 Petaflops Spitze), gebaut mit Prozessoren, made in China. Der Superrechner wird in folgenden Bereichen eingesetzt: CAE und CFD, dem Erstellen von Modellen zur Erforschung der Erde und der Wettervorhersage, Gesundheitswesen sowie Big-Data-Analysen. lesen

Amerikanische Betreiber wie das US-Energieministerium sowie japanische und saudi-arabische Forschungszentren teilen sich die ersten zehn Plätze mit zwei europäischen Hochleistungsrechnern. Der Energie-effizienteste, aber auch schnellste Rechner Europas „Piz Daint“ wird in Lugano vom Schweizer Supercomputing-Zentrum auf einem Cray-System betrieben. Es ist dichtauf gefolgt von einem weiteren Cray-System namens „Hazel Hen“, das in Stuttgart vom Höchstleistungsrechenzentrum HLRS betrieben wird. Diese Cray-Rechner arbeiten mit Intel-Prozessoren.

Das Jahr 2016 bezeichnet einen weiteren Wendepunkt im Hochleistungsrechenmarkt, weil erstmals die Chinesen mit 167 Systemen die bisher dominierenden Amerikaner (165 Systeme) überholt haben. Der europäische Marktanteil (105 Systeme) ist unter den der Asiaten (218) gefallen. In Europa führt Deutschland mit 26 Systemen vor Frankreich (18) und Großbritannien (12). Die Gesamtrechenleistung aller Top500-Systeme ist innerhalb eines Jahres von 363 Petaflop/s auf 566,7 Petaflop/s gestiegen. Es besteht eine hohe Nachfrage nach solcher Rechenleistung.

Die IDC-Vorhersage für das Wachstum des HPDA-Server-Marktes bis 2020.
Die IDC-Vorhersage für das Wachstum des HPDA-Server-Marktes bis 2020. (Bild: IDC)

Hoher Bedarf für Superrechner

Woher diese Nachfrage stammt, legt der neueste HPC-Bericht von IDC offen. Während Forschungseinrichtungen der Regierungen (etwa Energieministerien) sowie der Universitäten den größten Bedarf haben, so folgt doch gleich darauf der Bereich „Life Sciences“ (Pharma, Genomik usw.) und CAE. Im CAE-Umfeld helfen schnelle Rechner wie Hazel Hen in Stuttgart Autobauern wie Daimler und Porsche, Prototypen zu entwerfen, aber auch die vorgeschriebenen Crash-Simulationen auszuführen.

Der Bereich „Geosciences“ für die Suche nach Rohstoffvorkommen wie Öl und Gas ist fast doppelt so groß wie der Anteil der Wettervorhersage, der auch in Deutschland bedeutend ist. Der gesamte Jahresumsatz im HPC-Markt belief sich laut IDC auf rund 11,36 Milliarden Dollar und dürfte bis 2019 jährlich weltweit um etwa 8 Prozent wachsen. In der Region EMEA soll demnach das Wachstum sogar bei 8,7 Prozent liegen, was einem Anstieg der Ausgaben von 3,6 auf 4,9 Mrd. Dollar entspräche.

HPC ist mit Big Data Analytics zusammengewachsen

Der HPC-Anwendungsbereich Modellierung & Simulation wächst mit dem Bereich „Advanced Analytics“ von Big Data zusammen. Das Ergebnis nennt IDC kurzerhand „High Performance Data Analytics“ (HPDA). Betrugserkennung, Business Intelligence, Affinitäts-Marketing und personalisierte Medizin tauchen nun neben den bisherigen Pharma- und Bio-Forschungsgebieten auf.

Der Weg in Richtung Deep Learning, wie Intel ihn sieht.
Der Weg in Richtung Deep Learning, wie Intel ihn sieht. (Bild: Intel)

Aber auch Artificial Intelligence sieht aufgrund der zunehmenden Leistungsstärke der Prozessen immer größere Fortschritte. Andrew Wu, der Forschungsleiter der chinesischen Suchmaschine Baidu, zeigte, welche Vorteile AI bringen wird: maschinelle und somit automatische Erkennung von Sprache, Bild und Ton sowie Übersetzungen zwischen Sprachen und natürlich-sprachliche Interaktion mit dem Benutzer. Die führende Technologie sind dabei Neuronale Netze.

Führende Anbieter wie Cray, IBM und HPE haben bereits auf diese deutliche Verschiebung Richtung Wirtschaft reagiert. Sie stellten auf der ISC neue Produkte vor. „Dieses Segment der HPDA-Server dürfte bis 2019 jährlich um 26,3 Prozent wachsen“, sagte Steve Conway, Analyst bei IDC, voraus. „Das sind 9,5 Prozent mehr Wachstum als in den traditionellen HPC-Marktsegmenten.“

Urika-GX von Cray ist eine Appliance, die über Intel Xeon Broadwell-CPUs und 22 Terabyte RAM verfügt.
Urika-GX von Cray ist eine Appliance, die über Intel Xeon Broadwell-CPUs und 22 Terabyte RAM verfügt. (Bild: Cray)

Neues von Cray

Cray etwa hat mit „Urika GX“ eine Analytics-Appliance vorgestellt, die Supercomputing-Technik auf Big-Data-Analyse anwendet. In der im dritten Quartal verfügbaren Appliance führt Cray seine bisherigen „Appliances Urika GD“ („Graph Data“) und „Urika XA“ („Extreme Analytics“) zusammen.

Das Software-Framework entspricht dem verbreiteten Apache-Hadoop-Spark-Umfeld, wird aber um die Cray Graph Engine bereichert. Mithilfe von Graph-Datenbanken lassen sich neue Muster erkennbar machen sowie schnell und effizient verschiedene Hypothesen testen. Die Cray Graph Engine erlaubt die schnelle und komplexe iterative Tiefensuche.

Urika-GX ist Analytic-Server mit Supercomputer-Kräften

Offenes Cray-System für Enterprise Big Data

Urika-GX ist Analytic-Server mit Supercomputer-Kräften

25.05.16 - Cray adressiert mit Supercomputer-Technik die Firmen und Forschungsinstitute, die die schnellsten und größten Rechen-Cluster brauchen. Doch Big Data benötigt vermehrt Analysen, die in Windeseile Resultate liefern und zugleich offen für Ergebnisse sind. Mit „Urika-GX“ verspricht Cray diese Flexibilität, da zeitgleich mehrerer Analysen auf einer einzigen Plattform ausgeführt werden können. lesen

Die Appliance, die über „Intel Xeon Broadwell“-CPUs und 22 Terabyte RAM verfügt, wird bereits für Genom-Sequenzierung und Cybersicherheit genutzt. Sie sei um den Faktor 20 bis 30 schneller als vergleichbare Standardplattformen, sagte Dominik Ulmer von Cray Deutschland.

Dominik Ulmer ist als Vice President zuständig für die Region Europe, Naher Osten und Afrika (EMEA).
Dominik Ulmer ist als Vice President zuständig für die Region Europe, Naher Osten und Afrika (EMEA). (Bild: Cray)

„Der Vorteil für den Endkunden besteht vor allem darin, dass er nicht bloß eine Analytics-Appliance bekommt, die er schnell in Betrieb nehmen kann, sondern eine Plattform, auf der seine selbst entwickelten Anwendungen laufen können.“

Neues von HPE

„Mit knapp 36 Prozent Anteil am weltweitem HPC-Markt ist Hewlett-Packard Enterprise (HPE) der Marktführer“, sagte Steve Conway von IDC. Deshalb fand die Vorstellung einer neuen HPC-Plattform von HPE entsprechend große Beachtung. Der neue HPC Software Stack (HPCSS) wird auf den „HPE Apollo“-Servern 2000 und 6000 angeboten. Durch Kombination mit Software von „Ansys“ richtet sich der HPCSS an CAE-Nutzer.

Neues von Intel

Die versprochenen Leistungssteigerungen der beiden Apollo-Server sind nur durch enge Einbindung neuer Technologien von Intel möglich. Dazu zählt die neueste Generation des „Intel Xeon Phi Prozessors“ (s.u.), die „Omni-Path Architecture“ (OPA) für die Netzwerknutzung sowie das „Intel Scalable System Framework“ (ISSF), das es erlauben soll, unterschiedliche Aufgaben auf nur einer IT-Plattform skalierbar aufzusetzen und zu verarbeiten.

Stefan Gillich, Intel Deutschland, hat das Intel Scalable Systems Framework vorgestellt.
Stefan Gillich, Intel Deutschland, hat das Intel Scalable Systems Framework vorgestellt. (Bild: Intel)

„Es handelt sich um eine Art Kochrezept mit Best Practices“, erklärt Stefan Gillich von Intel Deutschland. „Mit diesen Vorgaben und Empfehlungen lässt sich durch Gemeinsamkeiten der Systeme ein gewisser Grad von Interoperabilität zwischen HPC-Systemen erzielen.“ Und dieser Interoperabilität erleichtert die Übertragung von x86-basiertem Programmcode. Intel unterstützt besonders die Parallelisierung mit „OpenMPI 4.0“ sowie das Filesystem „Lustre“.

Neues von Lenovo

Lenovo unterstützt das ISSF und hat sein eigenes „Lenovo Scalable Infrastructure Services“ genanntes Framework vorgestellt. „Es bietet einen klaren und replizierbaren Bauplan zur Lösungsentwicklung, Konfiguration, Aufbau, Auslieferung und Support“, sagte Wilfredo Sotolongo, Leiter der Data Center Group bei Lenovo EMEA. Den ersten Einsatz dieses Frameworks hat das Framework beim „MARCONI“ genannten Supercomputer für CINECA, ein interuniversitäres Computing Konsortium mit Sitz in Casalecchio di Reno bei Bologna, gesehen. MARCONI ist ebenso wassergekühlt wie der SuperMUC beim LRZ in München. Beide Rechenboliden basieren auf Lenovos „Nextscale System 5“.

High Performance-Bauplan und direkte Wasserkühlung

ISC 2016: Lenovo im HPC

High Performance-Bauplan und direkte Wasserkühlung

21.06.16 - Lenovo hat auf der Messe „Intenational Supercomputing“ in Frankfurt ein technisches Framework vorgestellt, um Partner-Technik ins eigene Server- und Speicherportfolio zu integrieren. Das Unternehmen demonstriert zudem gemeinsam mit dem Leibniz-Rechenzentrum, wie Kühlkapazität aus wiederverwertetem, heißem Wasser gewonnen werden kann. lesen

Neues an der Prozessoren-Front

Immer wichtiger ist die Rolle der Grafikprozessoren beziehungsweise GPUs, die als Co-Prozessoren genutzt werden, um parallelisierte Workloads rascher abzuarbeiten als CPUs. Mit der neuen „Tesla P100“-GPU von Nvidia mit 3.584 Rechenkernen und rund 15 Milliarden Transistoren auf dem Chip, die die verbreiteten „Tesla K40“- und „K80“-GPUs ablösen wird, lassen sich nach Angaben von Nvidia bis zu 32 herkömmliche CPU Server ersetzen. Sie liefert eine Rechenleistung von bis 18,7 Teraflop/s (bei halber Rechengenauigkeit), und ist für Server-Platinen mit PCIe-Bus geeignet.

Nutzt man die Anfang nächsten Jahres verfügbaren „Tesla P100“ mit NVlink-Verbindungstechnologie, kann man mehrere solche GPUs koppeln, die auf einen Gesamtspeicher bis zu 128 Terabyte zugreifen können. Acht Tesla P100-Grafikprozessoren stecken in Nvidias neuem Supercomputer „DGX-1“, der auf Deep Learning, Neuronale Netzwerke und maschinelles Lernen ausgelegt ist.

Die Grafikkarte Tesla P100 liefert 4,7 Teraflop/s Rechenleistung bei doppelter Präzision.
Die Grafikkarte Tesla P100 liefert 4,7 Teraflop/s Rechenleistung bei doppelter Präzision. (Bild: Nvidia)

Künstliche Intelligenz dürfte davon stark profitieren. Im schnellsten europäischen Superrechner, dem Schweizer „Piz Daint“, soll die Tesla P100 im vierten Quartal zum Einsatz kommen. „Das Upgrade der 4500 GPU-beschleunigten Rechnerknoten auf dem Piz Daint System wird die Systemleistung mehr als verdoppeln“, freut sich Professor Thomas Schulthess von der ETH Zürich.

Nvidia dürfte im September von Intels neuen Xeon-Phi-Prozessoren attackiert werden, die der Chipriese unter dem Codenamen „Knights Landing“ auf den Markt bringen will. In Sachen Rechenleistung kann diese CPU mit integriertem Coprozessor der Tesla P100 indes nicht ganz das Wasser reichen.

Intel bietet die neue CPU Knights Landing in vier verschiedenen Versionen an.
Intel bietet die neue CPU Knights Landing in vier verschiedenen Versionen an. (Bild: Intel)

Während das Spitzenmodell 7290 bei doppelter Rechengenauigkeit 3,5 Teraflop/s liefert, glänzt die P100 mit 4,7 Teraflop/s bei doppelter Präzision. Doch dürfte Intel gleichzeitig auch die neue „3DXpoint“-Speicher-Chips („Crosspoint“) auf den Markt bringen, die herkömmliche NAND-Chips deutlich überlegen sein soll, und so ein attraktives Doppelpaket offerieren.

Intel hat zusammen mit dem Chiphersteller Micro die 3DXpoint-Speicher-Architektur vorgestellt, bei der Chipkomponenten dreidimensional gestapelt werden.
Intel hat zusammen mit dem Chiphersteller Micro die 3DXpoint-Speicher-Architektur vorgestellt, bei der Chipkomponenten dreidimensional gestapelt werden. (Bild: Intel)

OpenHPC-Initiative

Aufgrund des wachsenden Interesses an HPC hat die Industrie eine Initiative mit der Bezeichnung „OpenHPC“ gestartet. Bereits 60 Software-Pakete für Entwicklung und Testen sind damit praktisch kostenlos zu bekommen, denn verwaltet wird OpenHPC innerhalb der Linux Foundation: quelloffene Software, die zudem Standards fördern soll. Neben führenden Supercomputing-Forschungseinrichtungen finden sich unter den Mitgliedern der Initiative auch Konzerne wie Intel, Dell und HPE, aber nicht IBM.

Neues von IBM

Der Grund dafür ist einfach: IBM treibt mit der „Open-Power“-Plattform-Community, die über 200 aktive Mitglieder umfasst, ein eigenes quelloffenes Projekt voran, um Systeme mit der Power-CPU zu unterstützen. Open Power, kombiniert mit Technologien von Mellanox und Nvidia (s.o.), ist die Basis von „CORAL“, einem Verbundprojekt neuer Supercomputer des US-Energieministeriums.

Die neuen Rechner mit Codenamen wie „Sierra“ und „Summit“ sollen ab 2017 jeweils mehr als 100 Petaflop/s Rechenleistung bei geringerem Energieverbrauch erzielen und einen neuen „datenzentrischen“ IT-Ansatz umsetzen. „Der datenzentrierte Ansatz ist ein neues Paradigma in der Datenverarbeitung und markiert die Zukunft offener Rechner-Plattformen“, sagte Klaus Gottschalk, HPC Architect OpenPower bei IBM.

Klaus Gottschalk, HPC Architect OpenPower bei IBM
Klaus Gottschalk, HPC Architect OpenPower bei IBM (Bild: IBM)

Auf der ISC stellte IBM neue Produkte seiner „Spectrum“-Palette vor. Eine neue, intelligente Ressourcen- und Workload-Management-Software nennt sich „IBM Spectrum Computing“ und soll es Unternehmen erleichtern, möglichst umfassenden Wert aus ihren Daten zu ziehen. Damit können Anwendungen wie rechenintensive Analytik oder Machine Learning beschleunigt werden. Entwickelt für die Beschleunigung von Datenanalysen, arbeitet zudem „IBM Spectrum Conductor“ mit Cloud-Anwendungen und Open-Source-Software wie Hadoop und Spark, um die „Time-to-Results“ zu verkürzen.

„IBM Spectrum LSF“ schließlich ist eine umfassende Workload-Management-Software mit flexiblen und einfach bedienbaren Schnittstellen, die Unternehmen dabei helfen können, Forschung und Design um das bis zu 150-fache zu beschleunigen, während gleichzeitig die Kosten durch verbessertes Ressourcenteilen und gesteigerte Auslastung gedämpft werden sollen.

Zum Download

Das eBook von Datacenter-Insider zum High Performance Computing

* Micael Matzer ist freier Journalist aus Waldenbuch.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44165712 / Server)