Exascale steht außer Frage

ISC 2017: HPC und Supercomputing und Artificial Intelligence

| Autor / Redakteur: Michael Matzer / Ulrike Ostler

Die Internationale Supercomputing Conference (ISC 2017) in Frankfurt endete gestern, am 22. Juni. Autor Michael Matzer war dort und berichtet nun von den Trends im High Performance Computing.
Die Internationale Supercomputing Conference (ISC 2017) in Frankfurt endete gestern, am 22. Juni. Autor Michael Matzer war dort und berichtet nun von den Trends im High Performance Computing. (Bild: Philip Loeper)

Hochleistungsrechner sterben seit Jahren strikt auf den Exascale-Level zu: 2020 dürfte es soweit sein. Mit einer Leistung von Exaflop/s sollen neue Anwendungen möglich sein. Die zu diesem Zweck noch zu entwickelnden Technologien sollen auch Machine Learning und Cognitive Computing zugutekommen, die als Artificial Intelligence zusammengefasst werden. Auf der ISC 2017 wurden HPC, Big Data Analytics und AI als ideale Kombination bewertet.

Die Zukunft ist für die HPC-Supercomputer nicht anders als „rosig“ zu nennen: Das US-Energieministerium hat kürzlich in dem Programm „Path Forward“ kürzlich 258 Millionen Dollar an sechs US-IT-Hersteller vergeben, um die Position in diesem Top-Segment halten und Richtung Exascale ausbauen zu können. Da die Hersteller IBM, Intel, HPE, Cray, AMD und Nvidia ihr Scherflein beitragen müssen, umfasst dieses Hardware- F&E-Programm schlappe 430 Millionen Dollar (siehe auch Kasten: „Exascale-Computing unter Trump“)

Exascale – ein Traumziel?

Die Ziellatte liegt hoch: Die ersten beiden Systeme sollen bis 2021 ein Exascale-System liefern, die anderen sollen bis 2023 folgen. „Exa-Scale“ bedeutet eine konstante Leistung von 1000 petaFLOP/s, also eine Trillion (10 hoch 18) Gleitkommaoperationen pro Sekunde. Unter den zwei wahrscheinlichsten Kandidaten sind die neuen Supercomputer am Livermore Institute und am Oak Ridge National Laboratory, die IBM derzeit baut. Die Chinesen bauen ebenfalls ihre Führungsposition aus, die sie mit den Rechnern „Taihu Light“ und „Tianhe-2“ erobert haben.

Die Top 500: HPE, Lenovo und Cray

Wachstum im Bereich Supercomputing

Die Top 500: HPE, Lenovo und Cray

21.06.17 - Er ist nicht nur in einem der schönsten Rechenzentren zuhause, sondern zugleich einer der größten Supercomputer: Der 11,1 petaFLOP Supercomputer mit der Bezeichnung „Mare Nostrum 4“. Denn er steht in der Kapelle Torre Girona auf dem Gelände der Polytechnischen Universität von Katalonien in Barcelona, Spanien. lesen

Größer, schneller, grüner - die HPC- und Superrechner

Neue Spitzenreiter der Top500-Supercomputer

Größer, schneller, grüner - die HPC- und Superrechner

13.07.16 - Auf der International Supercomputing Conference (ISC) 2016, die vergangenen Monat wieder in Frankfurt am Main stattfand, wurde die neue „Top500“-Liste der schnellsten Rechner der Welt vorgestellt. Schnellster Rechner ist wieder ein System aus China, das inzwischen die USA hinsichtlich der Zahl der HPC-Systeme überflügelt hat. lesen

Vor allem wegen des enorm hohen Energiebedarfs von 30 Megawatt und der ebenso hohen Bau- und Betriebskosten sind die Vertreter der Path-Forward-Firmen zurückhaltend, was die Machbarkeit dieser Ziele anbelangt, aber dass Exascale kommen wird, steht außer Frage. Zu groß ist die Nachfrage aus Industrie und Forschung nach den Anwendungen, die dann möglich werden: längere, genauere Wettervorhersagen und komplexere Klimasimulationen beispielsweise.

Die Autobauer wären ebenfalls ziemlich froh, wenn sie Crash-Simulationen noch während des Design-Zyklus mal eben so ausführen könnten. Derzeit sind solche Simulationen teuer und nur terminiert realisierbar, etwa am HLRS in Stuttgart oder am LRZ München auf dem „SuperMUC“. Die Medizin würde enorm profitieren: Endlich, so die Auguren von Hyperion Research (ehemals IDC), würde „Precision Medicine“ eine kostengünstig realisierbare Dienstleistung werden: personalisierte Diagnosen und Therapien für jedermann. Dass es der Börse und dem übrigen Finanzmarkt nie schnell genug gehen kann, bedarf keiner gesonderten Erwähnung.

Sunway TaihuLight steht im National Supercomputing Center, Wuxi
Sunway TaihuLight steht im National Supercomputing Center, Wuxi (Bild: National Supercomputing Center)

Ergänzendes zum Thema
 
Exascale-Computing unter Trump

Chips auf dem Exa-Marsch

AMD hat mit dem EPYC-Prozessor (SoC) eine Familie von Ein- und Zwei-Sockel-Prozessoren für den Einsatz in Rechenzentren vorgestellt. Datacenter-insider.de hat darüber berichtet. Cavium erweitert mit der Halbleiterplattform „Thunder X2“ sein Ökosystem für ARMs 64-Bit-SoC-Prozessoren für Rechenzentren, die Cloud und HPC.

Dieser ARM-Prozessor spielt bereits eine bedeutende Rolle im europäischen Exascale-Projekt „Mont Blanc“ (geleitet von Bull Atos) und in den ersten Prototypen von „The Machine“, die HPE im Mai vorstellte. Bull Atos präsentierte mit „Sequana X1310“ den ersten produktreifen Supercomputer mit 64-Bit-ARM-Prozessoren der Marke Thunder X2 von Cavium vor. Mit Sequana wollen auch die Franzosen von Bull Atos in luftige Exascale-Sphären vordringen.

Tianhe-2 (MilkyWay-2) wurde vom National University of Defense Technology entwickelt.
Tianhe-2 (MilkyWay-2) wurde vom National University of Defense Technology entwickelt. (Bild: National University of Defense Technology)

Traumhochzeit: HPC und AI

Die Experten ebenso wie die Firmenvertreter sehen im Zusammenwachsen von Artificial Intelligence und HPC eine ideale Paarung, denn HPC ergänzt Machine Learning und Deep Learning – häufig als Artificial Intelligence (AI) zusammengefasst – auf effektive Weise, die langfristige viele weitere Anwendungen fördert. Intel hat bereits unter dem Codenamen „Lake Crest“ einen Prozessor angekündigt, der speziell auf die Ausführung von AI-spezifischen Modelltrainings ausgelegt ist. Da es in AI nicht auf maximale Rechenpräzision („double precision“) ankommt, reicht „half precision“ aus, und dafür will Intel bis Ende des Jahres einen „Xeon-Phi“-Prozessor unter der Bezeichnung „Knight's Mill“ entwickeln.

AI als Billionenmarkt

Das seit Dekaden verfügbare AI ist, nach Meinung von IDC und Salesforce, ein Billionenmarkt, und wie auf jedem Markt werden eifrig die Claims abgesteckt. Inspur ((https://de.wikipedia.org/wiki/Inspur)) ist nach eigenen Angaben bereits einer der führenden chinesischen IT-Anbieter und liefert 80 Prozent der IT der großen drei chinesischen IT-Firmen Alibaba, Baidu und Tencent.

Inspur stellte auf der ISC 2017 den Rechner „GX4“ vor.
Inspur stellte auf der ISC 2017 den Rechner „GX4“ vor. (Bild: Inspur)

Da Inspur bereits zwei Drittel des chinesischen Marktes für AI-Lösungen für sich reklamiert, verwundert es nicht, dass der Hersteller auf der ISC eine AI-Appliance mit der Bezeichnung „GX4“ vorstellte, die nicht nur seinen eigenen Supercomputer „AGX-2“ unterstützen soll, sondern alle Rechner, die GPUs und FPGAs zur Beschleunigung der Parallelverarbeitung von AI-Aufgaben nutzen.

Auch Lenovo arbeitet zusammen mit Intel an einer AI-Appliance, stellte aber zunächst einmal zwei Produktfamilien vor, die es höchstselbst entwickelt hat. Die Think-System-Reihe ist mit dem Modell „Think System SD530“ für HPC ausgelegt und nutzt die neusten Xeon-CPUs von Intel sowie die auf 100 Gbit/s ausgelegte „Omni-Path“-Architektur von Intel. Die „Think-Agile“-Reihe hingegen ist für Software-definiertes, hyperkonvergentes Computing in virtualisierten Umgebungen (MS Azure, VMware usw.) ausgelegt.

Schlappe Leitungen

Die Intel OPA-Netzwerktechnologie erfreut sich wachsender Verbreitung, so dass sie nicht nur in fast jedem Superrechner der Top-500-Liste zu finden ist. Dieser Erfolg verweist auf ein wachsendes Problem der Hochleistungstechnologie: Das reine Rechnen ist inzwischen schnell genug, doch der Interconnect zwischen den einzelnen Komponenten, der noch auf Ethernet und Infiniband basiert, hinkt hinterher.

Es gibt verschiedene Lösungen. Cray hat seinen proprietären „Aries Interconnect“ entwickelt, um die Komponenten seiner Parallelrechner schneller zu verbinden. Einen allgemeinen Standard setzt inzwischen die „NVlink“-Brücke von Nvidia, das seine GPUs (meist „P100“ und „V100“) schneller mit der jeweiligen CPU – „Power“ von IBM oder eine x86-CPU – koppelt. Einen offenen, herstellerunabhängigen Standard will seit 2016 das Gen-Z-Konsortium mit dem Protokoll „Gen-Z“ etablieren. Das Protokoll soll die Limitierungen des Memory Controllers der CPU überwinden.

Gen-Z konkurriert mit den Standards „CAPI” (Coherent Accelerator Processor Interface) und CCIX (Cache Coherent Interconect for Accelerators). All dieses Konsortien wurden gegründet, um die Beschränkungen von PCIe 3.0 zu überwinden und weil v4.0 sechs Jahre lang nicht vorankam. PCIe 4.0 wurde am 8.Juni 2017 offiziell angekündigt, am gleichen Tag wurden die Spezifikationen für Version 5 bekanntgegeben. Version 4.0 ermöglicht 16 GB/s, Version 5.0 128 GB/s im Vollduplexmodus.

Was meinen Sie zu diesem Thema?
Sehr wertvolle Analyse, Herr Matzer - Steve Conway, Hyperion Research  lesen
posted am 23.06.2017 um 12:44 von Unregistriert


Mitdiskutieren
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44750646 / Server)