Supercomputing und große Datenmengen

Morgenröte für Vektorrechner NEC Aurora

| Autor / Redakteur: Holm Landrock* / Ulrike Ostler

Beschreibung einer Vector-Karte, wie sie im NEC-Rechner SX-ACE zum Einsatz kommt. Einen solchen Computer setzt etwa das HLRS seit 2016 produktiv ein sowie das Rechenzentrum der Uni Kiel.
Beschreibung einer Vector-Karte, wie sie im NEC-Rechner SX-ACE zum Einsatz kommt. Einen solchen Computer setzt etwa das HLRS seit 2016 produktiv ein sowie das Rechenzentrum der Uni Kiel. (Bild: NEC)

Supercomputing-Technik liefert jene sagenhafte Performance, die großartige Anwendungsszenarien erst möglich macht. Aber: Der Supercomputer passt heute nicht nur unter den Schreibtisch, sondern auf eine PCIe-Steckkarte, und dies nicht einmal zum Preis eines „Toyota Corolla“.

Anbieter von Lösungen für Big-Data-Aufgaben haben demnächst eine weitere Alternative für die Hardware-Basis. Neben Standard-PCs für Hadoop, x85-Sclae-out-Cluster und GPU-Computing wird NEC eine Vektorrechner-Technologie auf den Markt bringen, die gerade für sehr große Datenlasten und komplexe Berechnungen reizvoll sein dürfte.

„Aurora“ ist der Codename für einen Vektorcomputer, der auf eine PCIe-Karte passt. Dabei handelt es sich nicht um eine Beschleunigerkarte, die für bestimmte Rechenoperationen hinzu geschaltet werden kann, sondern so gesehen um einen Vektorrechner für die Hosentasche. NEC positioniert Aurora für Aufgaben mit hohen Datenlasten und hohen Datendurchsatz – und dies müssen nicht nur Anwendungen sein, die man klassisch als „classified“ bezeichnet.

Trends im Supercomputing
Trends im Supercomputing (Bild: NEC/ Shintaro Momose)

?? Richtig, ein Vektorrechner. Das ist eine Technik, die seit einigen Jahren von Scale-out-Konzepten wie x86-Clustern und GPU-Computing verdrängt wird. x86-Cluster leben von der Verteilung von ausführbarem Code auf zahlreiche Rechner durch eine extrem schnelle Verknüpfung der Knoten im Backbone.

Verknüpfung im Backbone plus Vektoren

GPU-Computing lebt hingegen von der Verteilung einzelner, durchaus „spezieller“ Aufgaben auf viele kleine Recheneinheiten. Aurora kombiniert nun einen Vektorrechner und Verfahren aus x86-Servern. Als Betriebssystem läuft ein x86-Linux.

Erstmalig vorgestellt hat das System NEC-Chefingenieur Shintaro Momose im vergangenen Jahr auf der Supercomputing-Konferenz „SC16“. In diesem Jahr zeigte NEC das System auf der CeBIT. Damals sagte Momose, dass es sich bei einer Verktorkarte nicht um einen „Beschleuniger", Akzelerator handle, vielmehr um eine „Offload Engine“, bei der die Applikationen komplett auf der Karte beziehungsweise den Karten laufen. Das x86-System wird zu einem reinen I/O-System. Die einzelnen Karten sollen miteinander per MPI via PCIe 3.0 kommunizieren.

Eine Vector-Karte, wie sie im System "SX-ACE" von nec steckt.
Eine Vector-Karte, wie sie im System "SX-ACE" von nec steckt. (Bild: NEC)

Im Kampf um die Spitze im Supercomputing hat China den Nachbarn Japan schon längst verdrängt. Das hat verschiedene Ursachen, darunter vor allem die Finanzierung, die durch die Kommunistische Partei in China eher unbegrenzt ist, die aber durch geschicktes Vorgehen auch vorteilhaft genutzt werden kann. Japan hat sich auch unter ganz anderen wirtschaftlichen Randbedingungen immer wieder zu technischen Höchstleistungen im Supercomputing aufschwingen können.

Übrigens: Es ist ein Merkmal der japanischen Mentalität, nicht über ungelegte Eier zu gackern. Erst, wenn etwas fertig ist, wird es in Japan auch angepriesen. Und bei Aurora ist es soweit. Die Markteinführung der Aurora-Systeme ist für das Frühjahr 2018 vorgesehen, aber wie man munkelt, soll es vorher schon einzelne Modelle geben. Erste Benchmarks sollen schon zur SC17 im Herbst vorliegen.

Alter Bekannter als neuer Player

Die technischen Eckdaten eines Einzelsystems klingen mit einer Rechenleistung von 300 GFLOPS pro Core und einem Datendurchsatz von 150 Gigabit pro Sekunde schon einmal vielversprechend. Voraussetzung für den erfolgreichen Einsatz ist allerdings, dass NEC einen sauberen und komfortablen Pfad für die Adaption von Algorithmen mitliefert.

Da hat Nvidia den Japanern einiges voraus. Seit rund zehn Jahren werden Grafikprozessoren in Boards geschraubt, um geschickt konstruierten Code extrem schnell und parallel auszuführen. GPU-Computing hat eine hohe Marktreife und eine hohe Marktdurchdringung erlangt.

Nvidia hat es durch die Etablierung von „Curriculi“ für die „Cuda“-Programmiertechnik an vielen Hochschulen, besonders häufig in China, geschafft, ihr Konzept in den Köpfen vieler junger IT-Spezialisten zu etablieren. Dadurch gibt es für Nvidia schon zahlreiche Applikationen.

Der Markt für Supercomputing hat mit NEC Aurora einen alten neuen Player, und die Idee einer neuen Form von Vektorcomputing ist originell. Besonders interessant wird die Entwicklung, weil das Supercomputing durch GPU-Computing oder Vektorcomputing nicht mehr ausschließlich im Verteidigungssektor oder im akademischen Elfenbeinturm, sondern für viele andere Big-Data-Aufgaben genutzt werden kann.

*Über den Autor

Holm Landrock ist ist Senior Advisor bei der Experton Group. Das Original des Beitrags stammt aus dem ICT-Newsletter 14/2017.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44634038 / Konvergente Systeme)