Trends 2013 im Supercomputing

Hochleistungsrechnen mit Blick auf Energie-Effizienz

| Autor / Redakteur: Michael Matzer / Ulrike Ostler

Power-Engpass #2: Software

Würde man, so Frank Baetke von HP, „HP-Moonshot“-Server-Cluster verwenden, sänke der Stromverbrauch ebenfalls. Der Haken dabei: Die Software ist dann wieder auf den jeweils auf dem Moonshot Server-Modul (ein Chassis enthält bis zu 45 Module, die wiederum verschiedene CPUs tragen können) eingesetzten Hauptprozessor zu portieren. Klaus Gottschalk von IBM verweist auf die Portierungskosten, die sich bei Software, die für x86-Architektur oder „Power“-Chips geschrieben wurde, gering halten ließen.

In der Regel wird heute für die Parallelverarbeitung die Sprache MPI verwendet. Das Message Passing Interface (MPI) ist ein Standard, der den Nachrichtenaustausch bei parallelen Berechnungen auf verteilten Computersystemen beschreibt und in zahlreichen Programmiersprachen wie etwa C/C++ oder Java implementiert ist. MPI-3, das es seit 2012 gibt, ermöglicht Shared Memory, Remote Memory Access und weitere Neuerungen.

Professor Michael Resch, Direktor des Hochleistungsrechenzentrum Stuttgart und Präsident des Gauss Supercomputing Centres.
Professor Michael Resch, Direktor des Hochleistungsrechenzentrum Stuttgart und Präsident des Gauss Supercomputing Centres. (Bild: HLRS)

Professor Michael Resch, Leiter des Hochleistungsrechenzentrums Stuttgart HLRS, wo unter anderem Daimler und Porsche rechnen lassen, räumt ein, dass die Nutzer der Superrechner in der Klemme stecken: „Eine Programmiersprache, die die Millionen Rechenkerne optimal nutzt, haben wir zur Zeit nicht.“

Tools für neue Codierung

Er kritisierte auch den Benchmark „LINPACK“, mit dem die Leistung der Superrechner gemessen wird. „Der Benchmark ist nicht für alle Rechner ideal, aber er ist nun mal das Praktikabelste, was wir an Benchmarks haben.“

Sumit Gupta vom GPU-Spezialisten Nvidia hält Resch entgegen: „Es gibt aber Werkzeuge wie OpenACC von Nvidia, um alte Software für die Parallelverarbeitung fit zu machen.“ Nvidia ist erfolgreich darin, eine globale Community aufzubauen, die die Programmiersprache "CUDA" nutzt, um Nvidias Grafikprozessoren als Akzeleratoren zu programmieren. Mit den GPU-Generationen Tesla, Tegra und Kepler ist Nvidia in zahlreichen Rechnern und Anwendungen wie etwa Games vertreten, seit 2012 auch in Cloud-Services von Service Providern.

Inhalt des Artikels:

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 40363310 / Konvergente Systeme)