:quality(80)/images.vogel.de/vogelonline/bdb/1953100/1953154/original.jpg)
Eindrücke von der Konferenz International Supercomputing, ISC Experton-Analyst Landrock kommentiert das Verhältnis von HPC und Cloud
Es lohnt sich, einen Blick in diese Welt zu werfen, die sich schon lange nicht mehr im Elfenbeinturm der Wissenschaft verbirgt. Energie-Effizienz im Rechenzentrum, Absorbtionskältemaschinen in Kopplung mit Warmwasserkühlung ̶ und eben Superrechenleistung ̶ können heute auch in der Unternehmens-IT Nutzen bringen.
Anbieter zum Thema

Wer Höchstleistung benötigt, bekommt sie. Moore‘s Law gilt auch weiterhin, und es gibt interessante Anbieter. Die Supercomputing-Technologien liefern Ideen für viele fachliche und technische Aufgaben in den Unternehmen.
:quality(80)/images.vogel.de/vogelonline/bdb/896500/896509/original.jpg)
Interview mit Cray-Manager Bolding
"Für uns zählen nur die ersten 100 Plätze der Top-Supercomputer"
Mit Ihren Supercomputern bieten die Anbieter High-Tech an, von der Rechenleistung bis zur Ausnutzung von Abwärme. Aber, manche Supercomputer 'idlen' mit Begeisterung vor sich hin. Ein Viertel der Supercomputing-Anwendungen laufen in Cloud-Modellen, mit gleichbleibender Tendenz, wie die Top-500-Liste zeigt. Wie wäre es mit einer Supercomputer-Cloud, in der auch Ingenieurbüros und Konsumgüterherstellern technische Berechnungen ermöglicht werden, die diese sich bisher nicht leisten konnten?
Dass Anwender heute immer größere Datenmengen analysieren, ist nicht nur das Ergebnis von hübsch anzuschauenden Dashboards. Es ist maßgeblich der Weiterentwicklung im Supercomputing zu verdanken. Anlass genug für einen Blick auf die gerade letzte Woche in Frankfurt am Main zu Ende gegangene Konferenz „ISC Supercomputing“.
Energie-Effizienz gehört zur Entwicklung von Supercomputern
Die schnelle und effiziente, auch Energie-effiziente, Bewegung von Daten gehörte zu den vieldiskutierten Themen der ISC. Zwar sprechen heute viele Anbieter von Big-Data-Lösungen von der In-Memory-Verarbeitung, aber sie halten sich bei der Beantwortung der Frage, wie denn Terabytes - oder in nicht allzu ferner Zukunft sogar Petabytes ̶ an Daten in den Hauptspeicher übertragen werden sollen, sehr zurück.
:quality(80)/images.vogel.de/vogelonline/bdb/894200/894246/original.jpg)
High Performance per X86
Von der gedruckten menschlichen Zelle bis zum 10.000 Euro 3D-Bild
Ein Forschungsgebiet sind Höchstleistungs-Interconnects für den Transfer der Daten zwischen den Compute-Nodes untereinander sowie zwischen den Compute-Nodes und dem externen Storage. Technisch sinnvolle und attraktive Lösungen (Stichwort Flash) müssen auch im „Petascale“ bezahlbar und betreibbar sein. Da ist noch Raum für Neues. Ein Stichwort ist hier „Low Latency“.
Wenig Bewegung gab es in der Top-500-Liste der Supercomputer. Das hat mehrere Gründe: Zum einen haben verschiedene Länder in den vergangenen Jahren eine enorme Reichenleistung in Prestigeprojekten entwickelt. Diese muss nun auch ausgenutzt werden. Dafür müssen Applikationen teilweise erst noch geschrieben werden. Ein Dilemma, das Professor Sterling, ein langjähriger Redner auf der ISC, schon vor Jahren feststellte.
Ein Supercompute-Spezialist aus Chemnitz
Das dämpft den „olympischen Sportsgeist“. Eine besondere Erwähnung verdiente sich der Chemnitzer Rechnerfabrikant Megware bei der Vorstellung der Top-500-Liste: Megware hat es erstmals auf einen Marktanteil von einem Prozent geschafft.
Fünf der 500 leistungsstärksten Computer der Welt stammen aus Chemnitz. Die Rechner stehen an Universitäten, und zu den Anwendern gehören auch Unternehmen und Behörden. Ein Highlight bei Megware sind die Absorbtionskältemaschinen, die an die Warmwasserkühlung (45 Grad warmes Wasser durchläuft hier die Rechnergehäuse) gekoppelt sind und die Abwärme zur Klimatisierung von Gebäuden nutzen.
* Holm Landrock ist Fachjournalist und Senior Advisor bei der Experton Group.
(ID:43525019)