Eindrücke von der Konferenz International Supercomputing, ISC

Experton-Analyst Landrock kommentiert das Verhältnis von HPC und Cloud

| Autor / Redakteur: Holm Landrock* / Ulrike Ostler

Eine höhere Energie-Effizienz adressiert im Supercomputing vorrangig zwei Probleme: 1. der Strom muss reichen, um die geforderte Rechneleistung zu erfüllen und 2. die erzeugte Wärme muss abgeführt werden, damit die Rechner nicht überhitzen. Die Forschungseinrichtung Tsubame KFC taucht die Rechner in Öl.
Eine höhere Energie-Effizienz adressiert im Supercomputing vorrangig zwei Probleme: 1. der Strom muss reichen, um die geforderte Rechneleistung zu erfüllen und 2. die erzeugte Wärme muss abgeführt werden, damit die Rechner nicht überhitzen. Die Forschungseinrichtung Tsubame KFC taucht die Rechner in Öl. (Bild: Ostler/ Plakat: Tsubame KFC)

Es lohnt sich, einen Blick in diese Welt zu werfen, die sich schon lange nicht mehr im Elfenbeinturm der Wissenschaft verbirgt. Energie-Effizienz im Rechenzentrum, Absorbtionskältemaschinen in Kopplung mit Warmwasserkühlung ̶ und eben Superrechenleistung ̶ können heute auch in der Unternehmens-IT Nutzen bringen.

Wer Höchstleistung benötigt, bekommt sie. Moore‘s Law gilt auch weiterhin, und es gibt interessante Anbieter. Die Supercomputing-Technologien liefern Ideen für viele fachliche und technische Aufgaben in den Unternehmen.

Interview mit Cray-Manager Bolding

"Für uns zählen nur die ersten 100 Plätze der Top-Supercomputer"

17.07.15 - Über lange Strecken lässt Cray praktisch nichts von sich hören; doch dann ist Internationale Supercomputing Conference (ISC) und der Hersteller mit dem Nimbus Super-Super-Duper taucht auf – in den Medien und der Top 500-Liste der schnellsten, größten Rechner dieser Welt. Barry Bolding, Vice President Marketing und Business Development bei Cray, sagt: „Eigentlich zählen für uns nur die ersten 100 Ränge.“ lesen

Mit Ihren Supercomputern bieten die Anbieter High-Tech an, von der Rechenleistung bis zur Ausnutzung von Abwärme. Aber, manche Supercomputer 'idlen' mit Begeisterung vor sich hin. Ein Viertel der Supercomputing-Anwendungen laufen in Cloud-Modellen, mit gleichbleibender Tendenz, wie die Top-500-Liste zeigt. Wie wäre es mit einer Supercomputer-Cloud, in der auch Ingenieurbüros und Konsumgüterherstellern technische Berechnungen ermöglicht werden, die diese sich bisher nicht leisten konnten?

Dass Anwender heute immer größere Datenmengen analysieren, ist nicht nur das Ergebnis von hübsch anzuschauenden Dashboards. Es ist maßgeblich der Weiterentwicklung im Supercomputing zu verdanken. Anlass genug für einen Blick auf die gerade letzte Woche in Frankfurt am Main zu Ende gegangene Konferenz „ISC Supercomputing“.

Energie-Effizienz gehört zur Entwicklung von Supercomputern

Die schnelle und effiziente, auch Energie-effiziente, Bewegung von Daten gehörte zu den vieldiskutierten Themen der ISC. Zwar sprechen heute viele Anbieter von Big-Data-Lösungen von der In-Memory-Verarbeitung, aber sie halten sich bei der Beantwortung der Frage, wie denn Terabytes - oder in nicht allzu ferner Zukunft sogar Petabytes ̶ an Daten in den Hauptspeicher übertragen werden sollen, sehr zurück.

Von der gedruckten menschlichen Zelle bis zum 10.000 Euro 3D-Bild

High Performance per X86

Von der gedruckten menschlichen Zelle bis zum 10.000 Euro 3D-Bild

13.07.15 - Seit gestern läuft zum 30. Mal die International Supercomputing Conference (ISC) – in Frankfurt. Galt HPC einst als elitär, schwierig und unerschwinglich, machen x86-Cluster die Technik auch für kleinere Institute und mittelständische Unternehmen attraktiv. Seit jüngstem gibt es gar integrierte Systeme. Die Anwendungen aber bleiben allemal spannend, zum Beispiel von Dell und Fujitsu. lesen

Ein Forschungsgebiet sind Höchstleistungs-Interconnects für den Transfer der Daten zwischen den Compute-Nodes untereinander sowie zwischen den Compute-Nodes und dem externen Storage. Technisch sinnvolle und attraktive Lösungen (Stichwort Flash) müssen auch im „Petascale“ bezahlbar und betreibbar sein. Da ist noch Raum für Neues. Ein Stichwort ist hier „Low Latency“.

Wenig Bewegung gab es in der Top-500-Liste der Supercomputer. Das hat mehrere Gründe: Zum einen haben verschiedene Länder in den vergangenen Jahren eine enorme Reichenleistung in Prestigeprojekten entwickelt. Diese muss nun auch ausgenutzt werden. Dafür müssen Applikationen teilweise erst noch geschrieben werden. Ein Dilemma, das Professor Sterling, ein langjähriger Redner auf der ISC, schon vor Jahren feststellte.

Ein Supercompute-Spezialist aus Chemnitz

Das dämpft den „olympischen Sportsgeist“. Eine besondere Erwähnung verdiente sich der Chemnitzer Rechnerfabrikant Megware bei der Vorstellung der Top-500-Liste: Megware hat es erstmals auf einen Marktanteil von einem Prozent geschafft.

In der aktuellen Top-500-Lister der leistungsfähigsten Supercomputer ist Megware mit fünf HPC-Systemen an den Universitäten Heidelberg und Mannheim, Mainz, Karlsruhe, Hamburg sowie Oslo vertreten.
In der aktuellen Top-500-Lister der leistungsfähigsten Supercomputer ist Megware mit fünf HPC-Systemen an den Universitäten Heidelberg und Mannheim, Mainz, Karlsruhe, Hamburg sowie Oslo vertreten. (Bild: Megware)

Fünf der 500 leistungsstärksten Computer der Welt stammen aus Chemnitz. Die Rechner stehen an Universitäten, und zu den Anwendern gehören auch Unternehmen und Behörden. Ein Highlight bei Megware sind die Absorbtionskältemaschinen, die an die Warmwasserkühlung (45 Grad warmes Wasser durchläuft hier die Rechnergehäuse) gekoppelt sind und die Abwärme zur Klimatisierung von Gebäuden nutzen.

Holm Landrock beschäftigt sich vorrangig mit den IT-Anwendungsgebieten Big Data und Supercomputing sowie mit der technisch-wissenschaftlichen Informationsverarbeitung.
Holm Landrock beschäftigt sich vorrangig mit den IT-Anwendungsgebieten Big Data und Supercomputing sowie mit der technisch-wissenschaftlichen Informationsverarbeitung. (Bild: Experton)

Daten werden in den Unternehmen gesammelt. Daten entstehen aus Geschäftsprozessen. Daten ergeben sich aus der Anreicherung oder der Aggregation mit bzw. aus unterschiedlichen Datenquellen. Aus den Big-Data-Szenarien entsteht langsam ein neues Anwendungsgebiet für Supercomputer, über Kernwaffenforschung oder Strukturanalysen hinaus.

* Holm Landrock ist Fachjournalist und Senior Advisor bei der Experton Group.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43525019 / Server)