Trends 2013 im Supercomputing Hochleistungsrechnen mit Blick auf Energie-Effizienz
High Performance Computing (HPC) entwickelt sich zunehmend zu einem Markt, in dem heterogene Rechnersysteme und -Cluster auf Energie-Effizienz getrimmt werden. GPU-, DSP- und selbst ARM-Prozessoren koexistieren, um Petaflops-Leistung bei geringem Stromverbrauch zu erbringen.
Anbieter zum Thema

Die Marktforscher von IDC erwarten, dass der Markt für HPC-Server jährlich etwa um 7,3 Prozent wächst, um im Jahr 2017 schließlich einen Umsatz von 15 Milliarden Dollar zu erreichen. Supercomputing findet etwa in täglichen Simulationen im Automobilbau, in der Wettervorhersage, Molekülforschung, Geophysik und vielen anderen Bereichen Verwendung, wo komplexe Algorithmen durch parallele Verarbeitung mit maximaler Geschwindigkeit auf sehr große Datenmengen anzuwenden sind. In letzter Zeit ist auch die Analyse von Big Data in den Fokus gerückt.
Nach 2010 haben es die Chinesen wieder auf den Platz eins der Top500-Liste der schnellsten Rechner geschafft. "Tianhe-2" wurde an der Universität Guangzhou in der Provinz Guangdong von Team der NUDT gebaut. NUDT steht für National University of Defense Technology.
Xeon und Xeon Phi
Welche Prozessoren bringen den chinesischen Boliden auf derart hohe Touren? Das fragten sich die 2400 Teilnehmer der International Supercomputing Conference ISC 2013, die dieses Jahr in Leipzig stattfand. Angesichts der Tatsache, dass in 80 Prozent der Top500-Rechner Intel-Xeon-Prozessoren und Intel-Xeon-Phi-Koprozessoren zum Einsatz kommen, verwunderte es zunächst einmal nicht, dass solche CPUs auch in Tianhe-2 („Milky Way“) zu finden sind, nämlich 32.000 Xeon und 48.000 Xeon Phi.
Der Xeon-Phi-Chip ist in drei Varianten mit 16 Gigabyte Speicher und 54 beziehungsweise 61 Rechenkernen auf dem Markt. Er erlaube eine „bessere Energie-Effizienz als GPU-Akzeleratoren“, sagte Rajeeb Hazra von Intel. Der Co-Prozessor ist mittlerweile in den Rechnern aller führenden Hersteller zu finden. Intel stellte auf der ISC eine neue Xeon-Phi-Generation vor.
Der Grund, auf Intel-CPUs zu setzen, ist einfach, und Professor Arndt Bode vom Leibniz Rechenzentrum (LRZ) der Uni München, erklärte vor der Inbetriebnahme des dortigen „SuperMUC“-Rechners: „Im LRZ sind traditionell im Jahr etwa 100 unterschiedliche Anwendungen im Einsatz. Deswegen brauchen wir ein System, auf das man Intel-x86-kompatible Anwendungen auf einfache Weise portieren kann.“
Kompatibilität hat Vorrang vor Portierung. Genau die Portierung und die damit verbundenen Kosten will sich Bode nämlich sparen.
(ID:40363310)