K40 am Start, Cuda6 freigegeben, IBM im Boot und neue Supercomputer gebaut

Nvidia beschleunigt das HPC-Geschäft

| Redakteur: Ulrike Ostler

Nvidia bringt mit Tesla K40 und Cuda 6, Partnerschaft mit IBM und Unterstützung des Linux GCC Compiler mehr GPU-Power ins Rechenzentrum.
Nvidia bringt mit Tesla K40 und Cuda 6, Partnerschaft mit IBM und Unterstützung des Linux GCC Compiler mehr GPU-Power ins Rechenzentrum. (Bild: Nvidia)

Der neue Grafikprozessorkarte von Nvidia auf Basis der Kepler-Architektur „Tesla K40“ bringt im Vergleich zum Vorgängermodell „K20X“ mehr Kerne, doppelt so viel Speicher, höheren Takt und Unterstützung für PCIExpress 3.0 aufs Trapez. Mit der Plattform „Cuda 6“ vereinfacht sich parallele Programmierung zudem erheblich. Neuer Nvidia-GPU-Fan ist etwa IBM und HP eröffnet ein „GPU Technical Centre of Excellence“.

Die Partnerschaft von IBM und Nvidia soll die Grafikprozessoren, die in Servern in Unterstützung der CPUs die Anwendungen parallelisieren und damit schneller abarbeiten können, das Ziel, diese Art des Computing auch in Unternehmensrechenzentren gebräuchlicher zu machen. Ian Buck, Vice President of Accelerated Computing bei Nvidia, drückt das folgendermaßen aus: “Diese Partnerschaft bringt Supercomputer-Rechenleistung in die Rechenzentren der Unternehmen, erweitert den Einsatz von GPU-Akzeleratoren auch auf Gebiete jenseits der traditionellen Supercomputing- und Technical-Computing-Marktbereiche.“

Grafikprozessoren, die CPUs in High Performance-Umgebungen unterstützen, sind keine Seltenheit mehr. Doch wie schnell sich das Geschäft für Nvidia entwickelt, zeigen die Abbildungen.
Grafikprozessoren, die CPUs in High Performance-Umgebungen unterstützen, sind keine Seltenheit mehr. Doch wie schnell sich das Geschäft für Nvidia entwickelt, zeigen die Abbildungen. (Bild: Nvidia)

Die Unternehmen haben Pläne vorgestellt, bei GPU-beschleunigten Versionen des Enterprise Software-Portfolios auf „IBM Power Systems“-Basis zusammenzuarbeiten. Damit macht GPU-Beschleuniger-Technologie einen Schritt über den Bereich des Supercomputing. IBM Kunden können künftig etwa riesige Mengen von Streaming-Daten schneller verarbeiten, sichern und analysieren.

Integration der Tesla GPU in Power-Prozessoren

Unter anderem ist geplant, die Prozessorfunktionen von Nvidia Tesla GPUs in IBM Power-Prozessoren zu integrieren. Dieser Schritt könnte es vielen Unternehmen erleichtern, Supercomputing-Hardware für anspruchsvolle Rechenaufgaben und zur beschleunigten Markteinführung neuer Produkte einzusetzen.

Zudem sollen die IBM Power Systems können künftig wissenschaftliche, technische und Visualisierungs-Anwendungen, die mit dem Cuda-Programmiermodell entwickelt werden, unterstützen. Bereits im Rahmen der „OpenPower-Initiative“ angekündigt, im kommenden Jahr „Power8“-Systeme mit Nvidia Tesla herauszubringen. IBM plant auch, die Rational Enterprise-Software-Entwicklungs-Tools Supercomputing-Entwicklern zur Verfügung zu stellen.

Verteilung von Rechnerarchitekturen und GPUs in Rechenzentren.
Verteilung von Rechnerarchitekturen und GPUs in Rechenzentren. (Bild: Nvidia)

Zur schnelleren Adaption des CPU-unterstützten Rechnen könnte ebenfalls beitragen, dass Nvidia mit der jüngsten Cuda-Version auch den Open-Source-Compiler „Linux GCC“ unterstützen wird, den meist gebrauchten im HPC-Umfeld. Die Parallelisierung funktioniert mithilfe einfacher von OpenACC rnteickelter (https://developer.nvidia.com/openacc ) Pragmas, Compiler-Anweisungen.

Center of Excellence

Ein weiterer wichtiger Partner ist HP. Das Unternehmen eröffnete kürzlich in Zusammenarbeit mit Nvidia ein neues GPU Technical Centre of Excellence. Es geht hier um HPC-Technologien, das Maximieren von Rechenleistung und Reduktion des Stromverbrauchs. Das Center befindet sich im französischen Grenoble und steht Endanwendern, Entwicklern und unabhängigen Software-Anbietern offen. HPC-Kunden und Partnern von HP, sowie Interessenten, die das werden wollen, wird der Zugang zu den Tesla- und „Grid“-Technologien von Nvidia ermöglicht.

Die schnellsten, größten, grünsten

Zur Nvidia-Kundschaft gehören die Betreiber von Supercomputern, die zehn Systeme, die am effizientesten arbeiten, also die Top 10 auf der „Green500“-Liste setzen samt und sonders Tesla-GPUs des Herstellers ein – mit einer Ausnahme: „Blue Gene von IBM.

Der jüngste Anführer dieser Liste ist der “Tsubame-KFC“, der beim Tokyo Institute of Technology zuhause ist. Das System steht in einem offenen Ölbad und bietet 4,5 Gigaflops pro Watt (siehe: Bildergalerie). Das ist noch einmal um 25 Prozent effizienter als bei der Nummer 2 auf der Green500-Liste: Der Supercomuter, der zur der Cambridge University’s Wilkes gehört, bietet 3,6 Gigaflops pro Watt.

Auch der schnellste Supercomputer in Europa von „Piz Daint“, der mehr als 6,2 Petaflops aufbringt, nutzt jetzt Tesla K20x-GPUs – zuvor waren ausschließlich Intel-CPUs im Einsatz. Sieben Wetterinstitute – aus Deutschland, Griechenland, Italien, Polen, Russland, Rumänien und der Schweiz – nutzen das System, das im Tessiner Centro Svizzero di Calcolo Scientifico (CSCS) für Wettervorhersagen.

Inhalt des Artikels:

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 42426060 / Komponenten)