Quanten auf dem Sprung und mehr

Fünf Vorhersagen zum Supercomputing 2016

| Autor / Redakteur: Barry Bolding* / Ulrike Ostler

Barry Bolding, Chief Strategy Officer bei Cray, erörtert wichtiges Supercomputing-Trends für 2016.
Barry Bolding, Chief Strategy Officer bei Cray, erörtert wichtiges Supercomputing-Trends für 2016. (Bild: Top 500 The List)

Von neuen Prozessortechnologien bis hin zu Quantenrechnern – 2016 verspricht ein weiteres aufregendes Jahr für das Supercomputing zu werden. Dabei dürften fünf Themen besonders im Fokus stehen.

2016 ist mit einer ganzen Reihe von aufsehenerregenden Technologien zu rechnen. Ganz vorne mitspielen dürfte dabei der zukunftsweisende „Xeon Phi“-Koprozessor von Intel, eine zwischen Accelerator und Universalprozessor angesiedelte Hybridlösung. Die neue Prozessorklasse wird mit ihrem innovativen Design, das eine leistungsfähige Multi-Core-Architektur mit hoher, alltagstauglicher Produktivität verbindet, beträchtliche Auswirkungen auf die Branche haben. Auch Cray wird die Intel Xeon Phi-Prozessoren in einigen seiner größten Systeme verbauen, darunter den für die Los Alamos National Labs und das NERSC vorgesehenen „Trinity“- oder „Cori“-Supercomputern.

Innovation und Fortschritt werden 2016 auch das Markenzeichen der bahnbrechenden Pascal GPUs von NVIDIA sein, während ARM im Prozessorbereich den Markt aufmischt.

Quantensysteme auf dem Sprung

Für Quantencomputer wird 2016 ein zwiespältiges Jahr sein. Zwar preist Google sein „D-Wave“-System als Quantum Annealing Device an, sodass mit weiteren spektakulären Schlagzeilen zu rechnen ist; dennoch dürfte auch Ende des Jahres noch nicht abschließend geklärt sein, was genau damit gemeint ist beziehungsweise worin der ultimative Nutzen von D-Wave liegt.

Google bestätigt Funktionsfähigkeit des D-Wave-Quantencomputers

Unter bestimmten Bedingungen 100.000.000fache Rechenleistung

Google bestätigt Funktionsfähigkeit des D-Wave-Quantencomputers

21.12.15 - Es könnte eine Revolution in der Computerwelt bedeuten: Seit zwei Jahren tüfteln Google und die NASA am Quantencomputersystem D-Wave 2X. Nun hat Google eine Erfolgsmeldung präsentiert: Der Quantencomputer funktioniert – bis zu 100 Millionen mal schneller als konventionelle Rechner lesen

Quantensysteme sind zweifellos eine faszinierende neue Technologie und erzeugen einen Hype, der insgesamt positiv für die Branche ist. 2016 werden sie aber trotzdem keine realistische Alternative sein – es könnte bis 2020 oder sogar 2025 dauern, bis diese Technologie produktive Supercomputer-Lösungen hervorbringt.

2016: das Jahr des Data Tiering?

Einsatzspektrum und Preis-Leistungs-Verhältnis von Solid-State-Produkten und -Technologien haben in den vergangenen Jahren eine geradezu dramatische Entwicklung erlebt. Dieser Wandel zieht jedoch auch Fragen nach sich, zum Beispiel wie sich Daten, die über zahlreiche komplexe Speicherschichten hinweg migriert werden, leicht verwalten lassen – von SSDs über Halbleiterspeicher und nichtflüchtige Speicher (NVM) hin zu RAMs. Trotz wachsender Komplexität werden auch 2016 zahlreiche interessante Solid-State-Technologien, -Lösungen und -Systeme auf den Markt kommen.

In puncto Kosteneffizienz hat diese Technologie bereits heute einen wichtigen Trend eingeleitet: Wer Bandbreite braucht, kauft Bandbreite; wer Kapazität braucht, kauft Kapazität. Die Schwierigkeit besteht darin, die nahtlose Datenmigration zwischen den verschiedenen Speicherschichten zu managen.

Um maximalen Nutzen aus der Kostenersparnis zu ziehen, sind daher erhebliche Anstrengungen bei der Software-Entwicklung nötig. Lösungen wie die DDN Infinite Memory Engine, das vom Dell-Unternehmen EMC entwickelte DSSD-Produkt und der Cray DataWarp-Accelerator sind nur einige Beispiele für die vielen Versuche, innovative Software- und Hardware-Entwicklungen im Data-Tiering-Bereich miteinander zu verschmelzen. 2016 dürfte es daher eine Reihe ultraschneller Data-Tiering-Lösungen und Fortschritte in diesem Bereich geben.

Koheränz von Analytics und Supercomputing

Koheränz und Konvergenz sind die Buzzwords schlechthin. Sie finden sich in der US-amerikanischen National Strategic Computing Initiative ebenso wie im britischen Human Brain Project oder in den Beiträgen der großen kommerziellen und akademischen Player auf dem Gebiet des Hochleistungsrechnens. Dabei geht es bei weitem nicht nur um schöne Worte.

Big Data verändert die Art und Weise, wie Supercomputer genutzt werden, und Supercomputer beeinflussen wiederum den Umgang mit Big Data. Ob Analyse von Fußballspielen oder Wetter- und Klimamodellierung mithilfe von IoT-Sensordaten – Analytics und Supercomputing sind untrennbar miteinander verknüpft. 2016 wird diese Kohärenz weiter zunehmen und Früchte tragen.

Hat die Top 500-Liste ausgedient?

Seit 1993 orientieren sich Fachpresse und Öffentlichkeit an der Liste der Top 500-Computer, um zu verstehen, wie sich die Welt des Supercomputing verändert und weiterentwickelt. Allerdings waren die Top 500 samt der ihnen zugrundeliegenden Linpack-Metrik noch nie ein besonders geeigneter Maßstab, um die Bedeutung von Supercomputern für unseren Alltag beurteilen zu können. Der Grund? Sie geben keinen Aufschluss über die Produktivität eines Rechners.

Anhand der Top 500 lässt sich rückblickend erkennen, wann welche Technologien im staatlichen und privatwirtschaftlichen Sektor zum Zug gekommen sind. Wie die Zukunft dieser Technologien aussehen könnte und ob sie nützlich und produktiv sind, bleibt dabei außer Acht.

Barry Bolding identifiziert als ersten Trend eine neue Prozessorklasse mit innovativen Design, das eine leistungsfähige Multi-Core-Architektur mit hoher, alltagstauglicher Produktivität verbindet.
Barry Bolding identifiziert als ersten Trend eine neue Prozessorklasse mit innovativen Design, das eine leistungsfähige Multi-Core-Architektur mit hoher, alltagstauglicher Produktivität verbindet. (Bild: Cray Inc.)

Dennoch hat die Liste der 500 leistungsstärksten Computer einen unbestreitbaren Vorteil: Sie ist sehr leicht zu verstehen. Trotz aller Zweifel an ihrem Nutzen ist sie von bestechender Schlichtheit und ermöglicht die Konzentration auf die wirklich wichtigen Computing-Herausforderungen, denen wir uns stellen müssen.

Die Top 500-Liste dürfte also auch 2016 Regierungen, Hochschulen und Unternehmen willkommener Anlass sein, sich voller Stolz zum Besitz eines Supercomputers zu gratulieren. In diesem Sinne bleibt mir nur zu sagen: Ein gutes Neues Jahr, liebe Top 500-Liste! Vielleicht werden wir ja eines Tages eine bessere Metrik haben, aber noch sind wir nicht soweit ...

* Barry Bolding ist seit Juli 2015 der Chief Strategy Officer und Senior Vice President bei der Cray Inc.

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43830416 / Hardware)