Big Compute -- Utility High Performance Computing HPC in der Cloud – soll und darf das sein?

Autor / Redakteur: Übersetzung: Jürgen Spenzinger / Ulrike Ostler

Am 23. und 24. September 2013 findet hierzulande die „ISC Cloud '13“- Konferenz statt, in Heidelberg. Jason Stowe, CEO von Cycle-Computing, hält dort den Vortrag „HPC und Supercomputing – auf dem Weg zu einer neuen Funktionalität“. Was geschieht, wenn Wissenschaftler und Forscher nicht mehr durch feste Rechenleistungen und Datenkapazitäten beschränkt sind?

Cloud-Computing eröffnet auch für die Forschung unendliche Ressourcen, sagt Jason Stowe, CEO des HPC-Anbieters Cycle Computing. ein Sponsor der Veranstaltung.
Cloud-Computing eröffnet auch für die Forschung unendliche Ressourcen, sagt Jason Stowe, CEO des HPC-Anbieters Cycle Computing. ein Sponsor der Veranstaltung.
(Bild: Scanrail/ Fotolia.com)

Für manche Wissenschaftler ist HPC schon längt keine Frage von Rechenzentrumskapazität mehr. Für sie hat sich durch Cloud-Computing längst ein Universum aufgetan.

Jason Stowe, CEO von Cycle-Computing, hält in Heidelberg auf der High-Performance und Big-Data-Konferenz ISC Cloud ´13 den Vortrag „HPC und Supercomputing – auf dem Weg zu einer neuen Funktionalität“.
Jason Stowe, CEO von Cycle-Computing, hält in Heidelberg auf der High-Performance und Big-Data-Konferenz ISC Cloud ´13 den Vortrag „HPC und Supercomputing – auf dem Weg zu einer neuen Funktionalität“.
(Bild: Cycle Computing)
In einem Fall sei ein 10.000-Cluster-Server in der Cloud benutzt worden, um wissenschaftliche Inhalte von 40 Jahren in weniger als einem halben Tag aufzuarbeiten – und dies zu relativ geringen Kosten von nur 4.372 Dollar, berichtet Stowe. Der Cycle-Computing-CEO macht hier ein Trend auf eine wesentlich breitere Nutzung des Cloud Computing aus, was wissenschaftliches Arbeiten in Forschung und Industrie betrifft.

Hat Cloud Computing für High Performance Computing - etwa in den vergangenen fünf Jahren – Fortschritte gemacht?

Jason Stowe: Die letzten fünf Jahre waren für HPC in der Cloud oder „Utility HPC „eine Zeit des enormen Wachstums– und ich denke, wir sind eindeutig an dem Punkt angelangt, an dem wir das globale Bewusstsein, aber auch die Akzeptanz des Mainstream erreicht haben. Einzelne Nutzer, aber auch Unternehmen haben erkannt, dass der On-Demand-Zugriff auf die richtigen Rechen-und Daten-Ressourcen zum richtigen Zeitpunkt eine bessere Wissenschaft, aber auch bessere Geschäftsentscheidungen schneller und mit geringeren Kosten ermöglicht.

Eine ganze Reihe von Entwicklungen haben dieses Wachstum beeinflusst, als da wären: Der globale Druck, das zunehmende Innovationstempo und die unersättliche Nachfrage nach Rechenleistung und Daten. Dazu kommt ein wirtschaftliches Klima, das Einschränkungen und Budgetrestriktionen mit sich bringt. Das alles stürmt auf uns ein – und so entsteht die Notwendigkeit zum Umdenken, was wiederum die Entwicklung von Utility HPC beschleunigt.

Welche wichtigen Barrieren gilt es dabei zu überwinden?

Jason Stowe: Die Sicherheit bleibt weiterhin ein wichtiger Aspekt. Die Tatsache, dass Sie Ihre eigenen, lokalen Schlüssel haben – die Ihr Provider nicht hat – kann für den Datenschutz bedenklich sein. Korrekte Bewertungen – und damit meine ich ordnungsgemäße Audit-Trails für Utility HPC-Systeme, sind ebenfalls wichtig.

Alle Infrastruktur-Anbieter, die mehrere Clients auf der gleichen Betriebssystem-Instanz und auf einem Host interagieren, gehen ein Risiko ein, aber zum Glück gehen die meisten Cloud-Anbieter korrekt damit um. Auch verschiedene Organisationen nutzen HPC immer häufiger, da die zentralen Daten Flexibilität und niedrige Kosten garantieren – die Anwendungen machen dies erforderlich und das dürfe eine wichtige Voraussetzung werden.

Ein Top-10-Pharmaunternehmen beispielsweise verwendet den Cycle Data Manager zur automatisierten Archivierung und für den Abruf von 75 Terabyte Daten bei „Amazon Glacier“. Dabei besteht keine Notwendigkeit, diese Daten erneut verschlüsseln zu müssen oder den Workflow der Anwendung zu stören.

Tatsächlich scheint es im tagtäglichen Wissenschaftsbetrieb viele Cloud-f#ähoge Anwendungen zu geben.

Jason Stowe: Viele der alltäglichen wissenschaftlichen Arbeiten, wie Genom-Sequenzierung oder aber „Nadel-im-Heuhaufen Simulationen“ wie beispielsweise die Medikamentenforschung verlaufen parallel oder mit hohem Durchsatz und die Berechnungen sind voneinander unabhängig.

Bleiben wir bei der Medikamentenforschung : Ein Ziel in der Krebsbekämpfung ist es, ein Protein zu finden, das, ähnlich wie ein Schloss ein Schlüsselloch besitzt, in das Moleküle passen – sozusagen als Schlüssel, um die Funktion des Proteins entweder zu verstärken oder auch zu hemmen. Das Problem dabei ist nur, dass man nicht nur ein paar Schlüssel am Schlüsselbund hat, sondern in diesem Fall etliche Millionen Moleküle zu überprüfen sind.

Jede diese Simulationen ist sehr rechenintensiv, so dass ein Medikamentenforscher rund 340.000 Stunden Rechenzeit oder umgerechnet fast 40 Jahre dafür benötigen würde. Ich bin der Ansicht, dass es diesen Wissenschaftszweig ohne den Einsatz von Utlitiy HPC überhaupt nicht gäbe.

Welche anderen HPC-Anwendungen oder Branchen, sind am besten für dieses Modell geeignet?

Jason Stowe: Es gibt eine ganze Reihe von Anwendungsgebieten: Energie, Fertigung, Finanzdienstleistungen und vieles mehr. Das beweist, dass die meisten modernen Wissenschaften, insbesondere Monte Carlo-Simulationen oder Daten-Parallel-Simulationen, hervorragend mit Cloud-Computing arbeiten. Forscher und Wissenschaftler aller Fachrichtungen sind jetzt in der Lage, wissenschaftliche Berechnungen und komplexere oder feinere Analysen durchzuführen, die bislang aufgrund des enormen Aufwands und der hohen Kosten nicht möglich waren.

Artikelfiles und Artikellinks

(ID:42314452)