High Performance per X86

Von der gedruckten menschlichen Zelle bis zum 10.000 Euro 3D-Bild

Seite: 3/3

Anbieter zum Thema

Die Dell-Kunden

Das macht auch das Institute of Structural Mechanics der Bauhaus-Universität Weimar, ein Dell Kunde. Die Aufnahme des kompletten Kurbelwellengehäuses eines 6-Zylinders beispielsweise mit rund 2 Milliarden Voxel durch einen 3D-CT-Scan mit einer Röntgenquelle aus einem Linearbeschleuniger, die bis zu 11 MeV an Strahlungsenergie erzeugen kann, beziehungsweise 9 Megaelektronenvolt und Kosten von rund 10.000 Euro, gibt auch dieses Institut außer Haus, erläutert Professor Dr. Ing. habil. Carsten Könke vom Institut für Strukturmechanik.

Die Erstellung eines solchen Modells ist reine Rechnerei, für die es einen Supercomputer braucht. Um mit dem fertigen Modell zu arbeiten, benötigen Forscher jedoch zumeist „nur“ eine leistungsfähige Workstation.

Bildergalerie
Bildergalerie mit 18 Bildern

Das Beispiel macht jedoch eines von zwei Herausforderungen der Forschung und damit der HPC-Technik deutlich: Die IT muss zunehmend in der Lage sein, große und komplexe „Dinge“ sowie Abhängigkeiten der Einzelteile abzubilden, etwa ein Flugzeug, (Makro Scaling) oder in immer kleinere Dimensionen vorstoßen (Microscaling) , sowohl was die Teilchengröße angeht als auch die Zeitabschnitte - Bruchteile von Sekunden und Zeitreihen über Jahre und Jahrzehnte. Dazu kommen die Herausforderungen bei der Kombination der verschiedenen Modelle, die kombiniert werden müssen, um etwa Aussagen über das Bruchverhalten von Beton sagen zu können, Abnutzung von Verschleißteilen im Auto und Flugzeug oder Implantaten.

HPC in der Uni Regensburg

Auch die Universität Regensburg setzt Dell-Technik für seine HPC-Umgebung ein. Professor Dr. Dominik Horinek vom Institut für Physikalische und Theoretische Chemie, erläutert, warum hier der Hunger nach immer größerer Rechenleistung unstillbar ist: Man stelle sich einen Ameisenhaufen vor, von dem in festgelegten Zeitabständen Aufnahmen gemacht werden. Bei zu grober Einstellung der Linse lassen sich einzelne Ameisen nicht einmal ausmachen.

Sind die Zeitabstände zu groß, kann es sein, dass sich die Bewegungen nicht nachvollziehen lassen (siehe: Abbildung 11) . Eine Ameise kann schon wieder am selben Platz angekommen sein, so dass es aussieht als habe sie sich gar nicht bewegt oder sie befindet sich nicht weit weg, sämtliche Zwischenbewegungen wurden nicht wahrgenommen, so dass sich die Geschwindigkeit der Ameise und ihre Agilität nicht einschätzen lässt.

Allerdings sind die Zeitabschnitte in der Molekulardynamik weitaus kürzer (siehe: Abbildung 12). Eine der Aufgaben, mit der sich das Institut beschäftigt, ist die Mizellenbildung im Wasser. Das wiederum ist eine der Grundlagen für die Entwicklung neuer, umweltfreundlicher Waschpulver zum Beispiel. Bis vor kurzem wussten die Forscher jedoch gar nicht, wie Mizellen aussehen. Heute kann Horinek ein Modell zeigen, das die Struktur eines solchen Klümpchens wiedergibt. Die kann man auch durch ein Mikroskop nicht einfach „sehen“, sie wird aus den Messdaten, die hinreichend kleine Informationen aufnehmen, berechnet.

Lebensdauer einer HPC-Installation

Jede Veränderung in der Granularität bedeutet einen exponentiellen Anstieg der Datenmengen. Trotzdem steht ein HPC-Cluster etwa fünf bis acht Jahre zur Verfügung, bevor neue Rechnergenerationen einziehen. Auch ein Prozessortausch ist nur limitiert möglich und findet in der Praxis so gut wie gar nicht statt. Derzeit gehen die Überlegungen eher in Richtung Storage, also SSDs statt Platten, bestätigt Horinek.

Um allerdings eine größere und gleichmäßigere Auslastung der Rechner zu erreichen, greift ein Verbund aus Forschern und Instituten innerhalb der Universität auf das Cluster zu. Die Software, wie in vielen Fällen beim Einsatz in Forschungs- und Lehranstalten, basiert häufig auf OpenSource. Dennoch müssen die Forscher selten ihre Programme selber schreiben; Anpassungen hingegen beziehungsweise Optimierungen hingegen sind an der Tagesordnung.

HPC in Berlin

Das bestätigt auch Dr. Alf Wachsmann, CIO des Max-Delbrück-Zentrum für Molekulare Medizin (MDC) und Berlin Institute of Health (BIH). Ersteres ist ein Helmholtz-Institut und das BIH eine gemeinsame Einrichtung des MDC und der Charité, gerade mit einem neuen Rechenzentrum ausgestattet. Während das MDC sich um die biologischen Grundlagen der Medizin kümmert, ist die Leitidee des BIH die translationale Forschung, verschränkt mit dem fächerübergreifenden Ansatz der Systemmedizin, sprich: ein enger Austausch zwischen Forschung und medizinischer Praxis.

Das MDC bringt molekulare und systembiologische Kompetenz ein und hat Zugang zu Krankheitsmodellen sowie neuesten Entwicklungen in den Hochdurchsatz-Omics-Technologien (Genomics, Metabolomics, Proteomics). Die Charité verfügt über Kompetenz in der patientenorientierten Forschung.

Damit das funktionieren kann, muss eine Datengrundlage geschaffen werden, die es ermöglicht, die biologischen Grundlagen mit der medizinischen Forschung in Verbindung zu bringen. Das wiederum erfordert ein riesiges Mapping-Projekt. „Bis jetzt arbeiten wir an den Metadaten für ein Repository, damit wir überhaupt eine gemeinsame Grundlage haben“, erläutert Wachsmann den Projektstatus. Dazu kommt die Klärung ethischer Grundlagen, weil Patientendaten im Spiel sind. „Das Ganze ist mit Sicherheit ein Projekt, das fünf bis zehn Jahre dauert“, so Wachsmann

Außerdem fallen sowohl im MDC als auch im BIH beziehungsweise der Charité ernorme Datenmengen an. So entstehen pro Genom-Probe 5 bis 50 Gigabyte. Die Daten müssen im Original über einen Zeitraum von zehn Jahren aufbewahrt werden sowie Kopien für das Archiv. Da das MDC jedoch zugleich sehr heterogene Lasten verarbeiten muss, stehen für die einzelnen Arbeitsbereiche eigentlich zu viele IT-Ressourcen zur Verfügung.

Bildergalerie
Bildergalerie mit 18 Bildern

Doch beim MDC steht die Beschaffung eines 3D-Mikroskops an. Dann belaufen sich die Mengen pro Genom-Probe auf 500 Gigabyte bis 1 Terabyte. Wachsmann begründet die Notwendigkeit: „Bisher kennt man erst 1 Prozent des Genoms, das Exom, quasi den Bauplan, und schon jetzt hat man Krankheiten beziehungsweise Mutationen entdeckt, die nicht über diesen Bauplan identifizierbar sind.“

In einem sind sich alle Forscher und HPC-Nutzer einig: Ein Exascale-Rechner könne, obwohl schon viele davon reden, noch nicht gebaut werden. Dann nämlich brauche es ein Atomkraftwerk daneben, dass diesen mit Strom versorge.

(ID:43503575)