CERN hilft mit ‚openlab’ bei der Entwicklung des Datenspeichers der Zukunft Materie besteht zu 99,99 Prozent aus Leere. Wie speichert man den Rest?

Autor / Redakteur: Carsten Wunderlich / Rainer Graefen |

Lässt man Elementarteilchen mit Lichtgeschwindigkeit aufeinanderprallen und versucht dann aus den Bruchstücken der Kollision zu erkennen, ob irgendwas ganz geblieben ist, dann hat man eventuell einen neuen Baustein der Materie entdeckt. Speichertechnisch betrachtet hätte diese Erkenntnis über die Natur allerdings immense Auswirkungen.

Anbieter zum Thema

Künstlerische Darstellung des Higgs-Feldes
Künstlerische Darstellung des Higgs-Feldes
(CERN)

In einer hoch gelobten Präsentation über Arbeit und Ergebnisse des Large Hadron Collider des CERN auf dem Nexenta OpenSDx Summit erläuterte Günther Dissertori, Professor für Teilchenphysik am CERN, wie Partnerschaften zwischen öffentlichen Institutionen und privaten Unternehmen die zu erwartenden technologischen Schwierigkeiten beim größten Experiment der Menschheit überwinden können. Hierzu gehört die Entwicklung neuer Speichertechnologien, die in Zukunft Exabytes an Daten speichern können.

Eine atomare Nadel aus "Heu-ähnlichem" Material

Der Large Hadron Collider (LHC) am CERN in der Schweiz ist die größte und komplexeste jemals von Menschenhand gebaute Maschine. Dort werden Teilchen im 27 Kilometer langen Ringtunnel mehr als 100 Meter unter der Erde fast auf Lichtgeschwindigkeit beschleunigt um zu kollidieren.

Mit diesem Experiment sollen die Teilchen gefunden werden, aus denen alle Atome, alle Moleküle und damit jegliche Materie besteht. Die Detektoren, die die Teilchenkollisionen aufzeichnen, verfügen über 100 Millionen Datenausgabe-Kanäle und nehmen 14 Millionen Bilder pro Sekunde auf.

Natürlich müssen alle Bilder gespeichert und irgendwann analysiert werden. Diese Aufgabe stellt alles bisher Dagewesene in den Schatten, wie Dissertori erläutert: „Die Suche nach dem Teilchen ist schlimmer als die Suche nach der Nadel im Heuhaufen. Wir bekommen 14 Millionen Heuhaufen pro Sekunde – und dummerweise sieht die Nadel auch noch aus wie Heu.“

Die Grid-Verteilung

Das Experiment erzeugt circa drei GByte Daten pro Sekunde oder einen riesigen 25 PByte Daten-Heuhaufen pro Jahr. Als das Experiment vor 15 Jahren entworfen wurde, wusste das CERN-Team schon, dass es irgendwo ein immenses Datenvolumen speichern müsste und man gedachte diese Aufgabe mit Tapes und etwas später mit einem Storage-Grid zu meistern.

Damals war das bereits eine riesige Datenmenge, für die es keine passende Speichertechnologie gab. Daher musste das CERN tun, was es schon seit Beginn seiner Forschung tut: Innovative Technik aus der Taufe haben.

Im Laufe der Jahrzehnte hat das CERN den Ruf erworben, eine der besten Forschungseinrichtungen der Welt zu sein. Neben der Hauptaufgabe, der elementaren Forschung, musste das CERN regelmäßig zusätzliche ‚Abfallprodukte’ entwickeln, um seine Forschung überhaupt erst möglich zu machen.

Bildergalerie
Bildergalerie mit 9 Bildern

Beispielsweise entwickelte CERN das Grid-Computing, um für seine mehr als 40.000 Forscher Daten auf 140 Rechenzentren in über 40 Ländern zu verteilen.

Weltweite Datendistribution

Dank seines Expertenwissens zu Teilchen, Analysen und IT hat das CERN außerdem einen Beschleuniger erfunden, mit dem Krebs effektiver behandelt werden kann als mit Standardverfahren wie der Bestrahlung.

Bestrahlungstechnologien und Computertomografie sind weitere Beispiele für Anwendungen von CERN-Technologien in der Medizin. Auch das Internet, oder das HTTP-Protokoll wurden ursprünglich erfunden, um die Arbeit der Wissenschaftler und Techniker zu erleichtern, die das LHC Anfang der 1980er planten.

Um die riesigen Mengen an Forschungsdaten zu speichern, die das CERN erzeugt, und sie für Forscher zugänglich zu machen, ist die gesamte Datenspeicherungs-Struktur in Ebenen aufgebaut. Das CERN ist Ebene null, der Startpunkt.

Von hier aus werden die Daten an einige wenige Zentren auf Ebene zwei an viele weitere kleinere Zentren auf Ebene drei verteilt, so dass Forscher auf der ganzen Welt auf die Daten zugreifen können. Datenübertragungsraten von bis zu 7 Gbit pro Sekunde machen es möglich, die Daten für die 14 Millionen monatlichen Analyse-Jobs zur Verfügung zu stellen.

(ID:43382967)