Aktuelle Rechner erlauben lediglich Rasen statt Fliegen Blitzanalysen fordern neue, andere Hardware

Autor / Redakteur: Hans-Joachim Allgaier / Ulrike Ostler

Alle Macht der Software! Ja, aber … Es braucht neue Hardware, insbesondere im Bereich der Analyse. Denn: Das explosionsartige Wachstum von Datenmengen stellt selbst neuste Hochleistungsverfahren zur Echtzeit-Analyse vor immer größere Herausforderungen.

Anbieter zum Thema

Das Foto gehört zu einer HP-Moonshot-Anwendergeschichte: Sandia Labs
Das Foto gehört zu einer HP-Moonshot-Anwendergeschichte: Sandia Labs
(Bild: HP)

Jüngst trafen sich 50 führende Experten aus Wissenschaft und Wirtschaft bei einer Tagung von Informatikforschern am Hasso-Plattner-Institut (HPI) in Potsdam. Dort ging es beim zehnten „Future SOC Lab Day“ auch um aktuelle Forschungsergebnisse, die mit neuster Hard- und Software im HPI-Spitzenforschungslabor erzielt worden sind.

Deutlich wurde: Blitzschnelle und flexible Big Data-Auswertungen mit der am HPI erforschten und mitentwickelten In-Memory-Technologie stoßen auf Seiten der Hardware mittlerweile auf physikalische Grenzen. Das neuartige Hauptspeicher-Daten-Management lässt riesige Datenmengen ausschließlich im schnellen Hauptspeicher eines Computers mit vielen Rechenkernen residieren und verarbeitet sie mit Hilfe einer speziell organisierten Höchstgeschwindigkeits-Datenbank.

HPI-Wissenschaftler Frank Feinbube erläutert: „Echtzeit-Analysen auf immer größeren Datenmengen erfordern ganz neue Kniffe sowohl auf Hardware- als auch auf Softwareseite. Derzeit ist die Situation praktisch so, als säße ein Formel-1-Pilot in einem Jet und fährt damit nur, statt abzuheben und rasant zu fliegen.“

Neuartige Hardware

Logische Konsequenz wäre es, dass die Hardware anders gebaut werden müsste, aber das funktioniere nicht, so ein Wissenschaftler. Deshalb müssten Wege gefunden werden, wie die entsprechende Soft- und Hardware optimal harmonieren könnten.

Anwendungsszenarien müssten zunächst einmal bis ins letzte Detail bedacht werden, um die Hardware- und Big Data-Management-Systeme optimal anzupassen. So könnten beispielsweise im Zeichen von „Industrie 4.0“ Anwendungen entstehen, bei denen Lagerkapazitäten, Materiallieferung und Herstellung aufs Genauste abgestimmt werden mit aktuellsten Rohstoffpreisen, Verkaufsmargen und anderen Optimierungsprozessen.

HPI-Forschungspartner Hewlett Packard stellt The Machine vor

Hewlett Packard, einer der Ausrüster und Partner des HPI-Spitzenforschungslabors, stellte in Potsdam seinen Ansatz für eine völlig neue Computer-Generation mit einer andersartigen Netzwerkarchitektur vor. Kernstück der Neuentwicklung sind so genannte Memristoren, an denen HP bereits seit 2008 experimentiert, wie HP-Entwickler Axel Simon auf dem Future SOC Lab Day erkläuterte.

Bei Memristoren handelt es sich um passive Bauelemente, deren Widerstand variabel ist. „Der jeweilige Wert hängt stets davon ab, wie viele Ladungen in welcher Richtung vorher geflossen sind. Auch wenn kein Strom mehr zugeführt wird, bleibt dieser Zustand erhalten“, führt Simon aus. Dies habe man sich die Forscher zu Eigen gemacht und wolle es zum Speichern von Daten und zum Rechnen nutzen.

(ID:43328607)