Aktuelle Rechner erlauben lediglich Rasen statt Fliegen

Blitzanalysen fordern neue, andere Hardware

| Autor / Redakteur: Hans-Joachim Allgaier / Ulrike Ostler

Das Foto gehört zu einer HP-Moonshot-Anwendergeschichte: Sandia Labs
Das Foto gehört zu einer HP-Moonshot-Anwendergeschichte: Sandia Labs (Bild: HP)

Alle Macht der Software! Ja, aber … Es braucht neue Hardware, insbesondere im Bereich der Analyse. Denn: Das explosionsartige Wachstum von Datenmengen stellt selbst neuste Hochleistungsverfahren zur Echtzeit-Analyse vor immer größere Herausforderungen.

Jüngst trafen sich 50 führende Experten aus Wissenschaft und Wirtschaft bei einer Tagung von Informatikforschern am Hasso-Plattner-Institut (HPI) in Potsdam. Dort ging es beim zehnten „Future SOC Lab Day“ auch um aktuelle Forschungsergebnisse, die mit neuster Hard- und Software im HPI-Spitzenforschungslabor erzielt worden sind.

Deutlich wurde: Blitzschnelle und flexible Big Data-Auswertungen mit der am HPI erforschten und mitentwickelten In-Memory-Technologie stoßen auf Seiten der Hardware mittlerweile auf physikalische Grenzen. Das neuartige Hauptspeicher-Daten-Management lässt riesige Datenmengen ausschließlich im schnellen Hauptspeicher eines Computers mit vielen Rechenkernen residieren und verarbeitet sie mit Hilfe einer speziell organisierten Höchstgeschwindigkeits-Datenbank.

HPI-Wissenschaftler Frank Feinbube erläutert: „Echtzeit-Analysen auf immer größeren Datenmengen erfordern ganz neue Kniffe sowohl auf Hardware- als auch auf Softwareseite. Derzeit ist die Situation praktisch so, als säße ein Formel-1-Pilot in einem Jet und fährt damit nur, statt abzuheben und rasant zu fliegen.“

Neuartige Hardware

Logische Konsequenz wäre es, dass die Hardware anders gebaut werden müsste, aber das funktioniere nicht, so ein Wissenschaftler. Deshalb müssten Wege gefunden werden, wie die entsprechende Soft- und Hardware optimal harmonieren könnten.

Anwendungsszenarien müssten zunächst einmal bis ins letzte Detail bedacht werden, um die Hardware- und Big Data-Management-Systeme optimal anzupassen. So könnten beispielsweise im Zeichen von „Industrie 4.0“ Anwendungen entstehen, bei denen Lagerkapazitäten, Materiallieferung und Herstellung aufs Genauste abgestimmt werden mit aktuellsten Rohstoffpreisen, Verkaufsmargen und anderen Optimierungsprozessen.

HPI-Forschungspartner Hewlett Packard stellt The Machine vor

Hewlett Packard, einer der Ausrüster und Partner des HPI-Spitzenforschungslabors, stellte in Potsdam seinen Ansatz für eine völlig neue Computer-Generation mit einer andersartigen Netzwerkarchitektur vor. Kernstück der Neuentwicklung sind so genannte Memristoren, an denen HP bereits seit 2008 experimentiert, wie HP-Entwickler Axel Simon auf dem Future SOC Lab Day erkläuterte.

Bei Memristoren handelt es sich um passive Bauelemente, deren Widerstand variabel ist. „Der jeweilige Wert hängt stets davon ab, wie viele Ladungen in welcher Richtung vorher geflossen sind. Auch wenn kein Strom mehr zugeführt wird, bleibt dieser Zustand erhalten“, führt Simon aus. Dies habe man sich die Forscher zu Eigen gemacht und wolle es zum Speichern von Daten und zum Rechnen nutzen.

Inhalt des Artikels:

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 43328607 / Konvergente Systeme)