Die HP Memristor-Tchnik krempelt die IT um Das Rechenzentrum ist in Zukunft nur ein Koffer-Computer

Autor / Redakteur: Jakob Jung / Rainer Graefen |

HP hat die Testproduktion der neuen Speicherchips mit Memristor-Technologie gestartet. Bis zur Einsatzreife müssen aber noch einige Hürden überwunden werden.

Anbieter zum Thema

Erstmalig in der Öffentlichkeit: Das Team von HP Labs präsentierte seine Forschungsergebnisse auf der Kundenkonferenz Discover im Juni 2015.
Erstmalig in der Öffentlichkeit: Das Team von HP Labs präsentierte seine Forschungsergebnisse auf der Kundenkonferenz Discover im Juni 2015.
(HP)

Seit 2007 gibt es bei HP erste Überlegungen zur Memristor-Technologie. 2013 gab Firmenchefin Meg Whitman persönlich den Anschub, das Projekt „TheMachine“, von der Memristor-Entwicklung ein Teil ist, mit hoher Priorität und millionenschweren Investitionen zu verfolgen.

Daran hat sich auch nichts geändert. Eine Meldung von Heise Online, dass HP seine ehrgeizigen Pläne zu Memristoren auf die lange Bank geschoben habe, bezeichnet Andreas Hausmann, Strategist, TheMachine Ambassador bei HP EMEA, als „schlecht recherchiert“.

Es wird noch besser

Memristoren sollen Teil des Gesamtkonzeptes TheMachine sein. Mit TheMachine erfindet HP alle wesentlichen Bauteile eines Computers neu: Speicher, Datenübertragung, Chip-Design sowie das Betriebssystem.

TheMachine vereint mittels Memristor-Technologie RAM und Massenspeicher zu einem einheitlichen Speicherbereich und macht damit Petabytes von Speicher innerhalb weniger Nanosekunden zugänglich – 20 bis 50 Mal schneller als mit herkömmlichen Rechnern.

Hausmann führt aus: „Wir können heute bereits Wafer bauen, aber noch nicht wirtschaftlich.“ Die Ausschussrate bei der komplexen Produktion auf neuen Fertigungslinien ist derzeit noch hoch.

HP kooperiert bei der Chip-Produktion mit Hynix und Micron. Wann die Produktionsschwierigkeiten in den Griff zu bekommen sind, ist derzeit völlig offen. Dies ändert aber nichts daran, dass die Forschung mit Hochdruck vorangetrieben wird.

Und was wird aus Windows?

Es gibt auch Anstrengungen anderer Hersteller: Intel und Micron haben diese Woche ein ähnliches Speicherprojekt vorgestellt. Hausmann begrüßt dies ausdrücklich: „Wir sind der einzige OEM (Original Equipment Manufacturer) Hersteller, der mit Intel zusammenarbeitet.“

HP will in seinen Forschungsanstrengungen zu TheMachine/Memristor offen sein und setzt auf die Kooperation mit anderen Herstellern, Universitäten und Forschungseinrichtungen, einige davon aus Deutschland. „HP sucht eine breite Plattform, um den Erfolg von Linux zu wiederholen“, erklärt Hausmann. „Wir versuchen, Transparenz zu schaffen. Das Komplettsystem wird in offener Gemeinschaft geschaffen.“

Es soll zwei Betriebssysteme geben, die die neue Speicherarchitektur unterstützen. Das Erste ist Linux for TheMachine (Linux4TM), das Zweite eine Android-Variante, die aber noch in der Entwicklung ist. Das OS wird als Open Source zur Verfügung stehen, um einer möglichst breiten Entwicklerbasis den Weg zu dieser revolutionären Compute-Plattform zu ebnen.

80 Millionen in 100 Mikrosekunden

HP arbeitet an „Linux4 TM“ gemeinsam mit einer Reihe von Universitäten. Daneben konzipiert HP für the Machine auch ein natives Betriebssystem. Existierende Anwendungen müssen portiert werden, um die Vorteile er neuen Architektur zu nutzen.

The Machine kombiniert Computing mittels aufgabenspezifischer Cores mit einem massiv skalierbaren nicht-volatilen Speicherbereich, die beide direkt über eine optische Fabric verbunden sind.
The Machine kombiniert Computing mittels aufgabenspezifischer Cores mit einem massiv skalierbaren nicht-volatilen Speicherbereich, die beide direkt über eine optische Fabric verbunden sind.
(HP)

TheMachine ist sowohl für große Rechenzentren als auch für Kleinstcomputer geeignet. Die HP Labs haben zuletzt TheMachine auf der Kundenkonferenz Discover im Juni in Las Vegas gezeigt. Es sind bereits große Fortschritte erzielt worden.

Bei Leistungstests mit einer simulierten „Machine“ führten die HP Forscher drei Suchaufträge durch, bei denen wir eine konventionellen, Festplatten-basierten verteilten Dateisystem-Algorithmus, eine In-Memory-Technologie-Version und eine simulierte „Machine“ verglichen wurde. Mit allen drei Systemen suchte HP nach fünf Bildern, die die größte Ähnlichkeit mit einem vorgegebenen Personenbild hatten.

Die ersten Ergebnisse:

  • Das Festplatten-basierte Dateisystem lieferte die Ergebnisse aus vier Millionen Bildern innerhalb von rund drei Minuten,
  • die In-Memory-Anwendung lieferte Ergebnisse aus 80 Millionen Bilder innerhalb von zwei Sekunden,
  • die simulierte „Machine“ lieferte die Ergebnisse aus denselben 80 Millionen Bilder innerhalb von 100 Millisekunden.

Damit wäre TheMachine zwanzigmal so schnell als In-Memory-Computing. „Es ist schwer zu sagen, wie viel schneller TheMachine in der Praxis sein wird.

Der Speicher rechnet - Latenz ade

Es gibt noch Potenzial für weitere Verbesserungen“, berichtet Hausmann. Die physikalischen Latenzen gelten nicht mehr, wenn der Prozessor direkt angesprochen wird. Der Stromverbrauch von Memristoren ist erheblich niedriger als der von konventionellen Speicherbausteinen.

Das Memory-Driven Computing, mit dem The Machine arbeitet, vereinfacht die Speicherhierarchie des Computings erheblich.
Das Memory-Driven Computing, mit dem The Machine arbeitet, vereinfacht die Speicherhierarchie des Computings erheblich.
(HP)

Da kein Auslagern (Swapping) von Daten auf Plattenspeicher mehr nötig ist, ist der gesamte Speicherbereich resident (nicht-flüchtig). Daten können nun endlich auch in sehr großem Umfang dort verarbeitet werden, wo sie anfallen.

Dieses „Memory-Driven Computing“ macht eine erheblich beschleunigte Datenverarbeitung umfangreichster Datenbestände bis hin zu ultra-hochskalierenden Analytics-Anwendungen all jenen Unternehmen zugänglich, bei denen diese Datenmengen anfallen – und nicht nur jener Handvoll Provider, die ihre Big-Data-Analysen dank massiver RZ-Infrastrukturen mit reiner Rechenpower bewältigen.

Das Memory-Driven Computing erlaubt es sogar, Prozessor und RAM physisch zu separieren, was ganz neue RZ-Architekturen ermöglicht. Bis zu 160 Racks arbeiten hier als Gesamtsystem mit wenigen 100 Nanosekunden Zugriffszeit.

Elektronen LichtIonen

Für die Datenübertragung kommen in TheMachine keine elektrischen Impulse, sondern das deutlich schnellere Licht zum Einsatz. Das Prinzip ist von optischen Weitverkehrsnetzen her bekannt, HP nutzt Licht aber auch zur Datenübertragung auf System- (Fabric-) und letztlich sogar auf Chip-Ebene.

Erstmalig in der Öffentlichkeit: Das Team von HP Labs präsentierte seine Forschungsergebnisse auf der Kundenkonferenz Discover im Juni 2015.
Erstmalig in der Öffentlichkeit: Das Team von HP Labs präsentierte seine Forschungsergebnisse auf der Kundenkonferenz Discover im Juni 2015.
(HP)

Wie der „Moonshot“-Server, so benutzt auch TheMachine ein System-on-a-Chip-Design (SoC), das Computing verwendet eine Vielzahl spezialisierter und damit energiesparender Cores mit Nanostore-Technologie statt General-Purpose-CPUs. Somit erfolgt das Rechnen auf Elektronenebene, die Kommunikation mittels Licht, das Speichern mittels Ionen.

Durch diese Innovationen skaliert TheMachine über alle bekannten Maße, zugleich lässt sich aber ein kompletter Serverraum mit hunderten von CPU-Kernen auf die Größe eines Tablets-PCs reduzieren. Dies ebnet den Weg für hochintelligente Sensoren und andere Bausteine im Internet der Dinge.

Die HPs Produkt-Roadmap für die nächsten fünf Jahre lautet: Zunächst werden einzelne Techniken von TheMachine Eingang in HP-Bestandslösungen finden. Ein Prototyp für einen optischen Interconnect mit 100 GBit/s wurde auf HPs Kundenkonferenz Discover im Juni 2015 gezeigt.

Naheliegende Aussichten

Anfang 2016 sollen HP-ProLiant-Server und 3PAR-Storage-Arrays mit nicht-flüchtiger Speichertechnologie auf den Markt kommen. Einsatzfähige Memristoren werden wahrscheinlich 2016 oder 2017 zur Verfügung stehen. Im zweiten Schritt folgt dann TheMachine als Appliance oder RZ-Baustein.

Ende nächsten Jahres will HP einen Prototypen von TheMachine mit 2.500 CPUs und 320 TByte Speicher in einem einzelnen Rack vorstellen. Ein erstes Release von TheMachine ist für 2018 geplant, zusammen mit ersten Edge Devices für das Internet der Dinge – also in nur drei Jahren.

Als dritte Ausbaustufe sollen komplette Distributed-Mesh-Umgebungen mit TheMachine im Jahr 2020 allgemein verfügbar sein, die dann Szenarien wie die oben genannten intelligenten Autoreifen Wirklichkeit werden lassen.

Um die Softwareentwicklung für das erste grundlegend neue OS seit Jahrzehnten zu ermöglichen, hat HP einen The-Machine-Simulator auf einer HP-Superdome-X-Maschine implementiert. Ein Managementwerkzeug zur Verwaltung von Millionen von Knoten hat HP mit Loom bereits letztes Jahr vorgestellt, dieses wird für TheMachine weiterentwickelt.

Seinen Weg in den Markt finden wird TheMachine damit also zunächst in der Form neuartiger Komponenten in bestehenden HP-Produktlinien, später dann als Komplettsystem und auf Projektebene zusammen mit den Entwicklungsabteilungen von Industriefirmen, die Anwendungen für das Internet der Dinge entwickeln.

(ID:43541373)