Neue Systemarchitektur

Was ist Memory-driven Computing?

| Autor / Redakteur: Ariane Rüdiger / Ulrike Ostler

KI-Anwendungen erfordern eine neue Systemarchitektur mit zentraler Rolle für den Speicher.
KI-Anwendungen erfordern eine neue Systemarchitektur mit zentraler Rolle für den Speicher. (Bild: © djama - stock.adob.com)

Memory-driven Computing stellt ganz einfach das Paradigma bisheriger Rechnerarchitekturen auf den Kopf: Im Zentrum steht nicht mehr der Prozessor, sondern Speicher.

Heutiges Computing könnte man als Processor-Driven Computing beschreiben: Der Prozessor bildet das Zentrum eines Rechners, um ihn herum gruppieren sich die anderen Komponenten, vor allem Arbeits- und Massenspeicher.

Daraus ergeben sich erstens Engpässe, die aus den begrenzten Bandbreiten resultieren, die den Speicher mit dem Prozessor oder den Prozessoren verbinden. Zweitens ist es schwierig oder zumindest umständlich, Speicher, der bestimmten Recheneinheiten zugeordnet ist, frei zu machen oder anderen Recheneinheiten zuzuordnen.

Nun verändert sich aber die Lage durch Digitalisierungen und Anwendungen wie das Internet der Dinge (Internet of Things, IoT) grundlegend: Die Unmengen von Daten, nicht mehr die Rechnerleistung, sind die Basisressource, mit der es optimal zu arbeiten gilt. Speicher, auf dem Daten liegen oder liegen können, spielt deshalb in einer datengetriebenen IT eine zentrale Rolle – es geht also um Memory-driven Computing.

Den Speicher in die Mitte rücken

Die sollte sich in der Architektur von Rechnern widerspiegeln. Deshalb arbeiten eine ganze Reihe von Herstellern an neuartigen Speicherkonzepten, die weitaus mehr Daten auf engerem Raum speichern können und langfristig gleichzeitig kostengünstiger sein sollten als heutiger Primärspeicher.

In der Idealform sieht die Idee vom Memory-driven Computing sogar vor, dass der Unterschied zwischen verschiedenen Speicherklassen möglichst weitgehend entfällt. Nichtflüchtiger, bitweise adressierbarer Speicher soll Festplatten vollständig ersetzen.

Bislang wichtigster Vertreter dieses neuen Paradigmas ist Hewlett-Packard Enterprise (HPE) mit seinem Konzept „The Machine“, das genau diese Idee in einen architektonischen Ansatz umsetzt. Der Hersteller will ihn nun Schritt für Schritt in seine Produkte implementieren.

Memory-driven Computing rückt den Speicher in den Mittelpunkt der Rechnerarchitektur.
Memory-driven Computing rückt den Speicher in den Mittelpunkt der Rechnerarchitektur. (Bild: HPE)

Die Abbildung stammt aus einer Präsentation von Kimberley Keeton, Distinguished Technologist bei HPE, die im Jahr 2016 gehalten wurde, und stellt das Basiskonzept im Vergleich zu bisherigen Rechnerarchitekturen dar: In der Mitte stehen Speicherelemente, die matrixförmig durch eine so genannte Fabric miteinander vernetzt sind. Drumherum sind die Verarbeitungseinheiten angebracht, die jeweils auf die gesamte Fabric zugreifen können. Diese ist nahezu unbegrenzt erweiterbar. Dafür muss der gesamte verfügbare physische Speicher global bitweise adressierbar werden.

Braucht eine Verarbeitungseinheit Speicher beziehungsweise Daten, die in einem bestimmten Speicherelement liegen, wird ihr der entsprechende Speicher logisch für die Dauer der Aufgabenbewältigung in ausreichender Menge zugewiesen. Anschließend wird er wieder freigegeben, so dass andere die Ressource nutzen können.

Der Vorteil: Die Verfügbarkeit von Daten und Massenspeichern wird systemweit optimiert, der Prozessor von vielen Aufgaben, die heute aus der den mit Verzögerungszeiten belasteten Zugriffen auf fest zugewiesene Massenspeicher außerhalb resultieren, befreit.

Neue Betriebssysteme in Arbeit

Dafür ist auch neue Betriebssystem-Software nötig, die den direkten Zugriff auf gespeicherte Daten ermöglicht. Einen Mechanismus für Seitenzugriffe braucht derartige Software nicht mehr. Deshalb arbeitet HPE auch an einer Linux-Variante, die für den Zugriff auf derartige Speichersysteme mit persistentem Speicher optimiert ist. Diese ist aber noch nicht fertiggestellt.

Teile des The-Machine-Konzepts sind in Systemen wie Composable Infrastructure und vor allem dem HPE Superdome Flex umgesetzt. Letzteres System, das beispielsweise beim Deutschen Zentrum für Neurovegetative Erkrankungen (DZNE) implementiert wurde, nutzt die Idee des matrixvernetzten Speichers, um komplexe Datenanalysen unter anderem an Daten aus bildgebenden Verfahren an Demenzerkrankten durchzuführen.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 45663838 / Definitionen)