Das vierte Element

Was ist ein Memristor?

| Autor / Redakteur: Thomas Drilling / Ulrike Ostler

Memristoren sind: „denkende Widerstände“. Das Bild zeigt den Testchip eines Memristors, der vom NaMLab (An-Institut der TU Dresden) gefertigt wurde.
Memristoren sind: „denkende Widerstände“. Das Bild zeigt den Testchip eines Memristors, der vom NaMLab (An-Institut der TU Dresden) gefertigt wurde. (Bild: TU Dresden - Chua Memristor Center (CMC))

Seit 2008 gilt die von Informatikwissenschaftlern schon seit 1971 mathematisch „geforderte“ Existenz des so genannten Memristors als belegt. Es stellt sich die Frage: Was genau ist ein Memristor?

Erstmals mathematisch beschreiben wurden Memristoren 1971 von Leon Chua, Elektronik-Professor an der University of California in Berkeley. Die Beschreibung war Folge der Forderung nach der Existenz eines neben Widerstand, Spule und Kondensator vierten fundamentalen Grundtyps passiver elektrischer Schaltungselemente, der die formalen mathematischen Zusammenhänge zwischen Strom, Spannung, Ladung und magnetischem Fluss harmonisieren würde.

Die Einordnung des Memristors in die elektrischen Grundgrößen
Die Einordnung des Memristors in die elektrischen Grundgrößen (Bild: Linear77 / CC BY 3.0)

Memristoren sind demnach „passive“ Bauelemente, bei denen der Widerstand nicht konstant ist, sondern davon anhängt, wie viele Ladungen vorher geflossen sind und in welcher Richtung. Da der Widerstandswert erhalten bleibt, wenn kein Strom mehr fließt, lässt sich der Effekt der Abhängigkeit zwischen Ladung und magnetischen Fluss sowohl zum Speichern von Daten, als auch zum Rechnen nutzen.

Der erste Memristor

Angeblich erstmals physikalisch realisiert wurden Memristoren im Jahr 2007. Laut Aussage der Forscher von Hewlett Packard Enterprise, die sich seit 2008 intensiv mit Memristoren beschäftigen (HPE´s Supercomputer „The Machine“ sollte ursprünglich auf Memristor-Chips basieren) bräuchte man dazu lediglich ein nichtlineares Verhalten zwischen den Strom- und Spannungsintegralen. Zwar ließe sich die gesuchte Eigenschaft mit „aktiven“ Bauelementen realisieren, allerdings würde diesen zusätzlich zugeführte Energie benötigen beziehungsweise verbrauchen.

Beziehungen zwischen den vier grundlegenden elektronischen Variablen und Vorrichtungen, die diese Beziehungen umsetzen.
Beziehungen zwischen den vier grundlegenden elektronischen Variablen und Vorrichtungen, die diese Beziehungen umsetzen. (Bild: Parcly Taxel / CC BY 3.0)

Seit 2008 experimentiert ein Forscherteam von HPE unter Leitung von HPE Senior Fellow Stan Williams an der physikalischen Realisierung von Memristoren, nach Möglichkeit in Serienfertigung. Zwischen 2008 und 2010 hatten die HPE-Forscher ein Bauelement als Schalter für schnelle Switches in Form eines relativ einfach aufgebauten Schichtverbundes aus Titandioxid mit Platinelektroden entwickelt, das von HP seinerzeit selbstbewusst als Beweis für die erste physische Inkarnation eines Memristors gefeiert wurde.

HPE entwickelte zunächst einen Schichtverbundes aus Titandioxid mit Platinelektroden als Schalter.
HPE entwickelte zunächst einen Schichtverbundes aus Titandioxid mit Platinelektroden als Schalter. (Bild: HPE)

Damals prognostizierten die HPE-Forscher zuversichtlich, entsprechende Bauelemente als Alternative zur bisherigen Fertigung von nichtflüchtigen Speicherchips in Form von NAND- oder NOR-Flashers binnen drei Jahren zur Serienreife bringen zu können, wozu HPE mit dem weltweit zweitgrößten DRAM-Produzenten Hynix (seit 2011 SK Hynix) zusammenarbeitet, wenngleich auch andere Hersteller wie etwa Samsung, IBM, Fujitsu, Matsushita oder 4DS in diesem Bereich forschen. HPE sieht sich aber selbst als federführend in der Memristor-Forschung.

The Machine

Allerdings wollten die HPE-Forscher ihre Anfangserfolge in der Memristoren-Technologie im Jahr 2008 nicht nur als Grundlagenforschung verstanden wissen und so prognostizierte man auf Basis der eigene Forschungsergebnisse eine völlig neuartigen Supercomputer-Achitektur für die Cloud und Computer-Grids, die HPE samt speziellem Betriebssystem unter der Bezeichnung „The Machine“ entwickeln wollte.

Was ist ein Supercomputer?

Von der Cray bis zum Linux-Cluster mit GPU

Was ist ein Supercomputer?

11.11.16 - Supercomputer, der Begriff beschreibt Computersysteme mit extrem großer Leistungsfähigkeit, auch im Vergleich zu den schnellsten normalen Computern. Er schließt dabei Grid- oder Cloud-Computing-Lösungen aus, bei denen räumlich verteilte, vernetzte Computer numerische Probleme gemeinschaftlich lösen, oft auf freiwilliger Basis. lesen

Angekündigt hatte HPE The Machine erstmals auf der Konferenz „Discover 2014“ in Las Vegas. Die geplante Serienreife - von HPE erstmals für 2013, später für 2015 versprochen - musste inzwischen mehrfach revidiert werden. Laut Aussage HPE soll The Machine in einem einzigen 19-Zoll-Rack künftig bis zu 160 Petabyte Speicher mit Zugriffszeiten von 250 Nanosekunden ermöglichen und nur einen Bruchteil der elektrischen Leistung herkömmlicher Systeme benötigten. Die eigentlich für 2016 angekündigten DIMMs sollten laut HP eine Umschaltzeit im Bereich von Pico-Sekunden aufweisen.

Die eigentlich für 2016 angekündigten DIMMs sollten laut HPE eine Umschaltzeit im Bereich von Pico-Sekunden aufweisen.
Die eigentlich für 2016 angekündigten DIMMs sollten laut HPE eine Umschaltzeit im Bereich von Pico-Sekunden aufweisen. (Bild: HPE)

Inzwischen erstreckt sich die Roadmap von „The Machine“ jedoch bereits bis 2020. Noch im Sommer 2015 räumte HPE in einem Interview mit der New York Times ein, dass man keine Vorstellung habe, ab wann man Memristoren in relevanten Stückzahlen herstellen könne und dämpfte die eigenen Prognosen bezüglich einer möglichen Marktreife von The Machine erneut. So wurde die serienreife Verfügbarkeit von Memristoren seit 2015 mehrfach verschoben, erst auf 2016 und dann auf dann 2017.

Immerhin präsentierten die HPE-Forscher im Oktober 2016 einen ersten Prototypen von „The Machine“. Dazu hat sich HPE für The Machine aber vorerst vom Memristor verabschiedet und vermarktet The Maschine als Rechner, der einen Architekturwechsel zum „Memory Driven Computing“, einer Architektur, jenseits der klassischen Von-Neumann-Konzepte, die den Prozessor in den Mittelpunkt des Systems stellen, einläuten soll.

Vorerst hat sich HPE für The Machine vom Memristor-Einsatz verabschiedet.
Vorerst hat sich HPE für The Machine vom Memristor-Einsatz verabschiedet. (Bild: HPE)

Immerhin gilt The Machine laut Andrew Wheeler, Vice President und Deputy Director der Hewlett Packard Labs als größtes Forschungs- und Entwicklungsprogramm in der Geschichte des Unternehmens. Im Mai dieses Jahres kündigte HPE die Inbetriebnahme einer zweiten Version im Labor in Fort Collins (Colorado) an. Anstelle der 4 Terabyte des ersten Prototyps bietet diese Maschine 160 Terabyte Arbeitsspeicher und weitere Verbesserungen der Systemarchitektur, die laut HPE den „weltgrößten Computer mit einheitlichem Arbeitsspeicher“ realisieren. Heute arbeitet HPE offenbar weiter daran, The Machine mit dem vorrangigen Ziel einer speichergetriebene Rechnerarchitektur zu Marktreife zu führen, jedoch mit heute verfügbaren Technologien und (zumindest derzeit) nicht mit Memristoren.

Knowm - Nature's Transistor

Angesichts der Probleme, die HPE offenbar hat, einen Memristorchip zur Serienreife zu entwickeln, überraschte es umso mehr, dass im Juli 2015 das kleine US-Startup Knowm Inc. Fakten schuf und einen nach eigener Aussage ersten, funktionsfähigen Memristor auf dem Markt brachte, der für rund 200 Dollar im https://knowm.org/product/ Known-Online-Shop erworben werden konnte und kann.

Knowm bezeichnet seine Memristoren als „Nature Transistor“.
Knowm bezeichnet seine Memristoren als „Nature Transistor“. (Bild: Knowm)

Im Jahr Juli 2015 war Knowm´s neues Bauelement allerdings noch nicht zur Serienfertigung vorgesehen, sondern richtet sich primär an Forscher, die zum Beispiel mit Algorithmen für Machine Learning experimentieren wollen. Erst im September des gleichen Jahres konnte Knowm dann die kommerzielle Verfügbarkeit seiner Memristoren bekannt geben.

Allerdings gilt unter Fachleuten als umstritten, dass es sich bei den Chips von Knowm tatsächlich um Memristoren im Sinne der Definition handelt. Nach Aussage von Tim Molter, CTO bei Knowm lehnt sich das Arbeitskonzept des Knowm-Memristors an die von neuronalen Netzen bekannte Hebbsche Lernregel an. Diese lasse sich, so Molter, mit Memristoren sehr effizient realisieren. Die Knowm-Memristoren funktionieren demnach ähnlich wie Neuronen weshalb Knowm zur Bezeichnung „Nature Transistor“ gegriffen hat.

Knowm-Memristoren sollen ähnlich wie Neuronen funktionieren.
Knowm-Memristoren sollen ähnlich wie Neuronen funktionieren. (Bild: Knowm)

Knowm-Mitbegründer Axel Nugent, der unter anderem im DARPA-Forschungsprojekt „Synapse“ involviert dar, hat HPEs Problem mit dem Memristor wie folgt umschrieben: „Das Problem von HP ist nicht der Memristor, sondern wie sie ihn verwenden wollen“. Kowm´s AhaH-Prinzip dagegen basiere auf einer Memristor-Technologie, die Kris Campbell von der Uni Boise entwickelt hat und die sich vom HPE-Ansatz deutlich unterscheidet.

Das Video erläutert die Funktionsweise des Knowm-Memrisor.

Wie es weitergeht

Ein weiterer von US-Forschern entwickelter Chip, besteht angeblich ausschließlich ebenfalls aus Memristoren und gießt die simulierte Funktionsweise des Gehirns in Hardware, soll aber deutlicher effizienter arbeiten als ein neuronales Netz. Zwar orientieren sich auch neuronale Netze an biologischen Prinzipien, eignen sich aber in erster Linie für die Mustererkennung, was zum Beispiel Google und Facebook mit in Software realisierten neuronalen Netzen schon lange unter Beweis stellen. Allerdings benötigen diese dazu viel Rechen-Power.

So präsentierten ebenfalls im Jahr 2015 zwei Forscher der University of California in Santa Barbara (UCSB) und der Stony Brooks University eine effizientere Variante neuronaler Netze, die aus Memristoren aufgebaut und daher als diskreter Chip realisiert ist. Der Chip verarbeitet Daten nicht mit Hilfe digitaler Logik-Schaltkreise, sondern mit Elementen, die die Funktionsweise von Neuronen und Synapsen in biologischen Gehirnen nachahmen. Der Chip wurde im Mai 2015 in einen Fachartikel des Wissenschaftsmagazins „Nature“ beschrieben.

*Der Autor Thomas Drilling schreibt IT-Fachartikel und ist als IT-Berater tätig. Auf DataCenter-Insider füttert er seinen eigenen Blog: „Drillings Open-Source-Eck“.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 45103620 / Definitionen)