Nach zwei Jahrzehnten Flash-Geschichte, ist es an der Zeit, einige grundlegende Fragen zur Zukunft der Technik zu stellen. Eine Expertenrunde äußert, wann das All-Flash-Rechenzentrum zur alltäglichen Realität wird, wo sich Flash auf der Technologiekurve befindet und auch, wann der nächste, wegweisende neue Festkörperspeicher als Ergänzung oder Nachfolger von Flash auf den Markt kommen könnte.
Festplatten und Tapes sid nach wie vor aus den Datacenter nicht wegzudenken. Oder wer hätte gedacht, dass die Menge an Festplatten, die von Hyperscalern gekauft wird, die Menge der heutigen Flash-Laufwerke übersteigt?
(Bild: Dragon Claws - stock.adobe.com)
Es ist etwa 20 Jahre her, dass Flash-Speicher - in seiner äußerst dominanten NAND-Variante - erstmals Einzug in die Rechenzentren von Unternehmen gehalten hat. Seitdem hat die Technik die Datenspeicherung verändert. So ist die Leistung bei einer Vielzahl von Anwendungen erheblich gestiegen, weil Flash-Medien die viel langsameren, rotierenden Festplatten als Standardmedium für die primäre Datenspeicherung ersetzt hat.
Als Flash in den späten 1990er Jahren erstmals in Rechenzentren Einzug hielt, wurde die Technik lediglich zur Speicherung einer Teilmenge von Daten für eine Teilmenge von leistungsempfindlichen Anwendungen verwendet; denn sie war teuer. Doch als die Flash-Preise immer weiter fielen und Flash zur Speicherung von Daten für eine immer breitere Palette von Anwendungen verwendet wurde, begannen Branchenbeobachter zu fragen, wie lange es dauern würde, bis Flash die Festplatte vollständig verdrängt und so genannte All-Flash-Rechenzentren entstehen würden.
Tape ist nicht tot (und die Festplatte wird auch bestehen)
Zwei Jahrzehnte später haben wir diese Frage unserer Expertenrunde gestellt. Alle Fachleute waren sich einig, dass Flash die Festplatte noch viele Jahre lang nicht vollständig verdrängen wird, und die Mehrheit gab zu Protokoll, dass das All-Flash-Rechenzentrum auf absehbare Zeit eine Seltenheit bleiben wird. Andere Antworten fielen jedoch überraschend anders aus.
Alfred Chase Hui, Vice President of International Business bei Dapustor, einem Anbieter von Flash-Laufwerken, System-on-a-Chip-Prozessoren und anderen Edge-Produkten, fasste die wichtigsten Faktoren für die Beantwortung dieser Frage zusammen: „Es ist vernünftig zu erwarten, dass sich All-Flash-Rechenzentren in Zukunft immer mehr durchsetzen werden.“ Er setzt aber auch hinzu: „Der Übergang zu All-Flash-Rechenzentren kann jedoch aufgrund von bestimmten Faktoren (Kosten, Kompatibilität, Leistungsanforderungen) einige Zeit dauern.“
Andere Experten weisen insbesondere auf zwei Ursachen mit Blick auf die unbestimmte Zukunft der Festplatte hin:
der fünf- bis siebenfache Preisunterschied pro Terabyte Kapazität zwischen Flash und Festplatte und
der Bedarf von Unternehmen, große und ständig wachsende Datenmengen zu speichern, die nicht aktiv genutzt werden, etwa für KI/ML- und Analysetraining, Archivierung, Compliance sowie Backups.
Shawn Meyers, Field CTO bei Tintri, einem Hersteller von Speichersystemen, die auf virtualisierte Umgebungen zugeschnitten sind, gibt zu Protokoll: „Der Bedarf an kostengünstigem Archivierungsspeicher, zu dem vielerorts immer noch Tape gehört, wird bleiben. Man braucht schnellen Speicher nur für Dinge, an denen man aktiv arbeitet, und nicht für Dinge, die man nur für den späteren Gebrauch aufbewahrt."
Die Menge an Festplatten, die von Hyperscalern gekauft wird, übersteigt die Menge der heutigen Flash-Laufwerke.
Shawn Meyers
Meyers' Kommentar ähnelte den Aussagen anderer Teilnehmer unserer Expertenrunde, die man zusammenfassend als das 'Tape didn't die'-Argument bezeichnen könnte. Trotz der Vorhersagen zum Ende von Tape in den letzten zwei Jahrzehnten hat die Nutzung von Tape - zumindest in Bezug auf das schiere Volumen der darauf gespeicherten Daten - eher zu- als abgenommen, da immer größere Mengen an kalten oder selten zugänglichen Daten gespeichert werden müssen.
Die Tape-Fans
Peter Donnelly, Director of Products bei Atto Technology, einem Anbieter von Speichernetzwerken, teilt die Ansicht, dass All-Flash-Rechenzentren keinen Sinn machen" und dass es immer einen Bedarf an mehreren Speicherebenen geben werde. Er fügt hinzu, dass aufkommende Technologien wie KI/ML dieses Argument noch verstärkten.
Donelly sagt: „Unternehmen benötigen Zugang zu riesigen Speicherpools, etwa für das Training beim maschinellen Lernen, aber sobald dieses abgeschlossen ist, müssen die Daten auf kostengünstigere Speichertechnologien ausgelagert werden. Es mag zwar kontraintuitiv erscheinen, aber man kann durchaus argumentieren, dass aufkommende KI-Anwendungen den Bedarf an zweit- und drittklassigen Speichersystemen wie Festplatten und sogar Tape erhöhen.“
Coby Hanoch, CEO und Gründer von Weebit Nano, einem Entwickler von Speichermedien der nächsten Generation, teilte die Ansichten mit Blick auf Tape und fügte einen weiteren Grund hinzu, warum er glaubt, dass All-Flash-Rechenzentren nie wirklich weit verbreitet sein werden: alternative Solid-State-Technologien in Rechenzentren werden zum Einsatz kommen.
Ich bezweifle, dass es jemals reine Flash-Rechenzentren geben wird.
Coby Hanoch
Das klingt dann, selbst auf einen endlosen Zeithorizont so: „Ich bezweifle, dass es jemals reine Flash-Rechenzentren geben wird, und zwar aus mehreren Gründen. Es wird immer einen Bedarf an Tape oder Festplatten geben, einfach weil sie riesige Datenmengen auf billige Weise offline speichern können, und es wird eine wachsende Menge an Daten geben, auf die nur selten zugegriffen wird, die aber dennoch gespeichert werden müssen. Und wenn Flash die Rechenzentren übernimmt, werden die neueren NVMs [nichtflüchtige Speicher] wie etwa ReRAM und MRAM Teile der Rechenzentren beherrschen.“
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Der Festplatten-Fan
Steven Umbehocker, Gründer und CEO von Osnexus, einem Anbieter von skalierbaren, softwaredefinierten Speichersystemen, wies darauf hin, dass Festplatten in objektbasierten Speichersystemen fest verankert seien und dass beispielsweise der Festplattenriese Seagate eine kontinuierliche technologische Entwicklung vorausgesagt habe.
Sein Statement lautet: „Die Kostenersparnis von 5:1 zwischen Flash und Festplatte macht die Festplatte in objektbasierten Speichersystemen zu einer stärkeren Alternative zu Tape, und da Seagate in den nächsten Jahren die lang erwarteten 30-, 40- und 50-TB-Festplatten ausliefern wird, sollte sich in der Folge die Lebensdauer der Festplatte verlängern.“
Der Analyst
IT-Teams berücksichtigen jedoch mehr als nur die Anschaffungskosten, wenn sie zwischen Festplatten und Flash-Speichern wählen. Randy Kerns, leitender Stratege beim Analystenunternehmen Futurum Group, merkt dazu an: „Es gibt einen Aspekt bei der Umstellung auf Flash-Technologie, der oft übersehen wird: Neben der Leistungssteigerung durch Flash gibt es auch einen Wert der Einfachheit.“
Das erläutert er auch: „Mit Einfachheit meine ich die Notwendigkeit, die Geräte-Eigenschaften für die Platzierung/Verteilung von Daten im Hinblick auf die Leistung zu verwalten. Es ist einfacher, wenn die Leistung des Speichers höher ist.“ Er folgert: „Dies ist ein Faktor, der Unternehmen dazu bewegen wird, auf leistungsfähigere Technologien umzusteigen.“
Einige Rechenzentren sind vollständig mit Flash-Speicher ausgestattet
Für Tintri führt Meyers an, dass All-Flash-Rechenzentren bereits existierten. Und zur zukünftigen Ausstattung sagt er: „Die Antwort auf die Frage nach All-Flash-Rechenzentren wird von der Größe, dem Umfang sowie der Reichweite des Rechenzentrums abhängen.“
Es gebe viele kleinere bis mittelgroße Rechenzentren, die vollständig mit Flash ausgestattet sind. Dabei handele es sich jedoch eher um Rechenzentren für Einzelkunden.
Die großen Unternehmen, die regionalen Hosting-[Service-Provider] und die großen Hyperscaler werden für jeden beliebigen Zeitraum, den Sie prognostizieren wollen, Spinning-Rost haben.
Shawn Meyers
Dennis Hahn, leitender Analyst beim Forschungsunternehmen Omdia, stimmte dem zu und prognostizierte eine Klasse von Unternehmensrechenzentren, die bis 2028 komplett mit Flash ausgestattet sein werde. Dies seien Rechenzentren von Unternehmen, die zunehmend öffentliche Infrastruktur-Clouds nutzen, um ihre weniger leistungssensiblen oder kritischen Anwendungen zu hosten, die keinen Flash-Speicher benötigen, und die dieselben Clouds nutzten, um kalte oder selten benötigte Daten zu speichern.
„Vor-Ort-Rechenzentren, die sich weitgehend auf die Ausführung geschäftskritischer Anwendungen konzentrieren, gehen schnell zu reinen Flash-Speichern über“, sagt Hahn. Omdia prognostiziere, dass in den kommenden drei bis fünf Jahren die Mehrheit dieser lokalen Rechenzentren vollständig auf Flash-Technologie umsteigen sein wird.
Langsames Internet braucht keine schnellen Speicher
Mit anderen Worten: Festplatten werden aus diesen Unternehmensrechenzentren in die Hyper-Cloud-Rechenzentren verlagert - wo sie nach Ansicht von Hahn, wie auch der anderen Mitglieder der Expertenrunde, aufgrund ihrer niedrigen Kosten und des fehlenden Bedarfs an Leistung bei der Speicherung von kalten Daten noch viele Jahre lang bestehen werden.
Hahn nennt noch einen weiteren Grund, warum Flash nicht für die Speicherung jeder Art von Daten verwendet werden sollte: „Da diese [Bulk-, Archiv- und Backup-Speicher] oft mit dem relativ langsamen Internet verbunden sind, ist eher der Durchsatz als die geringe Latenz beim Abruf entscheidend. Wichtige Anwendungsfälle wie etwa Video und Rich Media werden HDD für eine lange Zeit effizient nutzen können, ebenso Technologien wie IoT und ELT [Extract, Load, Transform]-Datenerfassungspipelines.“
... und die Nachhaltigkeit ...
Roy Illsley, Chefanalyst bei Omdia, fügte hinzu: „Eine weitere Überlegung ist der Trend zur Verlängerung der Lebensdauer von IT-Geräten als Teil einer Strategie der ökologischen Nachhaltigkeit und Kosteneinsparung. Daher sind die Kunden jetzt weniger bereit, eine vermeintlich alte Technologie durch eine neue zu ersetzen. Die Auswirkungen auf die Rechenzentren werden darin bestehen, dass eine Mischung von Technologien eingesetzt wird, die in einigen Fällen bis zu sieben Jahre alt sein können, was bedeutet, dass die Einführung von Flash-Rechenzentren nicht unmittelbar bevorsteht.”
Curtis Anderson, Software-Architekt bei Panasas, einem Anbieter von Speichersoftware für leistungsintensive Workloads, vertritt eine ähnliche Ansicht bezüglich der Verbreitung von All-Flash-Rechenzentren. Allerdings basiert seine Meinung auf der Größe eines Unternehmensrechenzentrums und nicht auf den darin gehosteten Workloads.
„Wir glauben, dass es eine Grenze gibt, bei der Implementierungen unterhalb einer bestimmten Kapazität als All-Flash sinnvoll sind und Implementierungen oberhalb dieser Grenze nicht. Diese Grenze wird sich langsam nach oben verschieben, aber unserer Meinung nach meist mit dem Wachstum des Kapazitätsbedarfs Schritt halten.“
Keine synchrone Skalierung von Leistung und Kosten
Zur Verdeutlichung seines Arguments fügt Anderson an, dass ein Unternehmen mit der Speicherung eines relativ kleinen Dateisystems von 200 TB in Flash zufrieden sein könnte, da dies nur etwa 150.000 Dollar mehr kosten würde als die Speicherung auf Festplatte und eine viel bessere Leistung hätte. Aber für eine 100-mal größere Kapazität von 20 PB würden die zusätzlichen Kosten 12 Millionen Dollar betragen, was schwer zu rechtfertigen wäre. „Wenn man nicht gerade sehr spezielle Anforderungen hat, könnte man diese Mittel besser für den Kauf von CPUs und GPUs einsetzen.“
Die technologische Entwicklung folge oft einer Kurve, bei der die Kosten- oder Leistungsverbesserung im Laufe der Zeit langsam abnimmt und immer flacher wird, je schwieriger der technische Fortschritt zu erreichen ist. Um das Jahr 2010 herum sagten viele Beobachter voraus, dass die technische Entwicklung von NAND-Flash in Bezug auf die Anzahl der Speicherzellen, die in einen einzigen Flash-Chip gepackt werden können, vor riesigen Herausforderungen stehe.
Zu diesem Zeitpunkt war Flash bereits ein etablierter und wachsender Bestandteil der IT-Landschaft in Unternehmen, nicht nur wegen seiner Leistung und weiterer Vorteile gegenüber Festplatten, sondern auch, weil sein Preis in den letzten zehn Jahren immer weiter gesunken war. Sobald Hersteller von Flash-Chips auf die vorhergesagten Herausforderungen stießen, würden im Umkehrschluss die Preise, gemessen in Dollar pro Einheit Speicherkapazität, viel langsamer fallen.
Noch viel Dampf in der Flash-Technologiekessel
Im Jahr 2013 umging Samsung jedoch die vorhergesagte Einschränkung, indem es die ersten so genannten 3D-Flash-Chips auf den Markt brachte, die aus mehreren Schichten von Speicherzellen bestehen, statt wie bisher aus einer einzigen Schicht. Ein äußerst wertvoller Nebeneffekt ist die Möglichkeit, mehr Datenbits in jeder Speicherzelle zu speichern. Das hat dazu geführt, dass die Preise pro TB fielen.
Alle großen Flash-Hersteller folgten bald Samsungs Beispiel, und seither ist die Anzahl der Schichten pro Chip rapide gestiegen. Aber das war vor zehn Jahren. Nähert sich Flash nun dem Ende oder dem flacheren Teil seiner Technologiekurve?
„Leute, die sagen: 'Moore's Law ist tot', ignorieren 3D NAND, im Handy“, so der Generaldirektor des Analystenhauses Objective Analysis Jim Handy. Diese Technologie habe NAND-Flash einen neuen Schub gegeben, um weiterhin Bits zum Chip hinzuzufügen. „Jedes Jahr finden die Prozessingenieure geniale Wege, um die Technologie weiter voranzutreiben. Es ist zu erwarten, dass die Kosten in den nächsten Jahren mindestens um weitere Größenordnungen sinken werden, da die Chipdichte weiter zunimmt.“
Erkenntnisse vom Flash Memory Summit
Die Ankündigungen auf dem Flash Memory Summit 2023 bestätigten diesen Ausblick, so Leander Yu, Präsident und CEO von Graid Technology, einem Anbieter von GPU-gestützten softwaredefinierten Speichersystemen.
„Flash-Speicher-Hersteller wie Samsung, SK Hynix, Kioxia, Western Digital und Micron werden weiterhin Innovationen mit Roadmaps für höhere Dichte mit mehr Schichten unter Verwendung von Stacking-Techniken, Architektur- und Design-Innovationen sowie mehr Bits pro Zelle (etwa Penta-Level-Zelle oder PLC) entwickeln“, sagt er voraus.
Die ersten mehrschichtigen Flash-Chips, die 2013 auf den Markt kamen, bestanden aus 24 Schichten von Speicherzellen und speicherten 128 GBit. Yu verweist auf die diesjährige Demonstration eines 321-Layer-Chips von SK Hynix mit einer Speicherkapazität von 1 Terabit und auf die Vorhersage von Samsung aus dem letzten Jahr, dass das Unternehmen bis 2030 Chips mit 1.000 Lagen ausliefern werde.
Mit 1000 Lagen
Amos Ankrah, Lösungsspezialist bei Boston, einem Anbieter von Hochleistungsservern und Speichersystemen, vertritt die Ansicht, dass sich Flash noch auf dem steigenden Ast befindet: „Es gibt einige Faktoren, die darauf hindeuten, dass sich Flash in seiner technologischen Entwicklung noch im Aufwind befindet. Man kann darüber streiten, wo die derzeitige Flash-Technologie in neue Technologien übergeht, aber angesichts des Entwicklungsniveaus, das die Unternehmen, die Flash-Speicher entwickeln, immer noch an den Tag legen, scheint dies darauf hinzudeuten, dass es noch weiter aufwärts geht, bevor das Plateau erreicht ist.“
Donnelly von Atto gibt eine ganzheitlichere Antwort auf die Frage, ob Flash am Ende seiner Technologiekurve steht. In Bezug auf die Entwicklung der Netzwerk- und Speicherzugriffsprotokolle, die Flash-Laufwerke und Speichersysteme mit Servern verbinden, sagte er: „Bei weitem nicht. Wir beginnen gerade erst zu sehen, wie Flash in Rechenzentren eingesetzt werden kann.“
Der Wert von NVMe-Kommunikationsprotokollen werde in Rechenzentren gerade erst erkannt, und es werde mindestens ein Jahrzehnt dauern, bis sie die massive SCSI-basierte Infrastruktur ersetzen könnten. Auch die Weiterentwicklung der PCIe-Schnittstelle sowie neue Technologien wie CXL würden weitere Möglichkeiten für die Implementierung von Flash-Speichern bieten. Darüber hinaus entwickelten sich Transportprotokolle wie NVM-oF, typischerweise über RDMA-Ethernet, gerade erst zu einer brauchbaren Alternative.
Wann werden wir den nächsten neuen diskreten Festkörperspeicher sehen?
Flash hat die Datenspeicherung in Unternehmen verändert und war eine wichtige Triebkraft für die Revolution im Bereich der mobilen Computer. Jetzt ist es eine wichtige Technologie. Unabhängig von der Herstellung von Flash-Produkten wie Speicherlaufwerken oder kompletten Speichersystemen erwirtschaftet allein die Herstellung von NAND-Flash-Chips inzwischen einen Jahresumsatz von rund 80 Milliarden Dollar.
Dies wirft eine offensichtliche Frage auf: Wann wird die nächste neue Solid-State-Datenspeichertechnologie auftauchen, die denselben Einfluss auf den Massenmarkt haben könnte? In den letzten Jahrzehnten wurden Milliarden in Forschungslabors investiert, um eine neue Technologie zu entwickeln.
Der von Intel und Micron gemeinsam entwickelte „Optane“-Speicher war das Ergebnis dieser Forschung und wurde 2017 erstmals in Solid-State-Laufwerken ausgeliefert. Schneller, aber teurer als Flash, wurde Optane als der erste einer neuen Klasse von so genannten Storage-Class-Speichern (SCM) angekündigt, die Flash entweder ergänzen oder ersetzen und einen ähnlich großen Einfluss auf die IT haben würden.
Irrwege
Optane verkaufte sich jedoch schlecht. Im Jahr 2021 kündigte Intel an, die Produktion des Speichers einzustellen - nur vier Jahre nach seiner ersten Auslieferung.
In der Zwischenzeit wird die Forschung mit Blick auf andere potenzielle SCMs fortgesetzt. Für Objective Analysis, das sich schwerpunktmäßig mit neu entstehenden Speichern beschäftigt, sagt Handy, dass es in diesem und im nächsten Jahrzehnt wahrscheinlich keine neuen Speichertechnologien geben werde, die das Potenzial habe, die gleiche Wirkung wie Flash zu erzielen.
Er unterschied dabei zwischen zwei Arten von Speichern: solche, die in Prozessoren oder andere Chips eingebettet sind, und solche wie NAND-Flash und Optane, die als diskrete, reine Speicherchips in weitaus größeren Mengen verkauft werden und daher ein größeres Marktpotenzial haben.
Hanoch, CEO und Gründer von Weebit Nano, stimmt mit Handys Einschätzung überein, dass Optane - auch bekannt als 3D XPoint - aus wirtschaftlichen Gründen gescheitert sei, meint aber, dass die Schaffung einer Alternative zu Flash unvermeidlich sei: „Mehrere NVM-Technologien, darunter ReRAM, MRAM, PCM und FRAM, zeichnen sich als potenzielle Alternativen zu Flash ab.“
Intels 3D XPoint sei ein erster Versuch gewesen, das Problem anzugehen. Der Schlüssel zu einer erfolgreichen Flash-Alternative liege in der Entwicklung eines Speichers, der eine ausreichend hohe Speicherdichte zu einem ausreichend niedrigen Preis biete.
Sowohl Intel als auch AMD haben sich inzwischen vollständig von Vanilla-NVDIMMs zurückgezogen, ganz zu schweigen vom exotischeren Optane.
Boyan Krosnov
Boyan Krosnov, CTO und Mitbegründer von Storpool, einem Anbieter von softwaredefinierten, verteilten Speichersystemen, erinnert: „Jede neue Technologie muss sich gegen die bestehende Technologie durchsetzen, die von jahrzehntelanger Optimierung und Großserienfertigung profitiert. Die neue Technologie wird also einen erheblichen Nachteil haben.“
Anderson erwartet nicht, dass in den kommenden zehn Jahren ein SCM auftauchen werde und weist auf eine weitere Hürde hin, die Optane hätte nehmen nehmen müssen. „SCMs waren und sind vielversprechend, aber die Änderung der Software-Architektur, die für Anwendungen erforderlich ist, um alle Vorteile zu nutzen, die SCMs bieten können, war zu hoch.“