Die Rechenleistung neuer Prozessoren wächst deutlich schneller als die Bandbreite der Speicherzugriffe. Die Folge: Der Prozessor wartet auf Daten aus dem RAM und Rechenzyklen gehen verloren. Die Memory Wall wird zum Flaschenhals.
Memory Wall beschreibt die Hürde zwischen Compute und Speicher; die Entwicklung bei Prozessoren (CPU/GPU) und Storage-Komponenten disharmoniert.
(Bild: Midjourney / KI-generiert)
In der IT-Branche scheint der Arbeitsspeicher oft wie ein Relikt vergangener Tage; im Vergleich zur rasanten Entwicklung bei Prozessoren (CPU/GPU) und Storage-Komponenten verlief die Innovation bei Speichern eher evolutionär als revolutionär. Was in der Vergangenheit funktionierte, stößt heute jedoch an Grenzen. Das Problem verschärft sich durch die zunehmende Verbreitung speicherintensiver Anwendungen wie etwa High-Performance Computing (HPC) sowie Künstliche Intelligenz (KI).
JB Baker, Vice President Marketing & Product Management bei Scaleflux, sagt: „Neue Speichertechnologien entstehen durch das explosionsartige Wachstum in Bereichen wie KI, Machine Learning, Big Data Analytics, Wissenschaftliches Rechnen sowie hyper-skalierbare Cloud-Rechenzentren.“ Er stellt fest: „DRAM und NAND stoßen bei Skalierung, Geschwindigkeit und Dichte an ihre physikalischen und wirtschaftlichen Grenzen – und bremsen damit moderne Anwendungen aus.“
Neue Anforderungen: Bandbreite, Kapazität, Energie-Effizienz
Insbesondere KI-Anwendungen offenbaren die Schwächen klassischer Speicherlösungen: Zu geringe Bandbreite, hohe Latenzen, mangelnde Skalierbarkeit sowie unzureichender Energie-Einsatz.
„Wir nähern uns dem physikalischen und ökonomischen Limit traditioneller Speichertechnologien. Neue Architekturen sind daher unausweichlich“, so Baker weiter. Auch David Norfolk von Bloor Research sieht diesen Trend, merkt aber an: „Die KI-Welle treibt den Markt. Dazu kommt der Wunsch von Herstellern, margenstarke Innovationen zu vermarkten. Der echte Innovationsdruck kommt zunehmend auch durch Anforderungen wie Energie-Effizienz, Hitzereduktion sowie Zuverlässigkeit.“
Speichern unter regulatorischem Druck
Speicheranforderungen ergeben sich jedoch nicht nur aus der Technik. Auch rechtliche Vorgaben spielen eine Rolle, etwa dann, wenn Sensordaten als Beweismittel nach einem durch KI verursachten Vorfall dienen sollen. Martin Kunze, CMO bei Cerabyte, merkt an: „Es ist derzeit nicht klar definiert, wie viele Rohdaten von Sensoren für KI-Entscheidungen nötig sind oder wie lange diese Daten gespeichert werden müssen.“ Unternehmen hätten bereits juristische Konsequenzen tragen müssen, weil sie nicht ausreichend Daten zur Rekonstruktion eines Vorfalls vorgehalten hatten.
Kunze warnt zudem vor einer drohenden Angebotslücke: „Analysten erwarten, dass konventionelle Speichertechnologien in naher Zukunft nur noch etwa 50 Prozent des Bedarfs abdecken können.“ Daraus ergebe sich ein Risiko für KI-Investitionen, das bisher unterschätzt würde.
Speicher-Tiering bleibt zentral
Doch Herzaubern lassen sich die gewünschten neuen Technologien und Techniken nicht. Die Vision einer universellen Speicherlösung, welche schnelle Verfügbarkeit und Persistenz kombiniert, klingt verlockend, ist aber technologisch noch Jahre entfernt. In der Zwischenzeit bleibt ein mehrstufiges Speichermodell (Tiering) die realistische Strategie.
Etwa Arthur Sainio und Raghu Kulkarni, Co-Chairs der Persistent Memory SIG bei SNIA,merkt an: „Universeller Speicher wie PCM oder Ultram verspricht DRAM-ähnliche Geschwindigkeit und Persistenz, kämpft allerdings mit Fertigungskomplexität, hohen Kosten sowie Skalierungsproblemen.“ Die Folge: „Tiered-Architekturen bleiben mittelfristig dominant.“
Erst nach 2030 könnten universelle Speicher wirtschaftlich werden. Baker ergänzt: „Die Lücke zwischen DRAM-Geschwindigkeit und der Latenz persistenter Speicher ist noch zu groß, um sie in einem einzigen Speicherlayer zu überbrücken.“
KI verändert das Speicherprofil
KI verändert so manches, auch das Verständnis der Datenklassifizierung im Speicher. Dabei verschwimmen die Grenzen der klassischen Einteilung in Hot, Warm, Cold zunehmend.
Kunze beobachtet: „KI-Anwendungen müssen regelmäßig auf kalte Daten zugreifen, zum Beispiel für Trainingszwecke, die Anomalie-Erkennung oder auch forensische Analysen. Will heißen: Die Daten wandern dynamisch zwischen den Tiers, oft mehrfach täglich.
Diese Dynamik erfordert flexiblere Speicherstrukturen – und die Akzeptanz, dass nicht alle Innovationen auf Geschwindigkeit abzielen müssen. Wie Erfane Arwani, CEO von Biomemory, greift weit voraus in die Ära eines Speicherns auf der Basis von künstlicher DNA: „DNA-Storage ist nicht schnell, aber extrem dicht und langlebig.“ Das wäre ideal für KI-Modelle und Massendaten, die selten gelesen werden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Persistent Memory: Brückentechnologie mit Hürden
Technologien wie Persistent Memory (PMEM) sollen die Lücke zwischen Storage und Memory schließen. Doch Produkte wie „Intel Optane“ zeigen, wie schwierig es ist, sich in der Praxis zu etablieren.
Joseph Lynn, Vice President Operations bei Tarmin, hält fest: „Optane war zu teuer im Vergleich zu NAND, und langsamer als DRAM – ein ungünstiger Kompromiss. Zudem war die Anpassung der Software aufwändig. Viele Anwendungen konnten die Vorteile nicht nutzen.“
Auch Baker nennt Gründe für die zögerliche Akzeptanz: „Hohe Kosten, lange Latenzen sowie geringe Durchsatzraten machen PMEM derzeit wirtschaftlich wenig attraktiv für sensible Workloads.“ Nichtsdestotrotz offenbaren Technologien wie MRAM, ReRAM oder auch CXL-basierte Speicherlösungen vielversprechende Ansätze, beispielsweise durch geringe Standby-Leistung, Analog-Rechenfunktionen sowie DRAM-ähnliche Performance für Caching und Checkpointing im HPC-Bereich.
Neue Architektur? Nein. Allerdings mehr Vielfalt
Ein Paradigmenwechsel bei Server-Architekturen bleibt aus. General-Purpose-Architekturen mit CPU/GPU bestehen als die dominierende Basis, gerade auch im KI-Zeitalter. Punktuelle Lösungen, wie Computational RAM (CRAM), bei dem Berechnungen direkt im Speicher erfolgen, bleiben eine Nischenerscheinung.
„CRAM hat theoretische Vorteile, ist aber kaum programmierbar und daher ungeeignet für generalisierte HPC-Szenarien“, kommentiert Baker. Wichtiger seien skalierbare und dichte Speichertechnologien, die bestehende Architekturen besser ausnutzten, etwa durch 3D-DRAM / HBM3 für on-package AI-Training, CXL zur flexiblen, geteilten Speichererweiterung sowie Keramikspeicher zur Entlastung teurer HDDs im Cold-Storage-Segment. Sainio und Kulkarni betonen zudem: „Ein hybrider Ansatz ist entscheidend, um Kapazität, Geschwindigkeit und Flexibilität in Einklang zu bringen.“
Aufstrebende Technologien zur Optimierung von Speicherinvestitionen
Dennoch gibt es neue Technologien, und zwar solche, die versprechen, Investitionen in bestehende Speichertechnik zu maximieren. Das ist angesichts des Bedarfs eines Tiering-Ansatzes für moderne Workloads von Bedeutung.
Kunze bringt ein Beispiel: „Aufstrebende Technik wie keramischer Speicher können teure, leistungsstarke Speicher wie Festplatten, die heutzutage zur Speicherung von Kalt-Daten verwendet werden, freisetzen und so für eine effizientere Nutzung sorgen.“
Auch am Caching sowie am Zugriff auf Daten, die auf traditionellen Speichermedien (Flash, Festplatten) gespeichert sind, wird gedreht. „Fortschrittliche Caching-Strategien, die auf schnelleren Speichertypen wie HBM oder DRAM basieren, können den Zugriff auf heiße Daten erheblich beschleunigen und die Leistung bestehender Speichersysteme insgesamt verbessern“, erläutert Baker. Die Nutzung von persistentem Speicher zur Beschleunigung von Metadaten oder zur Implementierung von Caching-Schichten werde die Effizienz des Speichers weiter steigern, ohne dass dabei die Architektur grundlegend umgestaltet werden müsste, stellt er in Aussicht.
Software bleibt der Game-Changer
Obwohl Hardware oft im Mittelpunkt steht, ist Software für die Bereitstellung und Verwaltung von Daten-Klassenfizierungen unerlässlich. Wichtig ist dabei, dass Software den Betrieb vereinfacht und mit den vorhandenen Gegebenheiten arbeitet, anstatt Systeme grundlegend zu verändern.
Dies ist eine auf der Hand liegende und doch wertvolle Einsicht, die mit Blick auf Intel Optane gewonnen werden konnte, wie Lynn erläutert: „Ein wesentlicher Stolperstein für Optane war die langsame Anpassung des Software-Ökosystems. Während Optane DIMMs den Speicher theoretisch transparent zum Betriebssystem erweiterten, gestaltete es sich in der Praxis komplex und zeitaufwändig.“ Es seien Datenbanken und Dateisysteme zu optimieren gewesen, um die einzigartigen Persistenz- und Leistungsmerkmale vollständig zu nutzen. Dies habe eine weitreichende und effektive Nutzung verhindert.
Software ist entscheidend für den Erfolg jeder Technologie – insbesondere in einer Zukunft, in der Ressourcen effizient über verschiedene Plattformen hinweg kombiniert werden müssen. So weisen Sainio und Kulkarni der Software folgende Aufgaben zu: „Software optimiert Workloads über CPUs, GPUs, TPUs und CRAM, indem sie Ressourcen verwaltet, Aufgaben plant und insgesamt die Speichernutzung verbessert.“ Tools wie „Kubernetes“ und „Tensorflow“ sorgten für eine effiziente Hardware-Nutzung, während zukünftige Innovationen in der KI-gesteuerten Orchestrierung, einheitliche APIs und Echtzeit-Monitoring die Leistung und Energie-Effizienz über heterogene Plattformen hinweg weiter steigern könnten.
Hürden bei der Einführung
Obwohl die KI-Explosion die Einführung aufstrebender Speichertechnologien nahezu unausweichlich erscheinen lässt, bestehen weiter noch viele Risiken, insbesondere im Hinblick auf Investitionen in bestehende Speichertechnologien. Eine allgemein ablehnende Haltung gegenüber neuen Technologien ist laut Norfolk zugleich die größte Hürde für deren Einführung: „Das Ausmaß der Legacy-Technologie, die nach wie vor in vielen Anwendungen zum Einsatz kommt und immer noch ‚gut genug‘ funktioniert, sowie das allgemeine Misstrauen gegenüber aufstrebenden Technologien stellen Herausforderungen dar - es sei denn, es gibt keine technische Alternative.“
Vor dem Hintergrund vielschichtiger Warnungen verschärfen die Anforderungen anspruchsvoller Computing-Workflows stetig das Memory-Wall-Problem und erhöhen damit den Bedarf nach neuartigen Lösungen. Aufstrebende Speichertechnologien sind heute notwendiger denn je, und ihre breitere Akzeptanz ist daher nur noch eine Frage der Zeit.
Zum Glück sind die Bausteine dieser Fortschritte bereits vorhanden, wie Sainio und Kulkarni ausführen: „Erfolge bei CXL-basiertem Speicher sowie Racetrack-Speicher könnten die Branche revolutionieren. CXL wird eine skalierbare, latenzarme Integration von persistentem Speicher ermöglichen, während Racetrack-Speicher ultrahohe Dichte, optimierte Geschwindigkeiten sowie Energie-Effizienz bietet.”
Nur was sich ändert, bleibt
Die Zukunft der Datenspeicherung wird vermutlich auf mehreren Technologien basieren, wobei Tiering zum Einsatz kommen wird, um jeweils unterschiedliche Anforderungen zu verschiedenen Zeitpunkten innerhalb eines Systems zu erfüllen. Das bedeutet nicht nur den Einsatz aufstrebender, neuer Speichertechnologien, sondern auch die kontinuierliche Weiterentwicklung der Grenzen dessen, was die heutige Technologie bereits zu bieten hat.
„Wir gehen davon aus, dass es künftig vermehrt Varianten mit Blick auf persistenten und flüchtigen Speicher geben wird. Diese werden vor allem auf Double Data Rate (DDR) -Zellen basieren, aber auch NAND-Zellen könnten eine Rolle spielen“, so Baker.
Der DDR-basierte Speicher werde darauf abzielen, eine geringere Leistung und einen niedrigeren Energieverbrauch im Vergleich zu DRAM zu bieten, während er gleichzeitig kostengünstiger als Standard-DRAM sein werde, positioniert irgendwo zwischen DRAM und NAND in der Compute-Hierarchie. Die Innovationen bei NAND-Speicher würden darauf abzielen, die Bandbreite innerhalb der gesamten Computing-Hierarchie zu erhöhen, um den Anforderungen von KI und In-Memory-Datenbanken gerecht zu werden.
*Die Autorin Federica Monsone ist CEO von A3 Communications. Sie sagt: Veränderung ist unvermeidlich und erforderlich. Die Zukunft der Datenspeicherung wird von innovativen Technologien geprägt sein, die den Anforderungen der kommenden Ära in einer datengetriebenen Welt gerecht werden können.