Bereit für die Datenflut? Speicher-Tiering ist die einzige Option bis zur Ankunft neuer Technologien

Ein Gastbeitrag von Federica Monsone* 7 min Lesedauer

Anbieter zum Thema

Die Rechenleistung neuer Prozessoren wächst deutlich schneller als die Bandbreite der Speicherzugriffe. Die Folge: Der Prozessor wartet auf Daten aus dem RAM und Rechenzyklen gehen verloren. Die Memory Wall wird zum Flaschenhals.

Memory Wall beschreibt die Hürde zwischen Compute und Speicher; die Entwicklung bei Prozessoren (CPU/GPU) und Storage-Komponenten disharmoniert. (Bild:  Midjourney / KI-generiert)
Memory Wall beschreibt die Hürde zwischen Compute und Speicher; die Entwicklung bei Prozessoren (CPU/GPU) und Storage-Komponenten disharmoniert.
(Bild: Midjourney / KI-generiert)

In der IT-Branche scheint der Arbeitsspeicher oft wie ein Relikt vergangener Tage; im Vergleich zur rasanten Entwicklung bei Prozessoren (CPU/GPU) und Storage-Komponenten verlief die Innovation bei Speichern eher evolutionär als revolutionär. Was in der Vergangenheit funktionierte, stößt heute jedoch an Grenzen. Das Problem verschärft sich durch die zunehmende Verbreitung speicherintensiver Anwendungen wie etwa High-Performance Computing (HPC) sowie Künstliche Intelligenz (KI).

JB Baker, Vice President Marketing & Product Management bei Scaleflux, sagt: „Neue Speichertechnologien entstehen durch das explosionsartige Wachstum in Bereichen wie KI, Machine Learning, Big Data Analytics, Wissenschaftliches Rechnen sowie hyper-skalierbare Cloud-Rechenzentren.“ Er stellt fest: „DRAM und NAND stoßen bei Skalierung, Geschwindigkeit und Dichte an ihre physikalischen und wirtschaftlichen Grenzen – und bremsen damit moderne Anwendungen aus.“

Neue Anforderungen: Bandbreite, Kapazität, Energie-Effizienz

Insbesondere KI-Anwendungen offenbaren die Schwächen klassischer Speicherlösungen: Zu geringe Bandbreite, hohe Latenzen, mangelnde Skalierbarkeit sowie unzureichender Energie-Einsatz.

„Wir nähern uns dem physikalischen und ökonomischen Limit traditioneller Speichertechnologien. Neue Architekturen sind daher unausweichlich“, so Baker weiter. Auch David Norfolk von Bloor Research sieht diesen Trend, merkt aber an: „Die KI-Welle treibt den Markt. Dazu kommt der Wunsch von Herstellern, margenstarke Innovationen zu vermarkten. Der echte Innovationsdruck kommt zunehmend auch durch Anforderungen wie Energie-Effizienz, Hitzereduktion sowie Zuverlässigkeit.“

Speichern unter regulatorischem Druck

Speicheranforderungen ergeben sich jedoch nicht nur aus der Technik. Auch rechtliche Vorgaben spielen eine Rolle, etwa dann, wenn Sensordaten als Beweismittel nach einem durch KI verursachten Vorfall dienen sollen. Martin Kunze, CMO bei Cerabyte, merkt an: „Es ist derzeit nicht klar definiert, wie viele Rohdaten von Sensoren für KI-Entscheidungen nötig sind oder wie lange diese Daten gespeichert werden müssen.“ Unternehmen hätten bereits juristische Konsequenzen tragen müssen, weil sie nicht ausreichend Daten zur Rekonstruktion eines Vorfalls vorgehalten hatten.

Kunze warnt zudem vor einer drohenden Angebotslücke: „Analysten erwarten, dass konventionelle Speichertechnologien in naher Zukunft nur noch etwa 50 Prozent des Bedarfs abdecken können.“ Daraus ergebe sich ein Risiko für KI-Investitionen, das bisher unterschätzt würde.

Speicher-Tiering bleibt zentral

Doch Herzaubern lassen sich die gewünschten neuen Technologien und Techniken nicht. Die Vision einer universellen Speicherlösung, welche schnelle Verfügbarkeit und Persistenz kombiniert, klingt verlockend, ist aber technologisch noch Jahre entfernt. In der Zwischenzeit bleibt ein mehrstufiges Speichermodell (Tiering) die realistische Strategie.

Etwa Arthur Sainio und Raghu Kulkarni, Co-Chairs der Persistent Memory SIG bei SNIA,merkt an: „Universeller Speicher wie PCM oder Ultram verspricht DRAM-ähnliche Geschwindigkeit und Persistenz, kämpft allerdings mit Fertigungskomplexität, hohen Kosten sowie Skalierungsproblemen.“ Die Folge: „Tiered-Architekturen bleiben mittelfristig dominant.“

Erst nach 2030 könnten universelle Speicher wirtschaftlich werden. Baker ergänzt: „Die Lücke zwischen DRAM-Geschwindigkeit und der Latenz persistenter Speicher ist noch zu groß, um sie in einem einzigen Speicherlayer zu überbrücken.“

KI verändert das Speicherprofil

KI verändert so manches, auch das Verständnis der Datenklassifizierung im Speicher. Dabei verschwimmen die Grenzen der klassischen Einteilung in Hot, Warm, Cold zunehmend.

Kunze beobachtet: „KI-Anwendungen müssen regelmäßig auf kalte Daten zugreifen, zum Beispiel für Trainingszwecke, die Anomalie-Erkennung oder auch forensische Analysen. Will heißen: Die Daten wandern dynamisch zwischen den Tiers, oft mehrfach täglich.

Diese Dynamik erfordert flexiblere Speicherstrukturen – und die Akzeptanz, dass nicht alle Innovationen auf Geschwindigkeit abzielen müssen. Wie Erfane Arwani, CEO von Biomemory, greift weit voraus in die Ära eines Speicherns auf der Basis von künstlicher DNA: „DNA-Storage ist nicht schnell, aber extrem dicht und langlebig.“ Das wäre ideal für KI-Modelle und Massendaten, die selten gelesen werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Persistent Memory: Brückentechnologie mit Hürden

Technologien wie Persistent Memory (PMEM) sollen die Lücke zwischen Storage und Memory schließen. Doch Produkte wie „Intel Optane“ zeigen, wie schwierig es ist, sich in der Praxis zu etablieren.

Joseph Lynn, Vice President Operations bei Tarmin, hält fest: „Optane war zu teuer im Vergleich zu NAND, und langsamer als DRAM – ein ungünstiger Kompromiss. Zudem war die Anpassung der Software aufwändig. Viele Anwendungen konnten die Vorteile nicht nutzen.“

Auch Baker nennt Gründe für die zögerliche Akzeptanz: „Hohe Kosten, lange Latenzen sowie geringe Durchsatzraten machen PMEM derzeit wirtschaftlich wenig attraktiv für sensible Workloads.“ Nichtsdestotrotz offenbaren Technologien wie MRAM, ReRAM oder auch CXL-basierte Speicherlösungen vielversprechende Ansätze, beispielsweise durch geringe Standby-Leistung, Analog-Rechenfunktionen sowie DRAM-ähnliche Performance für Caching und Checkpointing im HPC-Bereich.

Neue Architektur? Nein. Allerdings mehr Vielfalt

Ein Paradigmenwechsel bei Server-Architekturen bleibt aus. General-Purpose-Architekturen mit CPU/GPU bestehen als die dominierende Basis, gerade auch im KI-Zeitalter. Punktuelle Lösungen, wie Computational RAM (CRAM), bei dem Berechnungen direkt im Speicher erfolgen, bleiben eine Nischenerscheinung.

„CRAM hat theoretische Vorteile, ist aber kaum programmierbar und daher ungeeignet für generalisierte HPC-Szenarien“, kommentiert Baker. Wichtiger seien skalierbare und dichte Speichertechnologien, die bestehende Architekturen besser ausnutzten, etwa durch 3D-DRAM / HBM3 für on-package AI-Training, CXL zur flexiblen, geteilten Speichererweiterung sowie Keramikspeicher zur Entlastung teurer HDDs im Cold-Storage-Segment. Sainio und Kulkarni betonen zudem: „Ein hybrider Ansatz ist entscheidend, um Kapazität, Geschwindigkeit und Flexibilität in Einklang zu bringen.“

Aufstrebende Technologien zur Optimierung von Speicherinvestitionen

Dennoch gibt es neue Technologien, und zwar solche, die versprechen, Investitionen in bestehende Speichertechnik zu maximieren. Das ist angesichts des Bedarfs eines Tiering-Ansatzes für moderne Workloads von Bedeutung.

Kunze bringt ein Beispiel: „Aufstrebende Technik wie keramischer Speicher können teure, leistungsstarke Speicher wie Festplatten, die heutzutage zur Speicherung von Kalt-Daten verwendet werden, freisetzen und so für eine effizientere Nutzung sorgen.“

Auch am Caching sowie am Zugriff auf Daten, die auf traditionellen Speichermedien (Flash, Festplatten) gespeichert sind, wird gedreht. „Fortschrittliche Caching-Strategien, die auf schnelleren Speichertypen wie HBM oder DRAM basieren, können den Zugriff auf heiße Daten erheblich beschleunigen und die Leistung bestehender Speichersysteme insgesamt verbessern“, erläutert Baker. Die Nutzung von persistentem Speicher zur Beschleunigung von Metadaten oder zur Implementierung von Caching-Schichten werde die Effizienz des Speichers weiter steigern, ohne dass dabei die Architektur grundlegend umgestaltet werden müsste, stellt er in Aussicht.

Software bleibt der Game-Changer

Obwohl Hardware oft im Mittelpunkt steht, ist Software für die Bereitstellung und Verwaltung von Daten-Klassenfizierungen unerlässlich. Wichtig ist dabei, dass Software den Betrieb vereinfacht und mit den vorhandenen Gegebenheiten arbeitet, anstatt Systeme grundlegend zu verändern.

Dies ist eine auf der Hand liegende und doch wertvolle Einsicht, die mit Blick auf Intel Optane gewonnen werden konnte, wie Lynn erläutert: „Ein wesentlicher Stolperstein für Optane war die langsame Anpassung des Software-Ökosystems. Während Optane DIMMs den Speicher theoretisch transparent zum Betriebssystem erweiterten, gestaltete es sich in der Praxis komplex und zeitaufwändig.“ Es seien Datenbanken und Dateisysteme zu optimieren gewesen, um die einzigartigen Persistenz- und Leistungsmerkmale vollständig zu nutzen. Dies habe eine weitreichende und effektive Nutzung verhindert.

Software ist entscheidend für den Erfolg jeder Technologie – insbesondere in einer Zukunft, in der Ressourcen effizient über verschiedene Plattformen hinweg kombiniert werden müssen. So weisen Sainio und Kulkarni der Software folgende Aufgaben zu: „Software optimiert Workloads über CPUs, GPUs, TPUs und CRAM, indem sie Ressourcen verwaltet, Aufgaben plant und insgesamt die Speichernutzung verbessert.“ Tools wie „Kubernetes“ und „Tensorflow“ sorgten für eine effiziente Hardware-Nutzung, während zukünftige Innovationen in der KI-gesteuerten Orchestrierung, einheitliche APIs und Echtzeit-Monitoring die Leistung und Energie-Effizienz über heterogene Plattformen hinweg weiter steigern könnten.

Hürden bei der Einführung

Obwohl die KI-Explosion die Einführung aufstrebender Speichertechnologien nahezu unausweichlich erscheinen lässt, bestehen weiter noch viele Risiken, insbesondere im Hinblick auf Investitionen in bestehende Speichertechnologien. Eine allgemein ablehnende Haltung gegenüber neuen Technologien ist laut Norfolk zugleich die größte Hürde für deren Einführung: „Das Ausmaß der Legacy-Technologie, die nach wie vor in vielen Anwendungen zum Einsatz kommt und immer noch ‚gut genug‘ funktioniert, sowie das allgemeine Misstrauen gegenüber aufstrebenden Technologien stellen Herausforderungen dar - es sei denn, es gibt keine technische Alternative.“

Vor dem Hintergrund vielschichtiger Warnungen verschärfen die Anforderungen anspruchsvoller Computing-Workflows stetig das Memory-Wall-Problem und erhöhen damit den Bedarf nach neuartigen Lösungen. Aufstrebende Speichertechnologien sind heute notwendiger denn je, und ihre breitere Akzeptanz ist daher nur noch eine Frage der Zeit.

Zum Glück sind die Bausteine dieser Fortschritte bereits vorhanden, wie Sainio und Kulkarni ausführen: „Erfolge bei CXL-basiertem Speicher sowie Racetrack-Speicher könnten die Branche revolutionieren. CXL wird eine skalierbare, latenzarme Integration von persistentem Speicher ermöglichen, während Racetrack-Speicher ultrahohe Dichte, optimierte Geschwindigkeiten sowie Energie-Effizienz bietet.”

Nur was sich ändert, bleibt

Die Zukunft der Datenspeicherung wird vermutlich auf mehreren Technologien basieren, wobei Tiering zum Einsatz kommen wird, um jeweils unterschiedliche Anforderungen zu verschiedenen Zeitpunkten innerhalb eines Systems zu erfüllen. Das bedeutet nicht nur den Einsatz aufstrebender, neuer Speichertechnologien, sondern auch die kontinuierliche Weiterentwicklung der Grenzen dessen, was die heutige Technologie bereits zu bieten hat.

„Wir gehen davon aus, dass es künftig vermehrt Varianten mit Blick auf persistenten und flüchtigen Speicher geben wird. Diese werden vor allem auf Double Data Rate (DDR) -Zellen basieren, aber auch NAND-Zellen könnten eine Rolle spielen“, so Baker.

Der DDR-basierte Speicher werde darauf abzielen, eine geringere Leistung und einen niedrigeren Energieverbrauch im Vergleich zu DRAM zu bieten, während er gleichzeitig kostengünstiger als Standard-DRAM sein werde, positioniert irgendwo zwischen DRAM und NAND in der Compute-Hierarchie. Die Innovationen bei NAND-Speicher würden darauf abzielen, die Bandbreite innerhalb der gesamten Computing-Hierarchie zu erhöhen, um den Anforderungen von KI und In-Memory-Datenbanken gerecht zu werden.

*Die Autorin
Federica Monsone ist CEO von A3 Communications. Sie sagt: Veränderung ist unvermeidlich und erforderlich. Die Zukunft der Datenspeicherung wird von innovativen Technologien geprägt sein, die den Anforderungen der kommenden Ära in einer datengetriebenen Welt gerecht werden können.

Bildquelle: A3 Communications

Artikelfiles und Artikellinks

(ID:50519750)