Götterdämmerung der klassischen IT Die Zukunft der IT – Auf die Plätze fertig, los? Nein, noch nicht fertig!

Von Anna Kobylinska und Filipe Martins* 7 min Lesedauer

Anbieter zum Thema

Die digitaltransformierte, technikintensive Wirtschaft braucht Infrastrukturen, die es noch gar nicht gibt! Herkömmliche IT-Systeme haben ausgedient; ihre Ära neigt sich dem Ende zu. Und was danach kommt, ist schon absehbar.

Die Wirtschaft braucht neue Infrastrukturen und die herkömlichen IT-Systeme haben kaum noch einen Nutzen. Für die klassiche IT bannt sich eine aufregende Zukunft an.(Bild:  Dilok - stock.adobe.com)
Die Wirtschaft braucht neue Infrastrukturen und die herkömlichen IT-Systeme haben kaum noch einen Nutzen. Für die klassiche IT bannt sich eine aufregende Zukunft an.
(Bild: Dilok - stock.adobe.com)

96 Prozent der Führungskräfte in einer Accenture-Umfrage sehen „eine bedeutende Chance für ihre Organisationen“ im Aufkommen von Ökosystemen autarker KI-Agenten, die in den kommenden drei Jahren erwartet werden. Nahezu genauso viele Verantwortliche (95 Prozent der Befragten) vertreten aber auch die Meinung, dass die KI-Revolution eine Modernisierung der technologischen Architektur in ihrem Unternehmen erzwingen werde.

„Erzwingen“ ist gar nicht so übertrieben, aber sei‘s drum. Eine noch umfassendere Modernisierung des technologischen Unterbaus steht demnächst nämlich der gesamten ITK-Branche bevor. Die Gründe dafür liegen auf der Hand: Der explodierende Bedarf an mehr Technik trifft auf eine Datenflut, die sich mit herkömmlicher Hardware bald nicht mehr wird, bewältigen lassen. Experten warnen im Zusammenhang damit vor einem drohenden Zusammenbruch der Versorgung. Die bereits absehbaren Herausforderungen dürften sich Experten zufolge nur durch einen außergewöhnlichen Innovationsschub bewältigen lassen.

Wie Sand am Meer

Seltene Erden sind nicht das Problem, zumindest nicht ausschließlich. Der zweithäufigste Bestandteil der Erdkruste, Silizium, könnte laut Micron bis zum Jahre 2040 komplett aufgebraucht sein. Sand (Quarzsand, also Siliziumdioxid) gibt es doch überall, oder? Durchaus, aber nur rund 10 Prozent des Siliziums gilt als halbleitertauglich.

Der ungesättigte Appetit nach diesem Mineral könnte dann in die Leere greifen. Schuld dar an seien laut Micron die vielen Daten, die es künftig zu erfassen, auszuwerten und zu „hamstern“ gebe. Und das ist eben nur Silizium, ein Werkstoff der Elektrotechnik, dessen allgegenwärtige Verfügbarkeit bisher als selbstverständlich galt. Die IT-Industrie muss ihre Horizonte erweitern. Schneller rechnen, mehr übertragen, (noch) besser wirtschaften.

Hello Hala!

Die Berechnungskosten der heutigen KI-Modelle steigen in einem nicht halt baren Tempo an. Diese Meinung vertritt unter anderem Mike Davies, Leiter des Labors für Neuromorphes Computing bei Intel Labs. „Die Branche braucht frische neue Ansätze, welche [dieses Maß an] Skalierbarkeit unterstützen“, bestätigt er. Unter seiner Leitung hat Intel das neuromorphe Forschungssystem Hala Point entwickelt, das bisher leistungsstärkste seiner Art.

Das Hala-Point-System enthält 1.152 Loihi-2-Prozessoren und einige klassische CPUs. Diese Recheneinheiten sind in einem sechs Rack-Einheiten großen „Datacenter-kompatiblen“ Gehäuse untergebracht, das etwa so groß ist wie eine Mikrowelle. Insgesamt unterstützt das System 1,15 Milliarden Neuronen und 128 Milliarden Synapsen, die auf 140.544 neuromorphen Verarbeitungskernen verteilt sind.

Mit seinen 15 TOPS/W (aus dem Englischen für Trillion Operations Per Second per Watt) schlägt das System Rekorde der Leistungsfähigkeit und Energie-Effizienz. Die maximale Leistungsaufnahme der ganzen Kiste beträgt 2.600 Watt.

Den neuromorphen Forschungschip Loihi, hier in der zweiten Generation,  fertigt Intel auf dem Intel-4-Prozessknoten. (Bild:  Wandel Kirsch/Intel)
Den neuromorphen Forschungschip Loihi, hier in der zweiten Generation, fertigt Intel auf dem Intel-4-Prozessknoten.
(Bild: Wandel Kirsch/Intel)

Die einzigartigen Fähigkeiten von Hala Point könnten wissenschaftlichen und ingenieurtechnischen KI-Anwendungen und KI-Agenten wie auch großen Sprachmodellen (LLMs) in der Zukunft kontinuierliches Echtzeitlernen ermöglichen.

Für die „Gehirnakrobatik“ neuromorpher Chips der Zukunft muss die heutige Materialforschung noch einige relevante Hürden nehmen. Forscher suchen schon länger nach alternativen Materialien für die Datenverarbeitung und -speicherung, stellenweise mit großem Erfolg. Eine solche vielversprechende Technologie für Datenarchivierung sind DNA- und dNAM-Speicher (kurz für Digital Nucleic Acid Memory).

„Genetische Veranlagung“ zu DNA Speicher und DNA-Computing

DNA macht seit geraumer Zeit als ein vielversprechender Alternativspeicher zu siliziumbasierten Chips die Runden. Ein Gramm DNA könnte theoretisch bis zu 215 Millionen Gigabyte an Informationen erfassen. Das entspricht einer möglichen Datenspeicherkapazität von bis zu einem Exabyte (oder 1 Milliarde Gigabyte) pro Kubikmillimeter. Um alle jemals gedrehten Filme in DNA zu archivieren, würde ein DNA-Speicher mit knapp dem Volumen eines Zuckerwürfels ausreichen.

Ein Behälter mit DNA, der etwa so groß ist wie zwei Kleintransporter, hätte genug Kapazität für alle Daten, die jemals auf der Welt erstellt wurden. Ein verwandtes Forschungsgebiet mit der Bezeichnung DNA-Computing will die Informationsverarbeitung mit synthetischen DNA-Molekülen meistern. Auch dieses aufstrebende Forschungsgebiet hat kürzlich einige beachtliche Fortschritte erzielt.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Weitere Einblicke in die Zukunft der IT erhalten Sie im eBook „Future-IT“ auf Datacenter-Insider:

Future-IT

Future-IT

Herkömmliche IT-Systeme haben ausgedient. Sie werden den Anforderungen der KI-getriebenen Wirtschaft nicht mehr gerecht. Die IT-Industrie muss ihren Horizont erweitern und Platz für neue, bahnbrechende Technologien schaffen.


Die Highlights des eBook:

  • Mit Köpfchen bei der Sache: In-Chip-Gehirnakrobatik

  • Licht im Tunnel: Rechnen mit Quanten

  • NAM und DNA: Rechnen und Archivieren mit Gentechnik

>>> eBook „Future-IT “ zum Download

Im Speicher rechnen mit Computational Storage

In der Praxis der Informationstechnik gehen die Datenspeicherung und -verarbeitung immer Hand in Hand. Konventionelle Systemarchitekturen führen diese naheliegenden Aufgaben getrennt voneinander aus. Den Speicher- und Compute-Ressourcen liegen unterschiedliche Hardwareimplementierungen vor. Daraus ergibt sich die Notwendigkeit, Daten zwischen diesen Ressourcenklassen zu übertragen – oft mit erheblicher Latenz. Das Resultat sind Leistungsengpässe und ein hoher Energieverbrauch. Abhilfe soll Computational Storage schaffen.

Die Idee besteht darin, die Ineffizienzen der „Datenlogistik“ konventioneller Systemarchitekturen auszumerzen. Der exponentielle Anstieg des Datenvolumens, insbesondere durch das Auf kommen intelligenter IoT-Geräte, treibt die Nachfrage nach Lösungen an, die möglichst ohne jeglichen Transport der Rohdaten auskommen. Computational Storage spendiert Rechenleistung gleich der Speicherhardware.

Die Storage Networking Industry Association (SNIA) hat kürzlich eine Architektur für Computational Storage verabschiedet. Sie definiert die Komponenten solcher Geräte und empfohlenes Verhalten für Hardware und Software, die Computational Storage unterstützen.

Der Hoffnungsträger der Zukunft sind Memristoren – Bauelemente, die sowohl speichern als auch rechnen – und verwandte Innovationen. Die Spannung, die über einen Memristor angelegt wird, verändert sein Verhalten. Diese nicht flüchtigen Speicherelemente behalten ihre Widerstandswerte, auch wenn ihnen keine Energie zugeführt wird. Dadurch eignen sie sich hervorragend für Anwendungen, die eine hohe Speicher dichte in Verbindung mit extremer Energieeffizienz erforderlich machen.

Die Forschung in diesem Bereich konzentriert sich auf Materialauswahl, Leistungsmerkmale, Array-Strukturen und die Integration von Memristoren in In-Memory-Computing-Architekturen. Ultradünne 2D-Materialien gelten als eine vielversprechende Plattform für die Entwicklung von Memristor- und Memtransistor-Arrays. Die einzigartigen Eigenschaften dieser Werkstoffe wie Schichtstrukturen, mechanische Flexibilität und die Fähigkeit zur Bildung von Heteroübergängen (Übergängen zwischen zwei aneinandergrenzenden Halbleiterkristallen mit unterschiedlichen Bandlückenenergien) versprechen eine außergewöhnliche Leistung der resultierenden Schaltkreise.

Die deutsche Forschung in diesem Bereich treiben unter anderem Fraunhofer ENAS und die Forschungsfabrik Mikroelektronik Deutschland (FMD), ein Zusammenschluss von 13 Instituten der Fraunhofer-Gesellschaft und der Leibniz-Gemeinschaft, voran. Diese Institute bündeln ihre Expertise mit dem Fokus auf die Erforschung und Entwicklung von Mikro- und Nanosystemen. Mit über 2.000 Wissenschaftlerinnen und Wissenschaftlern ist die FMD der weltweit größte FuE-Zusammenschluss dieser Art.

Die FMD hat unter anderem ein Memristor-basiertes Speichersystem für die Bildkompression entwickelt. Es macht sich ein Convolutional-Autoencoder basiertes (CAE) Netzwerk für In-Memory-Computing zunutze. Ein Autoencoder ist ein neuronales Netzwerk, dessen Aufgabe darin besteht, eine komprimierte Darstellung (Latent Space) von Eingabedaten zu lernen. Ein CAE verwendet Convolutional Neural Networks (CNNs) als Bausteine für den Encoder und den Decoder. Der Encoder komprimiert die Eingabedaten in einen niedrigdimensionalen Raum (Latent Space) und der Decoder rekonstruiert die Daten aus diesem Raum zurück in den ursprünglichen Raum. Das Ganze kommt dann etwa in der Bildverarbeitung und -rekonstruktion zum Einsatz.

Die Verwendung von Faltungsoperationen ermöglicht es dem CAE, räumliche Strukturen in den Eingabebildern zu er fassen. CAEs sind besonders gut geeignet für die Verarbeitung von Bildern, da sie lokale Muster und Merkmale effizient extrahieren können.

Im Bild: Joe Fitzsimons von Horizon Quantum Computing mit Rigetti Novera.(Bild:  Horizon Quantum Computing)
Im Bild: Joe Fitzsimons von Horizon Quantum Computing mit Rigetti Novera.
(Bild: Horizon Quantum Computing)

Die FMD erforscht auch die CIM-Architektur, die Speicher und Berechnung am selben physischen Ort integriert. Anstelle von CMOS Technologie kommen auch hier nichtflüchtige resistive Schalttechnologien wie Memristoren zum Tragen. Die Integration von Memristoren in In-Memory-Computing-Systeme eröffnet aufregende Möglichkeiten für eine höhere Energieeffizienz, Speicherdichte und mehr Leistung.

Quäntchen für Quäntchen zu mehr Qualität

Quantencomputing nähert sich der breiten Verfügbarkeit nicht ganz so schnell, wie es rechnen kann, aber immerhin. Der Schwerpunkt verschiebt sich zu nehmend zu neuen Herausforderungen wie der Gewährleistung der Qualität von Qubits, Quantensensorik und -kommunikation, Modularisierung von Quantenchips und Integration mit herkömmlichen Computern. Fehlerkorrektur und praktische Anwendungen rücken in den Vordergrund. Qualität geht über Quantität.

Das neue Photonik-Chip-Verfahren von Q.ANT soll die Symbiose aus Quantencomputern und herkömmlichen Großrechnern Realität werden lassen. Der erste Prototyp wird noch im Jahre 2024 erwartet.

IBM hat mit dem Quantum Heron einen Quantenprozessor vorgestellt, der mit einer bis zu fünffachen Effizienz der Fehlerreduktion im Vergleich zu früheren Ansätzen aufwarten kann. Seine 133 supraleitenden, festfrequenten Qubits (mit abstimmbaren Kopplern) qualifizieren Heron bereits als einen Quantenchip im „Utility-Maßstab“.

Ein Quantencomputer für die Massen: Rigetti zieht für  die Novera QPU nach Strich und Faden alle Marketing-Register.(Bild:  Rigetti/Siegel+Gale)
Ein Quantencomputer für die Massen: Rigetti zieht für die Novera QPU nach Strich und Faden alle Marketing-Register.
(Bild: Rigetti/Siegel+Gale)

Drei der Heron-Prozessoren mit unter stützender Steuerelektronik bilden das Herzstück von IBM Quantum System Two, dem ersten modularen Quantencomputer von IBM. Auf der Basis der Heron-Architektur will das Unternehmen einen Quantencomputer mit über 100.000 Qubits bauen. Zum Vergleich: Der supraleitende IBM Quantum Condor hat mit seinen 1.121 Qubits in Bienenwabenmuster mit Cross-Resonance-Gattertechnologie kürzlich einen Rekord der Qubit-Dichte aufgestellt; Condor ist hauptsächlich ein IBM-internes Hilfsmittel für die eigene Forschung.

Einer nach dem anderen verlassen immer mehr Quantenchips die Forschungslabore mit der erklärten Absicht, das Rechenzentrum zu erobern. Mit der Novera QPU hat Rigetti im Dezember 2023 seinen ersten kommerziellen Quantenprozessor für praktische Forschung und Entwicklung (9+5 Qubits in zwei Chips in Ankaa-Architektur der vierten Generation, konfigurierbar) als eine allgemein verfügbare Hardware auf den Markt gebracht. Rigettis Ankaa-2-System mit 84 Qubits ist nur als Dienst verfügbar. Das in Kalifornien ansässige Unternehmen plant die Vorstellung eines 1.000-Qubit-Systems Ende 2025 und eines 4.000-Qubit-Systems im Jahr 2027. Der Gründer des Unternehmens, Chad Rigetti, war seinerzeit bei IBM als Quantenphysiker tätig.

*Das Autoren-Duo

Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.

Ihr Fazit lautet: Die drohende Ressourcen- und Energieknappheit, die im Zusammenhang mit der fortschreitenden Digitalisierung einhergeht, fordert Nachhaltigkeit und Effizienz in einem Maße, der einen Verzicht auf althergebrachte Technik nahelegt. Traditionelle Computer-Chips und Speichertechnologien werden die Anforderungen der KI-getriebenen Wirtschaft der Zukunft bald nicht mehr erfüllen können. Dafür bedarf es der Zukunfts-IT.

Artikelfiles und Artikellinks

(ID:50110085)