Schwärme orbitaler Edge-Systeme statt Großrechenzentren AMD: „Der Weltraum ist die ultimative Edge-Umgebung“

Von Daniel Schrader 3 min Lesedauer

Anbieter zum Thema

AMD will im Rennen um KI-Berechnungen im Weltall mit Edge-Kompetenz punkten. Denn im Orbit seien Effizienz, Autonomie und Zuverlässigkeit umso entscheidender. AMD besitze dafür mit einem heterogenen Stack an CPUs, GPUs und frei programmierbaren adaptiven Chips die richtigen Bausteine.

Im Rennen um KI im Weltall will sich AMD mit Edge-Kompetenz profilieren.(Bild:  AMD)
Im Rennen um KI im Weltall will sich AMD mit Edge-Kompetenz profilieren.
(Bild: AMD)

AMD positioniert sich als Anwärter im Rennen um „KI im Weltall“. Der Weg zu orbitalen Rechenzentren führe allerdings nicht über gigantische KI-Fabriken, sondern über heterogene Edge-Ansätze, so Mark Papermaster, Chief Technology Officer und Executive VP bei AMD, in einem Blogbeitrag, der zugleich ein strategisches Positionspapier darstellt.

Auch Papermaster, der seine Karriere im Space-Shuttle-Programm von IBM begann, teilt eine Vision von „riesige[n] Rechenzentr[en] im Weltall“. Diese hätten aber wenig mit Großrechenzentren auf der Erde gemein. Angesichts stark begrenzter Bandbreiten und hoher Latenzen bei der Datenübertragung zur Erde sei eine lokale Datenverarbeitung an Bord unerlässlich.

AMD hofft hier, auf seiner vorhandenen Edge-Kompetenz aufbauen zu können. Mit KI-Hardware für Endnutzer-PCs, industrielle Systeme und die Automobilbranche habe der Hardwarehersteller sich erfolgreich in einer „Edge-Realität“ zurechtgefunden, gekennzeichnet durch „strenge Energie- und Wärmebudgets, unregelmäßige Kommunikationsverbindungen, eine erwartete lange Lebensdauer sowie einen hohen Stellenwert von Zuverlässigkeit und Autonomie“.

Weltraumtechnik brauche autonome KI

„Der Weltraum ist die ultimative Edge-Umgebung“, so Papermaster. Schmale und zeitlich begrenzte Verbindungen zur Erde mit hohen Latenzen seien ein zentrales Argument dafür, auch KI-Workloads direkt an Bord von Satelliten und Raumfahrzeugen zu verlagern. Gleichzeitig mache die fehlende Luft zur Abführung von Abwärme Leistung per Watt zu einer entscheidenden Metrik.

Mit einer effizienten Onboard-KI ließen sich dann Weltraumsysteme von passiven Empfängern von Sensordaten und Steuerungsbefehlen in autonome Systeme verwandeln. Diese würden künftig etwa unbrauchbare Sensordaten wie durch Wolken verdeckte Erdbilder selbstständig verwerfen oder dringliche Ereignisse wie Waldbrände und Telemetrie-Anomalien eigenständig erkennen können.

Der Fokus auf eine fortgeschrittene Edge-Kompetenz bedeutet im Umkehrschluss, dass AMD sich bereits im Besitz der „Baublöcke für den nächsten Schritt“ sieht. AMD könne hier auf einen heterogenen und daher an verschiedene Edge-Anforderungen anpassbaren Hardware-Stack von CPUs, GPUs und „adaptive compute“ zählen. Die Botschaft ist eine Herausforderung sowohl an den Marktführer Nvidia, der den Ansatz hochdichter, zentralisierter GPU-Fabriken versinnbildlicht, als auch an spezialisierte Anbieter strahlungsresistenter und konfigurierbarer Weltraumhardware.

Faktor FPGAs: strahlungsresistent und umprogrammierbar

Mit „adaptive compute“ bezieht sich Papermaster auf Field-Programmable Gate Arrays (FPGAs): Chips, deren Hardware-Logik nach der Herstellung frei konfiguriert werden kann. Dies soll dynamische Missionsanpassungen auch nach dem Start möglich machen. 2022 kaufte AMD Xilinx, einen Schlüsselhersteller von FPGAs in einem kompakten System-on-Chip-Format (SoC), bei dem der Großteil der Rechnerkomponenten auf einem Siliziumchip integriert wird.

Xilinx produzierte seine Hardware unter anderem auch für Luft- und Raumfahrt und entwickelte strahlungsresistente Chips für Weltraumfahrzeuge im Auftrag der United States Air Force. AMD arbeitet aktuell an einer Zertifizierung seiner aus der Übernahme hervorgegangenen „Versal“-Chips mit einem Hauptfokus auf KI-Inferenz für den Weltraumeinsatz. Die Versal-Chips werden aktuell in Prototypen von Steuerungsmodulen für Landungssysteme des Raumfahrtunternehmens Blue Origin eingesetzt, die ab 2028 Astronauten auf den Mond bringen sollen.

Ein Schwarm von Rechenmodulen statt Großstationen

Zudem positioniert AMD seinen Software-Stack „Rocm“ als Grundlage eines „offenen Ökosystems“ für Entwickler, aber auch andere Hardware-Hersteller. Dieser führe, im impliziten Kontrast zu „Nvidia CUDA“, nicht zu einem Vendor-Lock-in. Gleiches gelte für offene Standards für Sicherheit, Interconnect und Infrastruktur für KI-Systeme im Weltall, an denen AMD mitwirke. Dabei bleibt offen, wann AMD Rocm auch für die Arbeit mit FPGAs bereit machen will.

Erst mit einem hochgradig modularen Ansatz ließen sich in den Augen von AMD und Papermaster skalierbare Rechenzentren im Weltall realisieren. Deren Bausteine sollen austauschbare Einzelmodule mit eigener Energiezufuhr und Abwärmeabfuhr bilden, verbunden über schnelle optische Links. Mit einer solchen Architektur seien auch Multi-Megawatt-Komplexe im Weltall möglich.

(ID:50831464)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung