Der Aufbau, der Betrieb und das Optimieren von KI-Infrastrukturen Mirantis stellt AI-Referenzarchitektur vor

Von Berk Kutsal 1 min Lesedauer

Anbieter zum Thema

Mit einer neuen Architektur für KI-Workloads will Cloud-native-Veteran Mirantis Unternehmen beim Aufbau souveräner, skalierbarer Plattformen unterstützen. Die Lösung adressiert Herausforderungen wie GPU-Slicing, RDMA und Multi-Tenancy.

KI-Infrastrukturen aufbauen und betreiben: Mirantis stellt erste Referenzarchitektur für die Unterstützung von KI-Workloads vor.(Bild:  Mirantis)
KI-Infrastrukturen aufbauen und betreiben: Mirantis stellt erste Referenzarchitektur für die Unterstützung von KI-Workloads vor.
(Bild: Mirantis)

Mirantis hat die nach eigenen Angaben erste umfassende Referenzarchitektur zur Unterstützung von KI-Workloads entwickelt. Die Architektur richtet sich an Unternehmen und Dienstleister, die skalierbare, sichere und souveräne Plattformen für KI- und ML-Anwendungen betreiben wollen – unabhängig von der zugrundeliegenden Umgebung.

Das Modell basiert auf der hauseigenen Plattform „K0rdent AI“ und soll nach Herstellerangaben eine schnelle Inbetriebnahme innerhalb weniger Tage ermöglichen. Die Referenzarchitektur ist deklarativ aufgebaut und erlaubt es, so der Anbieter, standardisierte Vorlagen für Compute-, Speicher-, Netzwerk- und GPU-Ressourcen modular zusammenzustellen.

Hochkomplexe Anforderungen

KI-Workloads unterscheiden sich strukturell deutlich von klassischen Cloud-nativen Anwendungen. Statt horizontal skalierender Services geht es oft um massive, GPU-zentrierte Cluster mit Bedarf an RDMA, Infiniband oder NVLink – also Infrastrukturen, die in Richtung HPC tendieren.

Mirantis möchte mit der Architektur Themen adressieren wie:

  • GPU-Allokation und -Slicing
  • Remote Direct-Memory Access (RDMA)
  • Scheduling großer ML-Trainings
  • Multi-Tenancy mit Datenschutz und Isolierung
  • Datenhoheit und Compliance
  • Ressourcenteilung bei teurer Hardware
  • Orchestrierung in Hybrid- und Edge-Szenarien

Gleichzeitig sollen weniger Infrastruktur-affine Nutzer – etwa Data Scientists – über einfache Oberflächen eingebunden werden können.

Arbeiten mit Vorlagen

Ein zentrales Element ist nach Mirantis-Angaben die Wiederverwendbarkeit: Die Infrastruktur könne aus Templates für einzelne Schichten wie Rechenleistung, Netzwerk oder Speicher zusammengesetzt werden. Unterstützt würden dabei unterschiedliche Plattformen und Beschleuniger – von Nvidia über AMD bis Intel. K0rdent AI bringe zudem einen eigenen Katalog kuratierter Integrationen mit, darunter Tools für Observability, Security oder CI/CD.

Die Architektur ist auf Training, Finetuning und Inferenz ausgelegt und unterstützt sowohl klassische Serverfarmen als auch virtualisierte Umgebungen, zum Beispiel „Kubevirt“ und „OpenStack“, Public Cloud, Hybridumgebungen und Edge.

(ID:50465878)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung