Mit offenen Technologien zur souveränen KI? Mit dem Herz eines Mustangs und dem Tempo eines Tornados reitet ein texanischer Hardware-Cowboy dem Rest der Branche voraus — zwischen Kakteen und Klapperschlangen.
Michael Dell auf der Bühne der disjährigen „Dell Technologies World“ - im Ausstellungsraum präsentierte das Unternehmen den Open Source Stack direkt neben „Vx-Rail“, der hyperkonvergenten Appliance, die auf VMware-Technik basiert.
(Bild: uo/Vogel IT-Medien GmbH)
Dells quelloffener Stack bringt einen frischen Architekturansatz für die Infrastrukturen vor Ort, gemeint ist im eigenen oder wahlweise im Co-Location-Rechenzentrum, ins Spiel. Er hat nicht einmal einen einprägsamen Namen. Aber es ist dennoch ein echter Gamechanger.
Mit dem Open Source Stack von Dell entsteht ein dynamisches, topografisches Netzwerk aus Agenten, Policies und Echtzeitdaten, welches alles von der Edge bis hin zum Kern-Datacenter abdeckt. Es ist offen, modular, integriert — und intelligent.
Die diesjährige „Dell Technologies World“ hatte viel Neues für Dell-Kunden im Köcher, noch vergleichsweise jung ist der Umgang mit Direct-Chip-Cooling, mit AI-Appliances und der offensive Umgang mit Open-Source. Zwar unterstützen alle Hardware-Hersteller Quelloffenes, doch der Ausbau zu einem integrierten Stack hat eine neue Qualität.
(Bild: uo/Vogel IT-Medien GmbH)
Mit dieser für Dell durchaus gewagten Strategie will sich das Unternehmen von proprietären Hyperscaler-Angeboten absetzen. Ganz nebenbei definiert der Konzern seine hyperkonvergente Appliance, wohl als Gegenstück zu „VX-Rail“ neu.
Fest im Sattel
Projekte wie „Nautilus“, „Omnia“ und „Metal³“, ein Community-getriebenes Open-Source-Projekt, – das klingt fast wie eine neue Science-Fiction-Reihe von Isaac Asimov. Tatsächlich aber verbirgt sich hinter diesen Bezeichnungen nicht etwa eine Weltraumodyssee oder eine Mathevorlesung, sondern ein Softwareportfolio von Dell Technologies. Die Aufgabe: Automatisierung physischer Infrastrukturen im nahtlosen Zusammenspiel mit Kubernetes.
Dell Technologies zeigt ausdrücklich: Was in der Cloud der Hyperscaler seinen Anfang nahm, lässt sich auch on-prem souverän umsetzen; sprich: ohne versteckte Abhängigkeiten oder Backdoors der Hyperscaler.
Mit Metal³ zu Bare-Metal auf Kubernetes
Bare-Metal-Deployments vor Ort orchestrieren? Bisher war es überhaupt nicht einfach. Die Prozedur war ein Hürdenlauf manueller Konfigurationsschritte, extrem aufwändig und fehleranfällig. Hier setzt Dells Metal³ an, ausgesprochen: "Metal Cubed", also Bare-Metal auf Kubernetes („cube/rnetes“) orchestriert.
Rückansicht Dell-Servers „Poweredge R770“: Auf der Maschine können Software-Agenten wie Node-Agents oder Operators installiert sein, die Telemetriedaten wie Temperatur, Auslastung und Energieverbrauch sammeln, Anomalien erkennen und Optimierungen vorschlagen oder automatisiert umsetzen.
(Bild: Dell Technologies)
Das Projekt erweitert den beliebten quelloffenen Orchestrierer um die Fähigkeit, physische Maschinen ohne einen Hypervisor wie Cloud-Instanzen zu behandeln. Mit Metal³ lassen sich Bare-Metal-Server – also physische Maschinen ohne Hypervisor – über deklarative APIs provisionieren, verwalten und in Clustern organisieren.
DevOps-Teams können damit eine Infrastruktur aufsetzen, wie sie es aus der Public Cloud kennen. Die Grundlage dafür bildet das Kubernetes-native Framework Bare Metal Operator.
„Omni(a)-präsent“
Omnia hingegen verwandelt handelsübliche Hardware in produktive KI- oder HPC-Umgebungen. Die Mission: Einfache, automatisierte Bereitstellung komplexer Cluster für KI, HPC und Data Analytics auf Hardware von der Stange.
Omnia stammt aus der Dell HPC & AI Innovation Group und basiert auf „Ansible“. Ob „Kubernetes“, „Slurm“, „Lustre“ oder Nvidia-GPU-Treiber – Omnia orchestriert die Installation und Konfiguration, inklusive Netzwerk-Topologie, Storage-Einbindung und Container-Laufzeitumgebungen.
Mit Nautilus in Daten-Seen tauchen
Die Datenbasis für Omnia liefert „Projekt Nautilus“, ein Angebot für Storage-getriebene Edge-Architekturen von Dell. Benannt nach Jules Vernes Unterseeboot impliziert es Autarkie in einem feindlichen Umfeld ungebändigter Datenströme, desorganisierter Data Lakes & Co. Nautilus schafft Möglichkeiten der Datenverarbeitung, die tief im Edge verankert sind.
Das Architekturdiagramm von „Projekt Nautilus“ zeigt zentrales Daten-Streaming- und Analysekomponenten im Dell Open Source Stack.
(Bild: Dell Technologies)
Der Name ist gut gewählt: Projekt Nautilus spielt auf Autonomie, Tiefgang und strukturelle Eleganz an. Das sind alles Qualitäten, die man auch einer durchdachten Edge- und Monitoring-Plattform zuschreibt. Es verspricht, die Unternehmen von althergebrachten Storage-Konzepten zu befreien.
Datenströme sei es aus Sensoren, Edge-Geräten oder Telemetriequellen sind hier eine eigenständige, gleichberechtigte Datenform auf derselben Ebene wie klassische Dateien oder Objekte. Anstatt sie künstlich in Dateien oder Blöcke zu zerteilen, kann sie Nautilus direkt verarbeiten. „Selbstgestrickte Stream-Lösungen sind einfach zu komplex,“ macht Ted Schachter, Senior Advisor, Product Management und einer der zentralen Vordenker hinter dem Projekt, klar.
Die Werkbank für eine hybride Zukunft
Ursprünglich als internes Edge-Analytics-Framework konzipiert, entwickelte sich Nautilus schnell zur Plattform für Telemetrie, Monitoring und Datenpersistenz in verteilten Systemen. Mit an Bord: „Prometheus“, „Grafana“, „Elasticsearch“, „Fluentd“ und mehr. Es verbindet Edge-Knoten mit Rechenzentren und lässt sich in „Openshift“, „Rancher“ oder native Kubernetes-Distributionen einbinden.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Gemeinsam formen Nautilus, Omnia und Metal³ so etwas wie die Open-Source-Werkbank für die hybride Infrastruktur der Zukunft: automatisiert, Cloud-nativ, aber auf realer Hardware vor Ort verwurzelt. Wer also in der Souveränität seiner Infrastrukturen nicht auf Hyperscaler bauen möchte, findet hier ein Arsenal an Tools der Enterprise-Klasse, das „funzt“ und dennoch offen bleibt.
Container-native Infrastruktur mit Kubernetes
Kubernetes ist längst der De-facto-Standard für containerisierte Workloads. Doch gerade on-prem ist die nahtlose Integration von Storage- und Netzwerkdiensten oft eine Herausforderung. Dell adressiert dies mit einem durchgängig quelloffenen Ansatz: zertifizierte Kubernetes-Distributionen, offene APIs und quelloffene Module, speziell für Enterprise-Anforderungen entwickelt.
Kernstück sind die Container Storage Modules (CSM). Sie erweitern das standardisierte Container Storage Interface (CSI) um Funktionen wie Volume-Replikation, Anwendungsautorisation, Observability und Failover, mit zertifizierter Integration für Suse Rancher, Red Hat Openshift und „VMware Tanzu“.
Unterstützt werden „Powerstore“, „Powermax“, „Powerscale“ und „Powerflex“ – allesamt Enterprise-Storage-Systeme aus dem Dell-Portfolio. So können Kubernetes-Pods persistenten Speicher nutzen, ohne dass Administratoren in proprietäre Details einsteigen müssen.
DPU-Unterstützung mit SmartNIC-Frameworks
Dell bringt mit seinen DPU-fähigen Servern Hardware-Beschleunigung in den Netzwerk- und Sicherheitsbereich. Im Fokus steht Infrastruktur-Offloading für rechenintensive Netzwerk- und Storage-Aufgaben.
Der Dell -Stack unterstützt offene Projekte der Linux Foundation wie „Sonic“ (Software for Open Networking in the Cloud), „DPDK“ (Data Plane Development Kit), „OVS“ (Open vSwitch) und „P4“ (Programmierbare Paketverarbeitung). Diese laufen auf SmartNICs von Broadcom, Nvidia und Intel.
So lassen sich beim Einsatz des Stacks Netzwerkfunktionen, Security-Tasks und Telemetrie zur Latenzminimierung und zwecks Entlastung der Haupt-CPU direkt auf die DPU verlagern. Das läuft nicht viel anders, als es die Hyperscaler auch machen.
Die Kombination kreiert Konsistenz
Für das Netzwerk setzt Dell auf ein offenes Zusammenspiel aus CNI-Plugins, ergänzt um Telemetrie via Prometheus und „OpenTelemetry“. Monitoring erfolgt mit Grafana, Log-Aggregation mit „Fluent Bit“ und Fluentd. So entsteht ein konsistenter Stack vom Container bis zur Infrastruktur.
Die CSM-Module sind quelloffen, Interoperabilität mit Upstream-Kubernetes, Rancher und Openshift ist belegt. Gitops- und Observability-Tools wie „Flux“, „ArgoCD“ und Open Telemetry sind integriert. Verwaltung erfolgt modular per Gitops, Richtlinien via Open Policy Agent (OPA).
Innenansicht eines Servers „Dell Poweredge R770“: Im Dell-Stack läuft Kubernetes nicht nur als Orchestrierer für Container mit den Arbeitslasten, sondern auch als „Control Plane“ für Hardware-nahe Services.
(Bild: Dell Technologies)
OPA ist ein Open-Source-Framework zur durchsetzbaren Richtlinienkontrolle (Policy Enforcement) in Cloud-nativen Umgebungen. Administratoren definieren Regeln in deklarativer Form (Rego) und setzen sie automatisiert durch – in Kubernetes via „Gatekeeper“, in CI/CD-Pipelines, API-Gateways oder Service-Meshes wie „Istio“.
Projekt Alamo – Gitops & Lifecycle Management
„Projekt Alamo“ bringt den Gitops-Ansatz ins Infrastruktur-Management: Es geht darum, Änderungen wie Code zu behandeln: nachvollziehbar, versionierbar, automatisiert. Zum Einsatz kommen ArgoCD für CI/CD, Flux für Continuous Delivery, „Tekton“ als CI-Engine und OPA für Governance-as-Code.
Das Ergebnis sind unabhängig von der Kubernetes-Distribution der Wahl konsistente Deployments, zentrale Richtliniensteuerung und automatisierte Compliance.
„Dezentrale Souveränität“
In klassischen Infrastrukturen, insbesondere bei vielen OEMs, spielen zentrale Management-Controller eine Schlüsselrolle. Bei „Cisco Intersight“ beispielsweise erfolgt ein Großteil der Konfiguration, des Monitorings, des Lifecycle-Managements und der Policy-Anwendung über eine Cloud-basierte Zentrale, die alle Verwaltungsaufgaben bündelt.
Das hat Vorteile für Konformität, bringt aber Vendor-Lock-in mit sich: Nur wer die Plattform des Anbieters vollständig akzeptiert, erhält Zugriff auf den vollen Funktionsumfang. Bei Cisco „mieten“ Kunden die Intelligenz – sie bleibt jedoch bei dem Anbieter.
Dell geht mit seinem Open-Source-Ansatz bewusst einen anderen Weg. Der Hardware-Lieferant verzichtet in diesem Stack auf eine zentrale, proprietäre Management-Ebene, die zwingend für alles gebraucht wird, [Nach Meinung der Autoren: ein erfrischender Kontrast zu Intersight, „Lenovo Xclarity“ oder auch „Netapp Blue XP“].
Der Server „R770“ wird im Dell Open Source Stack durch verteilte Agentenlogik und KI-gestützte Policy-Engines zum aktiven Teilnehmer einer autonomen Infrastruktur.
(Bild: Dell Technologies)
Die Komponenten sind bei Dell modular und lose gekoppelt. Die Verwaltung erfolgt Kubernetes-nativ, etwa über Gitops (ArgoCD, Flux), CRDs (Custom Resource Definitions) und API-gesteuerte Operatoren.
Die Beobachtbarkeit, Observability, des Stacks stützt sich nicht auf proprietäre Dashboards, sondern auf offene Standards wie Open Telemetry, „Open Metrics“, „Open Tracing“ und etablierte Open-Source-Werkzeuge, darunter Prometheus, Fluentd, Fluent Bit und Grafana — ganz trocken wie ein texanischer Witz.
*Über das Autorenduo
Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.
Ihr Fazit lautet: Dell bindet die Kunden auf eine freiwillige Basis. Das Unternehmen entwickelt Kubernetes weiter. Kubernetes ist hier nicht bloße Orchestrierungsschicht, sondern als ein betriebliches Nervenzentrum für hybride und souveräne Infrastrukturprojekte: automatisiert und Cloud-nativ, aber in realer Hardware verankert.
Dell überlässt die Steuerung nicht einer Cloud-Zentrale, sondern gibt die Kontrolle zurück in die Hände des Betreibers. Das ist in dieser Tiefe überraschend offen.
Wer die Souveränität seiner Infrastrukturen nicht auf Hyperscaler-Gnaden bauen möchte, findet in dem Stack von Dell ein Arsenal an offenen Tools der Enterprise-Klasse.