„VAST AI OS“des Herstellers Vast Data wird Nvidia-Bibliotheken zur Beschleunigung von Compute wie auch von Datenservices für RAG, Vektorsuche, Realtime-SQL und Agentic-Anwendungen nutzen. Das Unternehmen hat nun einen End-to-End-KI-Daten-Stack vorgestellt, der vollständig CUDA-beschleunigt ist.
Die Hardware-Vorgaben „Cnode-X“von Vast Data erweitern die GPU-Beschleunigung über Training und Inferenz hinaus auf Vektorsuche, SQL-Analysen und die Orchestrierung containerisierter KI-Modelle. Speicher, Datenbank, Event Broker. Funktionen und KI-Modelle laufen alle nativ auf dem „Vast AI“-Betriebssystem und lassen die Idee einer denkenden Maschine näher rücken. Hardware-Partner sind etwa Supermicro und Cisco.
(Bild: Vast Data)
Die Compute Unified Device Architecture, abgekürzt CUDA, ist eine von Nvidia entwickelte Plattform und Programmierschnittstelle für paralleles Rechnen auf Grafikprozessoren (GPUs). Diese ermöglicht es, GPUs für allgemeine Rechenaufgaben zu nutzen, etwa für Simulationen, KI-Training, Datenanalyse oder wissenschaftliches Rechnen. Entwickler können Programme in Sprachen wie C, C++ oder Python schreiben und die massive Parallelität von Nvidia-GPUs direkt ausnutzen.
Die Erweiterung der Partnerschaft von Vast Data und Nvidia ist möglich oder auch notwendig, weil das VAST AI Operating System direkt auf Nvidia-basierten Servern laufen soll. Dadurch sollen Kunden in der Lage versetzt werden, Datenengpässe in ihrer KI-Pipeline zu beseitigen und Dateneinspeisung, -bereitstellung, -analyse sowie -inferenzierung auf einer zentralen und einheitlichen Plattform bereitzustellen.
Der Einastz von VAST AI OS beschleunigt laut Hersteller die Ebenen Datenservices und Compute als ein kohärentes System und beseitige damit die operative Komplexität, die aus der Kombination separater Storage-Systeme, Datenbanken und KI-Infrastruktur-Stacks entstehe. Das Ergebnis sei ein einfacherer und schnellerer Weg von der Pilotphase zum Produktivbetrieb, insbesondere von RAG-Pipelines, Agentic-Systemen und langfristig genutzten KI-Workloads.
Cnode-X
Vast AI OS stellt laut Hersteller nicht nur hoch performante Storage-Services in Clustern bereit, die mittels GPUs von NVIDIA beschleunigt wurden. Vielmehr läuft das Betriebssystem neuerdings auch direkt auf Nvidia-basierten Servern. Notwendig dafür ist „Vast Cnode-X“. Dieses Modul wurde in Zusammenarbeit mit Nvidia entwickelt und liefert eine neue Generation von Nvidia-zertifizierten Systemen, die Erstellung und Betrieb von KI-Infrastrukturen grundlegend verändern.
Die Cnode-X-Server bilden die Computing-Basis für das KI-Betriebssystem von Vast Data und nutzen eine große Bandbreite an Nvidia-Softwarebibliotheken und -schnittstellen direkt in den zentralen Vast-Softwarediensten, einschließlich „Vast Data Engine“ und „Vast Database“. Also sind die Beschleunigungen tief in der Plattform eingebettet und liefern eine größere Leistung, geringere Latenz und höhere Effizienz in Echtzeit-SQL-Analysen, Vektorsuchen und -abfragen sowie in einer Vielzahl an KI-Inferencing-Workflows.
Renen Hallak, Gründer und CEO von Vast Data, erinnert an den Beginn: „Vor zehn Jahren haben wir damit begonnen, ein System zu bauen, mit dessen Hilfe sich aus Daten Erkenntnisse gewinnen und Aktionen ableiten lassen.“ Und setzt hinzu: „Diese Vision ist heute Wirklichkeit.“
Und Jensen Huang, Gründer und CEO von Nvidia, ergänzt: „Nvidia erfindet für KI jede einzelne Computing-Säule neu. Mit Vast Data transformieren wir den Storage-Teil von KI-Infrastrukturen.“ Cnode-X sei auf jeder Ebene CUDA-beschleunigt, um für KI-Agenten mehr persistenten Hauptspeicher bereitzustellen. Dadurch könnten sie komplexe Probleme bearbeiten, über Tage, Wochen und am Ende sogar über Jahre, ohne etwas zu vergessen. „So erschließt sich die Welt das nächste Anwendungsfeld von KI.“
Mit den GPU-beschleunigten Vast Cnode-X-Servern als Basis integriert VAST seine breite Unterstützung für NVIDIA-beschleunigte Fähigkeiten in VAST AI OS. Dazu zählen:
GPU-native SQL-Engine-Beschleunigung für Vast Database Analytics-Pipelines: Durch die Kombination von speicherseitiger Intelligenz und GPU-beschleunigter Ausführung entwickelt der Hersteller die Datenbank weiter, um Analytics-Workloads im gesamten Lebenszyklus von Datenbankabfragen zu beschleunigen.
Die Abfrage-Engine der Database soll intelligentes Daten-Layout, -Pushdown sowie -filtern vereinigen und dadurch überflüssige Ein- und Ausgabe-Operationen verringern. Gleichzeitig nutzt sie „Sirius“, eine quelloffene Query-Engine auf Basis von „Nvidia cuDF“, für GPU-beschleunigte SQL-Ausführung auf der Compute-Ebene. Dabei handelt es sich um eine Bibliothek für beschleunigte Analysen strukturierter Daten.
Dieser komplementäre Ansatz beschleunige alle Vorgänge, so Vast Data, bevor Daten die Compute-Ebene erreichen, wie auch die Compute-Ebene selbst. Die Datenbank ist dadurch gleichzeitig speicheroptimiert und GPU-beschleunigt. Erste Sirius-Vergleichsdaten zeigen eine um bis zu 44 Prozent geringere Query-Zeit und um bis zu 80 Prozent reduzierte Query-Kosten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Nvidia cuVS für beschleunigte Vektorsuche und -abfrage: Durch die Einbettung der Bibliothek cuVS macht Cnode-X die GPU-Beschleunigung für Vektorsuche und Daten-Clustering verfügbar. Unternehmen, die Vast-Technik für skalierbare Datenbankdienste und die entsprechend dem Nvidia-AI-Data-Platform-Design entwickelte „Vast Insight Engine“ für ihre RAG-Pipeline im Echtbetrieb nutzen, kommen dadurch in den Genuss verringerter Abfragelatenzen für kontextintensive Echtzeit-KI-Anwendungen.
„Nemotron“-Modelle und „NIM“ Microservices von Nvidia für skalierbare Data-Engine-Pipelines: Vast wird die NIM Microservices unterstützen und sie in Cnode-X für KI-Pipelines bereitstellen. Außerdem veröffentlicht das Unternehmen im Open-Source-Modell Vast Data-Engine-Vorlagen für KI-Pipelines, die für den Produktivbetrieb vorbereitet sind. Diese Pipelines zielen auf Anwendungsszenarien ab, wie Video-Erkennung, RAG für Unternehmensdokumente und Genomikforschung.
Nvidia CMX für beschleunigte skalierbare Inferenzierung: Vast Data unterstützt die „Nvidia Context Memory Storage“-Platform (CMX) durch Cluster-Konfigurationen, die „Nvidia BlueField-4“- DPUs und „Spectrum-X“-Ethernet-Networking unterstützen. Dadurch kann sich der Zugriff auf gemeinsam genutzten Key Value (KV) Cache-Speicher beschleunigen und die Zeitspanne von der Anfrage bis zur Anzeige des ersten Antwort-Tokens (Time-to-first-Token) bei Multi-Agenten-Inferenzierungen mit umfangreichen Kontextinformationen verkürzen. Denn KI-Agenten haben im gesamten Pod Zugriff auf den Hauptspeicher.
Die „Disaggregated Shared Everything“ -Architektur (DASE) von Vast Datakann Kunden den weiteren Vorteil verschaffen, optional Enterprise-Data-Services außerhalb des normalen Datenstroms hinzuzufügen, ohne dass dies zu Lasten von KV-Abfragezeiten geht.
Die Hardware-Ooptionen
Vast Data wird die Cnode-X-Server über OEM-Partner wie Cisco und Supermicro auf den Markt bringen. Kunden können dadurch eine GPU-beschleunigte Infrastruktur über ihre bevorzugten Lieferanten beschaffen. Außerdem sollen die Kunden über die zertifizierten Konfigurationen einen kürzeren Weg zu einer KI im Echtbetrieb bei gleichzeitig verbessertem Support erhalten können.
Jeremy Foster, SVP und General Manager von Cisco Compute, stellt heraus: „KI skaliert nicht auf isolierten Komponenten. Es skaliert durch integrierte Systeme.“ „Kunden brauchten somit eine Infrastruktur, die für die Sicherheit der Daten sorge und eng auf intelligentes Networking und GPU-beschleunigtes Compute ausgerichtet sei, für eine effiziente und für den Produktivbetrieb geeignete Plattform.