Eine KI‑fähige Lösung für den hausinternen Einsatz (On-Prem) vereinfacht die Bereitstellung integrierter Plattformen für beschleunigte Rechen- und Speichernetzwerke in „S3“‑kompatiblen Enterprise‑Umgebungen – besonders wichtig für MSPs. Nutzbar sind ausschließlich firmeninterne Daten, und zum Einsatz kommt ein durch Air-Gap abgesichertes Sprachmodell (LLM).
Eine Top-Level-Ansicht auf die „Cloudian AIDP“: Auf der Basis der DAIP kann KI Unternehmensdaten in KI-Erkenntnisse umwandeln.
(Bild: Cloudian)
Cloudian, ein Anbieter softwaredefinierter Objektspeicherlösungen, hat seine „Hyperscale AI Data Platform“ vorgestellt. Diese KI‑fähige Lösung basiert auf S3‑API‑Speicher, sei kompatibel mit bestehenden Datensätzen und Anwendungen und lasse sich nahtlos bis in den Exabyte‑Bereich skalieren.
Die Plattform unterstützt das S3‑Speicherprotokoll über Remote Direct Memory Access (RDMA), das die CPU und den TCP/IP-Stack umgeht, und soll dadurch höhere Leistung und Effizienz für KI‑Workloads bieten. Die Plattform basiert nach Angaben des Herstellers auf der „Nvidia-RTX-PRO-6000-Blackwell“-Server-Edition-GPU und folgt dem Referenzdesign der „Nvidia AI Data Platform“.
Bildergalerie
Die Cloudian Hyperscale AI Data Platform soll eine der zentralen Herausforderungen bei der Einführung von Agentic AI und GenAI lösen: Ihre umfangreichen Bestände an unstrukturierten Daten lassen sich sofort für KI‑Anwendungen erschließen und nutzbar machen. Damit könnten Organisationen auf die 90 Prozent ihrer Daten zuzugreifen, die unstrukturiert vorliegen, beispielsweise Berichte, Handbücher, Präsentationen und Multimedia-Inhalte, die das interne Wissen ausmachen.
Komplexe Infrastrukturanforderungen eliminieren
Traditionelle KI‑Implementierungen erfordern in der Regel komplexe, dedizierte Dateisysteme und separate Vektordatenbanken, um die nötige Performance zu erreichen, ein kostenintensiver und zeitaufwändiger Prozess, der spezielles Know-how verlangt, das vielen IT-Teams fehlt. Sie müssten entweder in neue Talente investieren oder sich mit einer schlechteren KI-Leistung zufriedengeben.
Cloudian will diese Hürden beseitigen, indem Unternehmen KI‑Applikationen direkt auf den nativen S3‑kompatiblen Datenquellen betreiben können, also ohne zusätzliche Dateisystemebenen oder eine separate Vektordatenbank‑Infrastruktur. Dieser Ansatz reduziere die Komplexität drastisch, beschleunige Implementierungen und erlaube es, bestehendes IT‑Know‑how und vorhandene Infrastrukturinvestitionen optimal zu nutzen.
Unternehmensdaten in KI‑fähige Informationen verwandeln
Die Technik bringe KI‑Rechenleistung direkt an die Datenspeicher und mache diese automatisch zur KI‑fähigen Infrastruktur. Dank einer in die Speicherebene integrierten Vektordatenbank würden multimodale, unstrukturierte Inhalte automatisch aufgenommen, eingebettet und indiziert. So ließen sich Daten sofort über Vektorsuchschnittstellen finden und für RAG-Workflows (Retrieval‑Augmented‑Generation) bereitstellen.
Dieser Ansatz soll sicherstellen, dass KI‑Agenten im gesamten Unternehmen Informationen nahezu in Echtzeit auffinden, durchsuchen und analysieren können. Datensilos würden aufgelöst, und Unternehmen könnten in der Agentic-AI-Ära, in der KI‑Systeme unmittelbaren Zugriff auf das gesamte interne Wissen benötigen, ihre Wettbewerbsfähigkeit sichern. Die oben erwähnte S3‑over‑RDMA‑Fähigkeit steigere die Leistung zusätzlich, indem sie höhere Lese‑ und Schreibdurchsätze liefere und den Zugriff auf KI‑Speicherressourcen optimiere.
Infrastruktur für KI‑Agenten
Durch die Kombination aus beschleunigtem Computing und integrierten Vektordatenbank‑Funktionen direkt auf der Speicherebene mache die Hyperscale AI Data Platform den Aufbau und Betrieb komplexer, separater KI‑Infrastrukturen überflüssig. Dieser Ansatz beseitige technische Barrieren, die die KI‑Einführung bislang erschwert hätten, und ermögliche eine schnelle Bereitstellung auf Basis vorhandener IT‑Fähigkeiten und bestehender Infrastruktur.
Wesentliche Komponenten der Lösung sind Nvidia-RTX-PRO-6000-Blackwell-GPUs, /„Nvidia-Bluefield-DPUs“ und „Nvidia-AI-Enterprise“-Software, darunter „Nvidia NIM“ Microservices und Nvidia NeMo Retriever Microservices. „Nvidia-Spectrum‑X“-Ethernet‑Networking liefere mit RDMA und direkten Datenpfaden zwischen Storage, Systemspeicher und GPU‑Speicher eine hohe Performance von bis zu 35 GB/s pro Knoten (Lesegeschwindigkeit). Dies soll bis auf Terabytes pro Sekunde skalierbar sein.
Das System ermöglicht es Unternehmen, KI‑Agenten bereitzustellen, die das gesamte Unternehmenswissen sofort verstehen, abfragen und auswerten können und schafft damit die Basis, um KI‑Agenten zentral in Geschäftsprozesse zu integrieren. „Die Hyperscale AI Data Platform markiert einen grundlegenden Wandel in der Art und Weise, wie Unternehmen ihre KI‑Readiness angehen“, sagt Neil Stobart, CTO bei Cloudian.
Bildergalerie
Cloudian-Objektspeicher wird in der „Hyperstore“-Produktfamilie angeboten. Hierauf lässt sich mit S3 zugreifen, aber auch mit SMB und NFS. Die Hyperstore-Nodes können sowohl Festplatten als auch TLC-NVMe-SSDs enthalten.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Als Sprachmodell verwendet die Hyperscale AI Data Platform das „Llama-3.2-3B-Instruct“-LLM von Meta. Die vier Nvidia-GPUs pro Knoten erledigen jeweils eine Aufgabe, nämlich LLM-Inferenz, Arbeiten der Vektordatenbank, Re-Ranking und Relevanz sowie eine gemeinsame Aufgabe für Vektor-Einbettungen und andere Aufgaben.
Der Nutzer bedient eine einfache grafische Benutzeroberfläche, in der er im Prompt Fragen stellen und sie dann verfeinern kann, ähnlich wie in „ChatGPT“ oder einem anderen Chatbot. Die naheliegenden Use-Cases sind die Abfrage von Unternehmenswissen, die Abfrage geschützter Dokumente, die Auswertung von Video-Inhalten sowie der Aufbau von Datenableitungen und Audit-Trails im Hinblick auf Compliance und Governance.