Vorbereitet für die industrielle KI Brainqubes liefert KI-Datacenter-Container ab 2,8 Megawatt

Von Ulrike Ostler 3 min Lesedauer

Anbieter zum Thema

Modulare Rechenzentren von Brainqubes sollen erlauben, möglichst schnell kleine KI-Rechenzenzren zu errichten. Es handelt sich um Container, die mithilfe eines standardisierten Designs IT-Leistung Startkapazitäten von 2,8 Megawatt bieten, die jedoch skalierbar sein sollen bis hin zur Gigafactory.

Das Kerngeschäft von Brainqubes soll die Entwicklung, Bereitstellung und der Betrieb einer verteilten industriellen KI-Infrastruktur sein, also modulare Rechenzentren mit KI-fähiger Ausstattung. (Bild:  Brainquubes)
Das Kerngeschäft von Brainqubes soll die Entwicklung, Bereitstellung und der Betrieb einer verteilten industriellen KI-Infrastruktur sein, also modulare Rechenzentren mit KI-fähiger Ausstattung.
(Bild: Brainquubes)

Das Startup Brainqubes will mithilfe der Module ein Rechenzentrumsnetzwerk errichten. Das erste Datacenter soll in diesem Frühjahr in Berlin eröffnet werden, bei einem großen deutschen Pharmaunternehmen, das eine Implementierung in seiner Forschungs- und Entwicklungseinrichtung plant. Unterstützt wird das Vorhaben durch den Berliner Senat, dem Bundesministerium für Digitales und Staatsmodernisierung ( BMDS) und der Bundesförderung für effiziente Wärmenetze (BEW).

Ziel ist es, KI-Rechenleistung „Made in Germany“ zu schaffen: effizient, nachhaltig und datenschutzkonform, insbesondere für Mittelstand, Forschung und Industriepartner. Der erste Einsatz jedoch erfolgt bei Nscale, bei dem Brainqubes als Gründungspartner an deren KI-Infrastrukturinitiative beteiligt war.

Für den Anspruch, Datacenter für die industrielle KI-Anwendungen zu schaffen, gibt es eine gemeinsame Plattform von Brainqubes und ELIO, einem belgischen Spezialisten für Engineering und Fertigung. Diese sei speziell für industrielle KI-Workloads entwickelt, die langfristige Leistungsstabilität, Datenhoheit, sichere Lieferketten und vorhersehbare Betriebswirtschaftlichkeit erforderten. Typische Anwendungsfälle sind Simulationen und digitale Zwillinge, industrielle Bildverarbeitung, groß angelegte Inferenz für Fertigung und Logistik sowie domänenspezifisches Modelltraining in den Bereichen Ingenieurwesen, Biowissenschaften und Energie-intensive Industrien.

Souveränität und Konfigurationen

Nach Angaben von Frank Riemann, Mitgründer und Vorstandsvorsitzende von Brainqubes, ist diese Konstellation „ausdrücklich“ entwickelt worden, um die europäische KI-Souveränität zu unterstützen, indem kritische KI-Infrastrukturen, Betriebsabläufe und die Kontrolle über die Lieferkette innerhalb Europas verbleiben. Allerdings entstehe laut Riemann, derzeit auch in Oman ein Brainqubes-Datacenter, mit 15 Megawatt.

Die Infrastruktur der 'Qubes" wird generell in Form von standardisierten 2,8-Megawatt-Bausteinen bereitgestellt, die vor Ort, in der Nähe des Standorts oder an verschiedenen Standorten eingesetzt werden können. Dieser modulare Ansatz ermögliche es Kunden, die KI-Kapazität entsprechend dem Produktionsbedarf zu skalieren und gleichzeitig eine unternehmensgerechte Redundanz und Betriebsstabilität aufrechtzuerhalten, so Riemann.

Die typische Lieferzeit beträgt vier bis sechs Monate ab Vertragsabschluss. Zwischenzeitlich kann eine Mietausrüstung eingesetzt werden, um die Produktionsaufnahme zu beschleunigen. Die permanente Infrastruktur wird integriert, sobald die Komponenten mit langer Lieferzeit lieferbar sind.

Die Container sind jedoch mehr als eine Hülle. Nach eigenen Angaben unterhalten Brainqubes und Elio langfrsitige, strategische Partnerschaften entlang einer kompletten GPU-Lieferkette, insbesondere zu Nvidia und Supermicro.Die aktuellen Vorlaufzeiten (voraussichtlich für das komplette Jahr 2026) für Systeme der „GB300“-Klasse betragen etwa neun Wochen, mit der Einschränkng „abhängig von der Auswahl des Chipsatzes und der globalen Nachfragedynamik“. Ein Cluster der 300er-Klasse bietet laut Brainqubes ausreichend Kapazität, um kleine bis mittelgroße Sprachmodelle in vielen Unternehmensszenarien zu trainieren.

Bildergalerie
Bildergalerie mit 6 Bildern

Riemann erwartet, dass die Auslastungskurve für einen 2,8-MW-Cluster in der Regel innerhalb von sechs bis zwölf Monaten eine Auslastung von 40 bis 60 erreichen. Neo-Cloud- und KI-native Betreiber dürften häufig eine Auslastung von 70 Prozent ausweisen können, sobald die Produktions-Workloads aktiviert sind. Das sich die Bedürfnisse jedoch unterscheiden könntem arbeiten Brainqubes und ELIO mit jedem Kunden zusammen, um realistische Auslastungskurven zu modellieren, die auf die operative und kommerzielle Strategie des Kunden abgestimmt sind.

Und die Kosten? Die voraussichtlichen Investitionskosten belaufen sich auf etwa 7,5 Millionen Dollar pro Megawatt. Ausgeschlossen sind dabei Transport, Bauarbeiten und Hochspannungsinstallation.

Das Unternehmensduo Brainqubes-ELIO kann eigenen Angaben zufolge je nach geografischer Lage und Verfügbarkeit von Ressourcen vier bis sechs Cluster gleichzeitig bereitstellen. Die parallele Kapazitätlässt sich aber durch gezielte Einstellungen und die Skalierung von Partnern erweitern.

(ID:50683621)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung