Offene Spezifikationen, ausgehend von den Hyperscalern OCP spezifiziert: Power Sidecars und 800VDC, Immersions-DLC-Kombis bei absehbaren Ronnabytes

Von Ulrike Ostler 12 min Lesedauer

Anbieter zum Thema

Das Open Compute Project (OCP) wächst; die Mitgliederzahl der Foundation ist auf über 500 angewachsen, die Zahl der aktiven Projekte, zu denen Tausende beitragen, auf über 200. Rund 23 Prozent der Mitglieder kommen aus Europa, dem Nahen Osten und Afrika. und rund 30 Prozent der Beiträge. Auch die Besucherzahl des „OCP Summit EMEA“ ist gestiegen ; vor zwei Jahren waren es noch 700, jetzt sind es über 2000. Und noch immer ist das Tempo neuer Spezifikationen berauschend.

Der „2026 OCP EMEA Summit“ hat am 29. und 30 April stattgefunden. Datacenter-Provider´, -Ausstatter und -Kunden müssen sich eine Menge neuer Begriffe merken; denn es gibt jede Menger neuer Spezifikationen - alle offen und intepretierbar. Schuld ist die KI. (Bild:  Open Compute Project)
Der „2026 OCP EMEA Summit“ hat am 29. und 30 April stattgefunden. Datacenter-Provider´, -Ausstatter und -Kunden müssen sich eine Menge neuer Begriffe merken; denn es gibt jede Menger neuer Spezifikationen - alle offen und intepretierbar. Schuld ist die KI.
(Bild: Open Compute Project)

Im Dezember 2025 hatte die OCP Foundation eine Studie von dem Analystenhaus IDC vorgestellt: Demnach werden die Gesamtausgaben für von OCP anerkannte IT-Infrastruktur und -Produkte von 132 Milliarden Dollar im Jahr 2025 auf 295 Milliarden Dollar im Jahr 2029 steigen, was einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 22,2 Prozent entspricht. Dabei werden die Ausgaben für Server voraussichtlich 258,9 Milliarden Dollar einnehmen, das durchschnittliche Wachstum beträgt also 35,7 Prozent, während externe Speicher- und Switching-Geräte die nächstgrößten Marktsegmente darstellen.

OCP ist mittlerweile eine große, vielfältige und weltweit verteilte Gemeinschaft, der über 500 Unternehmensmitglieder, fast 200 Arbeitsgruppen und Tausende aktiver Ingenieure angehören. Obwohl sich das OCP ursprünglich auf große Betreiber von Hyperscale-Rechenzentren und deren Zulieferer konzentrierte, hat sich die Mitgliederbasis mittlerweile auf Organisationen aus den Bereichen Neoclouds, Telekommunikation, Finanzdienstleistungen, Fertigung sowie der Öl- und Gasindustrie ausgeweitet. Der Fokus hat sich zudem über „Greenfield“-Rechenzentren (Neubauten) hinaus auf „Brownfield“-Rechenzentren, also Nachrüstungen und Sanierungen, ausgeweitet.  Viele Mitglieder tragen nicht nur neue Technologiespezifikationen zur OCP-Community bei, sondern sind selbst wichtige Endnutzer von OCP-anerkannten Technologien. (Bild:  IDC)
OCP ist mittlerweile eine große, vielfältige und weltweit verteilte Gemeinschaft, der über 500 Unternehmensmitglieder, fast 200 Arbeitsgruppen und Tausende aktiver Ingenieure angehören. Obwohl sich das OCP ursprünglich auf große Betreiber von Hyperscale-Rechenzentren und deren Zulieferer konzentrierte, hat sich die Mitgliederbasis mittlerweile auf Organisationen aus den Bereichen Neoclouds, Telekommunikation, Finanzdienstleistungen, Fertigung sowie der Öl- und Gasindustrie ausgeweitet. Der Fokus hat sich zudem über „Greenfield“-Rechenzentren (Neubauten) hinaus auf „Brownfield“-Rechenzentren, also Nachrüstungen und Sanierungen, ausgeweitet. Viele Mitglieder tragen nicht nur neue Technologiespezifikationen zur OCP-Community bei, sondern sind selbst wichtige Endnutzer von OCP-anerkannten Technologien.
(Bild: IDC)

Zu den Kategorien mit dem stärksten Ausgabenwachstum zählen Kühltechnologien mit Wachstumsraten von über 32 Prozent, Stromversorgungstechnologien ( 23,6 Prozent) und IT-Rack-Infrastruktur ( 23,5 Prozent). Doch die Angaben seien vermutlich schon wieder relativierbar, so etwa Cliff Grossner, Chief Innovation Officer der OCP Foundation, gegenüber Journalisten und Analysten auf dem OCP Summit EMEA, der in der vergangenen Woche in Barcelona stattgefunden hat. Denn zum einen steige die Mitgliederzahl in bemerkenswerter Weise und dann weite sich das Spektrum der Themen mit überraschender Wucht deutlich aus: Der knappe Strom sorgt für Diskussionen, Whitepaper, Innovationen und neue Mitglieder.

Das habe man sich vor 15 Jahren als Meta, damals noch Facebook, die Open Compute Foundation initiiert hat, nicht gedacht (siehe: History and Mission). Damals sei es primär um Hardware-Spezifikationen gegangen, so Grossner. Offiziell heißt es: Das Open Compute Project wurde 2011 von Facebook, Intel und Rackspace gegründet; kurz darauf schlossen sich Goldman Sachs und Andy Bechtolsheim an, um Open-Source-Prinzipien auf die Hardware von Rechenzentren anzuwenden, darunter Server, Speichergeräte, skalierbare Rack-Konstruktionen und andere Technologien für Rechenzentren.

Cliff Grossner, Chief Innovation Officer der OCP Foundation
Quelle: uo / Vogel IT-Medien GmbH / YouTube

Doch seither hat sich auch die Mitgliedschaft des einst elitären Clubs verändert; so sind rund 160 Mitglieder so genannte Solution Providers, also Firmen wie Rittal und Schneider Electric, Nvidia und ARM, Supermicro und HPE, die Produkte nach OCP-Spezifikationen entwickeln. Etwa 33.000 Menschen gucken sich pro Monat die Solutions-Marketplace-Seite an. Um dort gelistet zu sein, müssen sie Mitglied sein, mehr als vier der OCP-Grundsätze erfüllen: Offenheit, Effizienz, Wirkung, Skalierbarkeit und Nachhaltigkeit und sie müssen zu den Projekten beigetragen haben.

Dennoch tragen die Hyperscaler mehr als 80 Prozent zum Umsatz durch OCP-inspirierte und akzeptierte Produkte bei. So sei auch der Grundsatz „von den Hyperscalern zum Rest der IT-Welt“, um das einmal flapsig auszudrücken, gerechtfertigt so Grossner. Seine Begründung: „Die merken als erste, wenn es Probleme gibt.“

Bildergalerie
Bildergalerie mit 41 Bildern

Bei dieser Bemerkung zuckt allerdings James Kelly, zuständig für Neoclouds und die OCP Future Technologies Initiative, merklich zusammen. Denn die Vertreter der Neoclouds wie Scaleway (Iliad Group), OVHcloud, Farm GPU und Scaleup Technologies und Cloud&Heat aber auch die Co-Location-Anbieter wie NTT Global Data Centers, Conapto, Aligned Data Centers dürften ihre Ohren noch direkter bei ihren Kunden und lokalen Regularien sowie Gesetzen haben. Und der wachsende Anteil an europäischen Mitgliedern, die nachweislich nicht zu den Hyperscalern gehören, dürften das bisherige Selbstverständnis in Frage stellen. Mit einem der größten Anteile an Beiträgen zur OCP-Fortentwicklung aus dem europäischen Raum trägt übrigens Rittal bei, wie Grossner mitteilt.

Chris Drake ist Senior Research Director Compute Infrastructure und Service Provider Trends bei IDC.  (Bild:  uo/ Vogel IT-Medien GmbH)
Chris Drake ist Senior Research Director Compute Infrastructure und Service Provider Trends bei IDC.
(Bild: uo/ Vogel IT-Medien GmbH)

Doch wie sehen Analysten die OCP-Rezeption in Europa? Chris Drake, bei IDC Senior Research Director für Compute Infrastructure und Service Provider Trends, stellt heraus, dass die Hyperscaler insgesamt für 60 Prozent der derzeit eingesetzten OCP-Infrastruktur verantwortlich sind - danach kommen die Cloud Service Provider -. in Europa jedoch nur für 40 Prozent.

Die Ausgaben OCP-Infrastrukt in der EMEA-Region nach Anwendungsfall, 2019–2029 (Angaben in Milliarden Dollar)(Bild:  IDC 2025)
Die Ausgaben OCP-Infrastrukt in der EMEA-Region nach Anwendungsfall, 2019–2029 (Angaben in Milliarden Dollar)
(Bild: IDC 2025)

Was die Entwicklung beeinflusst, sind mehr oder weniger bekannte Trends: So hat die Künstliche Intelligenz die Hardwareverkäufe nach oben schnellen lassen: So zeige der „Enterprise Infrastructure Server Tracker“ von IDC, dass sich der Umsatz aus dem Verkauf von Nicht-x86-Servern im Jahr 2025 im Vergleich zu 2024 mehr als verdoppelt habe, zeigt Drake auf. Und das Umsatzwachstum sei durch Investitionen von Hyperscale-Internet-Unternehmen und Cloud-Dienstleistern (Meta, Google, Microsoft und AWS) in GPU-beschleunigte Server vorangetrieben worden, um den steigenden Anforderungen durch KI-Workloads gerecht zu werden.

Für die kommenden vier Jahre erwarte IDC noch einmal ein starkes Wachstum bei der Einführung von GPU-beschleunigten Servern. Übrigens: Der Umsatz mit Nicht-x86-Servern soll bis 2029 auf 438 Milliarden Dollar steigen, ausgehend von 138 Milliarden Dollar im Jahr 2025.

IDC hat auch die Verbreitung unter den Co-Location-Betreibern untersucht, genannt werden etwa Borealis mit zwei Rechenzentren in Island, Conapto mit vier Datacenter in Schweden, Global Switch in den Niederlanden, Stellium Datacenter in UK sowie Start Campus Sines in Portugal und Merlin Edged in Portugal. Für Co-Location-Anbieter gibt es ein Selbstzertifizierungsprogramm.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Auch Drake hat sich die so genannten Neoclouds angeschaut; er spricht allerdings lieber von einer aufstrebende Gruppe spezialisierter Cloud-Dienstleister, die eine Kombination aus Rechenzentrums-Infrastrukturdiensten, Cloud-Infrastruktur und Plattformdiensten anbieten: specialized Cloud Service Providers (SCSPs). Diese treiben seiner Ansicht nach sowohl die Adaption als auch die Weiterentwicklung der OCP-Spezifikationen.

Das Bestreben nach Souveränität insbesondere in Europa, Kanada und China fördert wiederum so genannte souveräne Clouds und die Nachfrage nach Open-Source-Techniken, was für OCP-Spezifikationen sprechen würde. Die Souveränitätsbestrebungen führt er zum einen auf den Bedarf an gesicherten Daten zurück und zum anderen auf den 'Supply Chain Shock' angesichts der derzeitigen Geopolitik und verlorenem Vertrauen in die US-Handelsabkommen.

In seinem Vortrag auf der OCP-Konferenz hat er folgende OCP-Initiativen als zukunftstreibend genannt:

Offene Cluster-Designs für KI - Entwicklung von Standards zur Steigerung der Effizienz, Skalierbarkeit und Nachhaltigkeit von KI-Clustern sowie zur Förderung einer herstellerunabhängigen Lieferkette.

Die strategische Initiative „Open Data Center for AI“ - hier geht es um die Förderung offener, standardisierter Designs für die physische Infrastruktur von Rechenzentren, einschließlich Stromversorgung, fortschrittlicher Kühlung, Gebäudetechnik, Automatisierung und Telemetrie.

Die Arbeitsgruppe „Ethernet for Scale-Up Networking“ (ESUN) - Diese beschäftigt sich mit der Bewältigung von Herausforderungen im Zusammenhang mit dem Betrieb von KI-Clustern in großem Maßstab, einschließlich des Bedarfs an spezialisiertem Silizium, Verbindungen mit höherer Bandbreite und geringerer Latenz.

Das Projekt zur Stromverteilung in Rechenzentren - Dabei geht es um die Förderung von Standards, die dazu beitragen, die Lücke zwischen den Anforderungen von KI-Rechenzentren und den Netzkapazitäten der Energieversorger zu schließen.

Projekt Deschutes - Ziel ist letztlich die Standardisierung und Beschleunigung der branchenweiten Einführung von Flüssigkeitskühlungslösungen für KI-Workloads mit hoher Dichte.

Das Energie-Problem

Tatsächlich hat das Open Compute Project (OCP) bis Anfang 2026 einige Whitepaper veröffentlicht, die sich mit der Energieversorgung, -speicherung und -verteilung befassen und insbesondere auf hochdichte KI-Infrastrukturen und Nachhaltigkeit ausgerichtet sind. Dazu gehören:

  • Data Center Facilities (DCF) Power Distribution (LVDC) - Das Whitepaper ist erst am 30. März 2026 veröffentlicht worden, mehr als 50 Firmen haben daran mitgearbeitet und nur sechs Monate gebraucht um es fertigzustellen. Es befasst sich mit dem Übergang von Wechselstrom- zu Gleichstromsystemen, wobei eine Spannung von 800 V Gleichstrom zur Unterstützung von KI angestrebt wird.
Bildergalerie
Bildergalerie mit 41 Bildern

Auf dem OCP Summit oblegen Sebastian Cruz Mermy, Vice President Innovations von Schneider Electric und Javier Pemán, Director Cloud bei Nvidia, in ihren Keynotes den Bedarf an Strom und die daraus resultierende Technik von Power-Sidecars darzulegen. Das sollen Racks sein, die neben den hochdichten Compute-Racks stehen und diese auf möglichst direktem Weg mit Strom versorgen. Außerdem wachsen die 21-Zoll-OCP-Racks auch in die Breite: auf 42 Zoll.

Warum: Nvidia gibt derzeit mit seinen GPUs, die als Beschleuniger fungieren, quasi den Takt vor. Mit der Generation „Vera Rubin“ hat das Unternehmen in diesem Jahr sechs neue Grafik-Chips angekündigt und damit das 250 Kilowatt-Rack. Im übernächsten Jahr will Nvidia das 600 Kilowatt-Rack vorstellen und irgendwo mittenzwischen den „Pega-Pod“. Die GPUs werden einzeln und redundant mit Strom versorgt. Das ist kompliziert und resultiert im Datacenter in Kilometer-langen Stromkabeln. Pemán folgert: „Wir brauchen alle die Sidecars."

Schneider-Electric-Mann Cruz Menry erläutert: Das 1 Megwatt-Rack ist in der Mache und wir, in diesem Fall die OCP-Contributoren arbeiten an den 800VDC-Racks. Die Spezifikationen sollen zum einen für Flexibilität sorgen und zum anderen Risiken vermeiden, auch für diejenigen, die im Rechenzentrum damit arbeiten müssen.

Open Data Center

Die Entwicklung fällt nicht aus dem Himmel, sondern in einen übergreifenden Kontext. 2025/2026 hat OCP das „Open Data Center Ecosystem for AI“ ausgerufen und darin die strategische Initiative „Open Data Center for AI“ gestartet. Denn es ist absehbar, dass Datacenter‑Stromarchitekturen, Flüssigkeitskühlung und OT/IT‑Telemetrie nicht mehr in Silo-artige, proprietäre Designs passen.

Nebenbei bemerkt: Der Wechsel zu Gleichstrom wird schon viel länger und auch außerhalb der OCP-Welt diskutiert. Der Grund: höhere Effizienz, weniger Wandlungen, bessere Integration von Energiespeichern. Hier inkludiert das Projekt den Übergang von klassischen AC‑Layouts zu DC‑Architekturen, zum Beispiel LVDC, ±400 VDC, für bis zu 1 MW pro Rack.

Stromzufuhr und -Management sind aber ohne Kühlung nicht mehr zu denken. Deshalb gehört unbedingt das Direct‑to‑Chip‑Liquid Cooling (DLC oder D2C) als Standardpfad für AI dazu. Offene Referenzen wie das Project Deschute (2‑MW‑CDU‑Klasse) definieren Schnittstellen, Performance und Betrieb.

Das ist die Umsetzung der OCP-„Open Data Center“-Überlegungen von Rittal: In der Mitte ein Rack doppelter Breite, allerdings hier ohne die OCP-typische Stromschiene im Rack (Bas Bar), zu sehen. Links daneben befindet sich die CDU und rechts ist ein Power-Sidecar, das Rittal zusammen mit Siemens Smart Infrastructure entwickelt hat, um die Spannung von ±400 Volt DC auf 48 V DC zu wandeln, die normalerweise im Rack benötigt wird.  DC steht hier für Direct Current, Gleichstrom. (Bild:  uo/Vogel IT-Medien GmbH)
Das ist die Umsetzung der OCP-„Open Data Center“-Überlegungen von Rittal: In der Mitte ein Rack doppelter Breite, allerdings hier ohne die OCP-typische Stromschiene im Rack (Bas Bar), zu sehen. Links daneben befindet sich die CDU und rechts ist ein Power-Sidecar, das Rittal zusammen mit Siemens Smart Infrastructure entwickelt hat, um die Spannung von ±400 Volt DC auf 48 V DC zu wandeln, die normalerweise im Rack benötigt wird. DC steht hier für Direct Current, Gleichstrom.
(Bild: uo/Vogel IT-Medien GmbH)

Das aber setzt voraus, dass sich auch die Racks selber ändern. die derzeitige Spezifikation ist ORv3 mit 42 OU (1 Open Unit ist identisch mit 1 Unit (1,75″), optional 48 OU) und es kommt „Open Rack Wide“, kein ORv4.

Inferenzanwendungen ohne Ende

Der Bedarf an offenen Spezifikationen und Standards wird sich noch deutlich verschärfen; denn die Inferenzanwendungen sollen alles übertreffen, was die IT bisher hervorgebracht hat. Wie Robert Hormuth, Corporate Vice President für Architecture an Strategie in der Data Center Solutions Group bei AMD und OCP Board Member, aufzeigt, gehorcht Inferenz noch ganz anderen Gesetzmäßigkeiten als einer Heterogenität, die von Anwendungen und Infrastrukturen für Roboter und Autos bis zu KI-Fabriken und Handys reicht.

KI will gerechnet und verteilt sein über diverse Grenzen hinweg: Telekommunikation und Souveränität, Edge und Cloud. Und es gibt neue Prioritäten: Optimierung pro Token, Latenz, Energieverbrauch und Compliance mit unterschiedlichen Gesetzen und Regularien, wobei wobei der Schwerpunkt eher auf der Wirtschaftlichkeit der gesamten Flotte als auf der Leistung einzelner Knoten liegt, so Hormuth.

Anil Nanduri, Vice President AI Products und GTM, bei der Intel Corp.
Quelle: uo / Vogel IT-Medien GmbH / Youtube

Ähnliche Überlegungen bringt auch Anil Nanduri, Vice President AI Products und GTM, bei der Intel Corp., bei seiner Keynote auf die Bühne (siehe: Kasten und Bildergalerie).

Fragen an Anil Nanduri, Intel

Sie bringen dieses Jahr drei Graphic Processing Units (GPUs) heraus?

Anil Nanduri: Zwei sind schon auf dem Markt: „Arc Pro B70“ ist mit bis zu 32 GB VRAM und ECC-Fehlerkorrektur für den professionellen Anwender gedacht und „Arc Pro B65“ ist eine leistungsstarke Mittelklasse-Option für Workstations. Beide basieren auf der „Xe2“-Architektur. Mit „Crescent Island“ planen wir für das zweite Halbjahr eine „Xe3P“‑basierte Datacenter‑GPU. Sie wird bis zu 160 Gigabit LPDDRR5X-Speicher besitzen. Gedacht ist sie für AI-Inferenz-Anwendungen, für Tokens- as-a-Service in Air-Cooled Rechenzentren.

Warum müssen es relativ energiefressende GPUs sein, die als Beschleuniger dienen?

Anil Nanduri: Alle KI-Rechnerei, ausgehend von Modell-Training, basiert auf einer Metrik-Multiplikation. Und GPUs sind gut darin diese parallel abzuarbeiten. CPUs sind gut im sequenziellen Mapping.

Jetzt erfolgt der Übergang zu den Inferenzanwendungen. Und war es zunächst wichtig, das beste Modell und dafür die meiste Compute-Power zu haben, das heißt: die schnellste Rechenleistung bei dem größtmöglichen Einsatz an Daten beziehungsweise N-1-Server, spielen nun auch andere Faktoren eine wichtige Rolle, etwa das Networking, Vendor Lock-in, die Orchestrierung heterogener Hardware, Energie und Kühlung, Memory sowie die Versorgungs- Komponenten und System-Kosten. Mit anderen Worten: Es wird eine größere Differenzierung stattfinden.

Allerdings werden bisher noch immer sehr leistungsstarke Rechner gebraucht und die GPUs verschaffen den Nutzern eine große Flexibilität.

Zugleich sagen Sie, dass die CPU wieder eine größere Rolle einnehmen wird, wieder an Bedeutung gewinnt.

Anil Nanduri: Ja. Und das hat auch mit den Software-Agenten zu tun, die Tag und Nacht, ohne Unterbrechung, als Team miteinander agieren werden, KI-Agenten mehr und mehr Komponenten ansprechen, die zeitlich versetzt agieren müssen. Bandbreite, CPUs, GPUs , Memory und Storage geraten unter Stress. Die CPU wird die vielen verteilten Aufgaben, inklusive der GPUs koordinieren müssen. Das können GPUs nicht.

Doch das Inferenz-Zeitalter entwickelt sich erst - derzeit mit dem Faktor 1000 - und das lässt Spielraum für viele Hardware-Spielarten. Google hat beispielsweise TPUs im Einsatz. Diese sind keine GPUs. Schon jetzt wird sichtbar, dass der Anwender eine Wahl hat und noch mehr haben wird.

Was bedeutet es, wenn Sie heute sagen: „Das Netzwerk ist der Computer“?

Anil Nanduri: Zum einen brauchen wir hohe Bandbreite, effizienten zuverlässigen Datentransfer. Die Antwort darauf ist XPU Scale-up mithilfe vom Memory-Sharing bei hoher Bandbreite. Das Mittel der Wahl ein Ethernet-Scale-up. Dafür gibt es den OCP-Workstream SUE-T; die Abkürzung steht für Scale‑Up Ethernet Transport. Viele GPUs und andere Acceleratoren sollen wie ein großer Rechner zusammenarbeiten können.

Diese Spezifikationen gehören eng zum Ethernet for Scale-up Networking (Esun), dem OCP‑Rahmen für Switching und Framing. Ziel ist es, wie schon gesagt, Ethernet so zu optimieren, dass innerhalb eines Racks oder Pods, zwischen vielen GPUs/XPUs - 8 bis 256+ -, sehr geringe Latenz, hohe Bandbreite und deterministisches Verhalten lieferbar ist.

Für das Scale-Out beziehungsweise für die Möglichkeit, 1 Million und mehr Akzelleratoren über verschiedene Rechenzentren hinweg zu verbinden, steht „Jericho4“. Dazu gehören Distanzen von mehr als 100 Kilometern , integrierte Line Rate Verschlüsselung sowie eine End-to-End-Überlastungskontrolle.

Halbe und ganze Elefanten im Raum

Wenn die Recheneinheit weder ein Server, noch ein Rack sondern ein Rack mit doppelter Breite mitsamt Cooling-Einheit und Power-Sidecar ist, dann ist sie schwer - im wahrsten Sinne. Es stellt sich die Frage, wer kann das Datacenter-Equipment noch bewegen und wie?

Da kommen Roboter ins Spiel. Doch die müssen speziell sein; denn sie müssen durch enge Türen und Rack-Gassen, müssen Lücken füllen und beim LKW die Lasten sicher aufnehmen können. So müssen die Roboter nicht nur KI haben, sondern auch Sensoren, die ihnen Orientierung bieten aber auch Auskunft über den eigenen Zustand erteilen. Sie müssen Schnittstellen haben, alarmieren können und zu reparieren sein.

Die DS Automation GmbH und die Grenzebach Maschinenbau GmbH haben sich darauf spezialisiert. Vor Ort haben Wolfgang Hillinger, CEO des erstgenannten, mit Sven Schreiner, CSO des zweiten Unternehmens, mit Eric Xu, Senior Robotics ENG Manager bei der Meta Platforms Inc. diskutiert.

Bildergalerie
Bildergalerie mit 41 Bildern

'Mal ist von einem halben, 'mal von einem ganzen Elefanten die Rede gewesen. So ist ein „ORv3“-Rack mit den Maßen 24x42-90" rund 1600 Kilogramm schwer, ein ORW mit den Maßen 48x48x94"" wiegt hingegen 5.200 Kilogramm. Klar ist, dass Menschen weder das eine noch das andere Gewicht bewegen können, noch ein Doppelboden die geeignete Grundlage abgibt. Ein afrikanisches Elefantenweibchen wiegt zwischen 2500 und 3000 Kilogramm, ein Männchen 4000 bis 6500 Kilogramm, in Ausnahmen bis zu 7500 Kilogramm.

Außerdem muss es schnell gehen. Xu bemerkt: „Die Einführung von KI ist ein Sprint mit hohem Einsatz. Der entscheidende Engpass ist die Zeitspanne zwischen der Ankunft des Racks und der Inbetriebnahme des Clusters. Diese Zeitspanne bestimmt die Zeit bis gerechnet werden kann.“

Mein Eindruck

Auf den früheren OCP-Konferenzen konnte man die erste Management-Liga auf der Bühne sehen und die Ausstellung war klein. Es war ein elitärer Club.

Doch die Open Compute Foundation wollte wachsen. Das hat sie geschafft; auf dem Summit in den USA konnte sie mehr als 13.000 Besucher zählen. Die Events werden mehr, die Ausstellungsstände füllen sich mit Verkäufern, die die Techies ersetzen, und die erste Tech-Riege macht sich rar.

Und dennoch: Wer sehen will, wie die Zukunft gestrickt wird, ist hier richtig aufgehoben. Die Geschwindigkeit, die OCP bei den Spezifikationen vorgibt - denn Standards setzt die Foundation nicht - ist nach wie vor atemberaubend und ganz sicher oft dem Markt vorweg.

So wäre jedes der vorgestellten Projekte mindestens einen Artikel wert. Aber leider, liebe Leser und Leserinnen, kann ich das nicht leisten. Allerdings können Sie sicher sein, dass noch viele der Zukunftsthemen aufgegriffen werden. Das ist meine ureigene Spezifikation.

Ulrike Ostler

Artikelfiles und Artikellinks

(ID:50833506)