GPU-Boom, 3-Rack-Clouds und KI als Autonomiegarant Cameron Bahar (Oracle): anhaltende Cloud-Migration fordert mehr Rechenzentren

Von Daniel Schrader 8 min Lesedauer

Anbieter zum Thema

Oracle forciert den Ausbau seiner Cloud-Infrastruktur mit modularen Rechenzentren, konzentrierten GPU-Farmen und hybriden Modellen. Wir sprachen mit Cameron Bahar, SVP Oracle OCI (Oracle Cloud Infrastructure), über Stromknappheit, den europäischen Markt und die Perspektiven verteilter KI-Lasten.

Cameron Bahar erklärt auf der „Oracle CloudWorld Tour“ in München (8. April 2025) die „Dedicated Regions“ der Oracle Cloud. (Bild:  Axel Griesch // Oracle)
Cameron Bahar erklärt auf der „Oracle CloudWorld Tour“ in München (8. April 2025) die „Dedicated Regions“ der Oracle Cloud.
(Bild: Axel Griesch // Oracle)

Larry Ellison, Oracle-Gründer und CTO, hat im September angekündigt, dass Sie ein Rechenzentrum mit einem Gigawatt Leistung auf Basis von Atomkraft bauen wollen – und dafür in drei kleine Reaktoren investieren. Wie weit ist das Projekt?

Cameron Bahar: Das sind zukunftsgerichtete Aussagen. Zum Thema Atomkraft kann ich nicht ins Detail gehen, aber offensichtlich ist: Der Strombedarf für den Ausbau von KI-Rechenzentren ist enorm, und es ist eine große Herausforderung, ausreichend Energie zu beschaffen. Deshalb prüfen wir alle verfügbaren Energiequellen. Wie Larry erwähnt hat, ist Atomenergie eine Option, aber eben eine für die Zukunft. In erster Linie setzen wir derzeit auf Elektrizität und teilweise auch auf Gas, wo es verfügbar ist. Das ergänzt dann die Stromversorgung. Das sind unsere hauptsächlichen Energiequellen. Wir bauen derzeit viele neue [Oracle Cloud-]Regionen auf und wachsen sehr schnell – Energie ist dabei ein zentrales Thema.

Offensichtlicher Strommangel ist eine Seite der Medaille. Andererseits ist Kernenergie letztlich nicht erneuerbar – von Gas ganz zu schweigen. Wie passt das zum Versprechen von Oracle, auf erneuerbare Energiequellen zu setzen? Sehen Sie eher ein vorübergehendes Zugeständnis angesichts der Stromknappheit oder sucht Oracle nach einem neuen Kurs?

Cameron Bahar: Ich bin kein Energieexperte bei Oracle und kann nicht Einzelheiten adressieren. Aber unser Engagement für saubere Energiequellen bleibt bestehen. Wir nutzen in den USA und überall auf der Welt die Energieträger, die lokal verfügbar sind. Wir arbeiten mit Rechenzentrumsanbietern und Immobilienunternehmen zusammen, die über viel Erfahrung in der Energieversorgung verfügen. Über diese Partnerschaften nutzen wir [Strom], achten aber gleichzeitig darauf, dass unser Bekenntnis zu sauberer und nachhaltiger Energie eingehalten wird.

Heißt das, dass bei Ihrer aktuellen Expansion – Sie bauen gerade 100 neue Rechenzentren weltweit – Oracle weiterhin eher Partnerschaften mit etablierten Datacenter-Entwicklern verfolgt? Wie ist es mit der Bereitschaft, stärker selbst zu bauen?

Cameron Bahar: Wir verfolgen einen hybriden Ansatz. Aber ja, wir investieren zunehmend auch direkt in den Bau eigener Rechenzentren. Der Großteil stammt derzeit noch von Drittanbietern – wie in unserer bisherigen Infrastruktur. Aber wenn man in die Zukunft blickt, das haben wir auch angekündigt, gibt es ein klares Bekenntnis, stärker in selbstgebaute Datacenter zu investieren.

Erweist sich dabei das modulare, architektonisch identische Datacenter-Design, das Larry Ellison betont, weiterhin als ein Vorteil beim globalen Ausbau? Wie anpassungsfähig zeigt es sich in sehr diversen lokalen Bedingungen?

Cameron Bahar: Unser Fokus liegt stark auf den Aspekten Compute, Netzwerk und Speicher – also auf der technologischen Effizienz des modularen Aufbaus. Solange die physischen Anforderungen an Stromversorgung, Kühlung und Luftführung erfüllt sind, greift unser modularer Ansatz. Dann können wir auf modularen Bausteinen aufbauen – über die Bündelung von Netzwerk, Compute und Speicher in Pods. Und diese Pods lassen sich beliebig skalieren.

In einem großen GPU-Cluster, etwa mit 128.000 GPUs, verketten wir dann viele dieser Pods. Die Effizienz ergibt sich so nicht direkt aus dem Gebäude selbst, aber wir haben klare Anforderungen an das Gebäude: an Strom pro Rack, die Luftführung, die Kühlung und die Kompatibilität mit Flüssigkeitskühlung, an Backup-Batteriespeicher. Wenn diese Anforderungen erfüllt sind, können wir sogar auf nur drei Racks heruntergehen – und dann nach Bedarf stufenlos skalieren.

Inferenzlasten werden sich verteilen, die Nachfrage nach GPU-Farmen steigt trotzdem

Stichwort leistungsstarke GPU-Cluster: Sie sind damit auf dem Weg, ausschließlich Flüssigkeitskühlung einzusetzen?

Cameron Bahar: Ja, einige der neuesten Nvidia-GPUs setzen zwingend Flüssigkeitskühlung voraus. Das heißt: Rechenzentren, die wir nutzen wollen, müssen diese Fähigkeit mitbringen.

Sie betonten zuvor Skalierbarkeit. Sehen Sie das weitere Wachstum hochkonzentrierter GPU-Datacenter als langfristig tragbar? Inwiefern werden wir eine stärkere Verteilung von KI-Rechenlasten sehen?

Cameron Bahar: Large Language Models (LLMs) erfordern nach wie vor zentralisierte, riesige GPU-Farmen – mit 20.000 oder 50.000 GPUs. Diese lassen sich nicht einfach dezentral betreiben. Inferenz-Workloads dagegen lassen sich gut verteilen – idealerweise in Kundennähe mit geringer Latenz. Dank unserer verteilten Cloud-Architektur können wir schnell kleinere Regionen aufbauen, wo es Bedarf gibt – ähnlich einem CDN (Content Delivery Network) mit hunderten PoPs (Points of Presence), die mit der Zentrale verbunden sind. Diese Edge-Infrastruktur wird eine Schlüsselrolle für Inferenz spielen.

Wir rechnen mit vielen neuen Edge-Standorten für Inferenz. Wir befinden uns erst in Anfängen der Inferenzphase – momentan dominieren noch die Trainingsprojekte großer Anbieter, die ihre Modelle weiterentwickeln. Dass wir die Cloud auf nur wenige Racks verkleinern können, erlaubt es uns aber bereits, eine kleine Region oder eine einzelne Zelle sehr nahe an der Nutzung bereitzustellen – ob auf einer Ölplattform, in einer Bank oder in bestimmten geographischen Regionen.

Das unterscheidet OCI von anderen Cloud-Anbietern, die üblicherweise wenige große Regionen betreiben. Wir hingegen bringen die Cloud dorthin, wo der Kunde sie braucht – und das hilft auch der Nachhaltigkeit, weil man die Rechenlast über den Planeten verteilen kann, statt punktuell große Mengen Strom zu verbrauchen.

Cloud-Adaption schreitet auch in Europa voran

Ich habe – vielleicht überschwängliche –Prognosen gesehen, denen zufolge mit dem Wechsel zu mehr Inferenz der Bedarf an roher Rechenleistung doch fallen wird. Was beobachten Sie?

Cameron Bahar: Wir sehen keine Anzeichen für eine Verlangsamung oder einen Umschwung. Die Nachfrage nach LLM-Training ist enorm. Auch LLM-Entwickler betonen, dass sich die Algorithmen ständig weiterentwickeln – und dann neu trainiert werden müssen. Wir sehen also eine steigende Nachfrage und das Modelltraining dominiert weiterhin deutlich.

Oracle hat kürzlich Investitionen in Höhe von fünf Milliarden Dollar für Rechenzentren im Vereinigten Königreich angekündigt. Heute sprachen Sie auch von anderen Investitionen in Europa – allerdings ohne Details. Kann man die Großbritannien-Ankündigung so interpretieren, dass der Datacenter-Markt in der EU für Oracle abkühlt? Sind regulatorische Vorgaben ein Faktor?

Cameron Bahar:Wir investieren weiterhin stark und verzeichnen eine große Nachfrage. Wir expandieren weltweit mit 170 neuen Regionen – ein wichtiger Teil davon wird in der EU entstehen. Das ist organisches Wachstum und Europa ein zentraler Bestandteil davon.

Also aus Ihrer Sicht eher eine Frage des Adoptionsgrads als struktureller Hürden?

Cameron Bahar: Ja. Wir sehen einen natürlichen Übergang von On-Premises in die Cloud. Wir haben große Kunden, die jedes Jahr etwa 30 Prozent ihrer Workloads in die OCI-Cloud verlagern und mittlerweile geschäftskritische Prozesse bei uns betreiben. Wir können ihnen Performanz und den richtigen Preis garantieren, so dass es sich für sie lohnt, zu migrieren. Wo auch Multinationals mit einem großen Kundenstamm in der EU zu uns wechseln, müssen wir Rechenzentren in Europa ausbauen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Ich sehe hier ein organisches Wachstum. Wohl etwa 70 Prozent der Workloads werden weiterhin On-Premises ausgeführt. Wenn Sie eine Oracle-Datenbank mit Latenz- und Verfügbarkeitsanforderungen betreiben, ist der Wechsel zu einem Hyperscaler oft schwierig. Viele versuchen es – und kehren dann zurück. Wir hingegen können nicht nur Latenzen, sondern auch eine vertraglich vereinbarte Performance garantieren, weil wir auf Effizienz optimieren und dann stufenlos skalieren können.

Ist die Adoption maßgeschneider OCI-Clouds in Europa zurückhaltender?

Sie betonen also primär Effizienz als Argument. Zugleich verspricht Oracle auf lokale Bedürfnisse und regulatorische Vorgaben zugeschnittene Lösungen – etwa die „EU Sovereign Cloud“ und die „Dedicated Regions“. Wenn Sie mit europäischen Kunden sprechen, welches Argument zieht eher?

Cameron Bahar: Es ist die Flexibilität Ihnen das bereitzustellen, was Sie brauchen und wo Sie es brauchen. Wenn Sie eine allgemeine Anwendung ohne besondere Anforderungen betreiben, können Sie unsere Public-Cloud-Regionen nutzen – viele davon in Europa. Wenn Sie wollen, dass Daten in der EU bleiben, greifen Sie zur Sovereign Cloud. Dafür bieten wir eine abgeschottete Umgebung, in der keine Daten die EU verlassen.

Sie können auch sagen: „Ich bin das deutsche Verteidigungsministerium und brauche restriktive Zugriffskontrollen – auch für Geheimdienstaufgaben“. In diesem Fall richten wir eine Dedicated Region ein – mit dem gleichen Funktionsumfang, aber komplett eigenständig mit eigenen kryptografischen Schlüsseln. Das gilt auch für Staaten, die ihr gesamtes Gesundheitswesen in einer Dedicated Region verwalten wollen. Andere Kunden bauen dann das Rechenzentrum auf einen Berg, um auf Nummer sicher zu gehen.

Letztlich gibt es auch solche Kunden, die eine eigene Cloud ohne Oracle-Branding anbieten wollen. Auch das geht mit „Alloy“. Partner wie Telkos oder Consultingunternehmen können so ihren Kunden unsere Cloud unter eigenem Namen und mit eigenen Mehrwertdiensten anbieten. Sie gestalten das Angebot, müssen sich aber nicht um den Unterbau kümmern.

Dedicated Regions und Alloy scheinen mir in Asien und im Nahen Osten deutlich mehr Kunden als in Europa zu finden. Was ist dafür ausschlaggebend?

Cameron Bahar: Ich denke das nimmt an Fahrt auf. Vodafone betreibt mehrere vernetzte Dedicated Regions, Telecom Italia (TIM) hat eine, genauso wie eine Schweizer Vermögensverwaltung. Sobald die ersten positiven Referenzen da sind, ziehen andere mit. Und das Drei-Rack[-Modell] erlaubt es nun auch, deutlich einfacher [eine Dedicated Region] in jedes bestehende Rechenzentrum zu integrieren. Was auch immer Bedenken gewesen sein könnten - jetzt ist es viel leichter geworden, [das Angebot] ohne große Hürden auszuprobieren. Wir werden hier also, denke ich, eine klare Beschleunigung sehen.

Sie versuchen damit also eher technische Bedenken auszuräumen. Wie begegnen Sie Kunden, die xstattdessen Bedenken darüber haben, inwieweit sie „ihre“ dezidierte Cloud wirklich kontrollieren – schließlich stellt Oracle Hardware, Software und Updates?

Cameron Bahar: Die physische Kontrolle über die Cloud verbleibt stets beim Kunden. Dieser definiert die Grenzen.

Um es zuzuspitzen: Sie könnten die Cloud jederzeit abschalten…

Cameron Bahar: Wir haben klare Regeln, wann sich Oracle [für Updates] einloggen kann. Der Kunde könnte den Zugriff auch blockieren – etwa in besonders sensiblen Zeiträumen. Wir haben solche Beispiele im Bankensektor: während der Handelsverkehr läuft, können wir keine Patches einspielen.

Aber grundsätzlich ist es ein Abwägen, wenn man eine effiziente Infrastruktur nutzen will. Für die meisten Kunden, mit denen wir sprechen, ist das kein entscheidender Differenzpunkt. Man könnte sich ja auch beim Autofahren fragen: Wie viel Kontrolle habe ich über meinen BMW? Mit einem Software-Update könnte mir der Hersteller diesen abschalten… Dann müsste ich aber hingehen und selbst einen Motor bauen. [Entscheidend] ist aber [in unserem Fall] die Tatsache, dass man alles eigenständig operieren kann.

Zudem erleben wir eine Entwicklung – wir sind noch nicht ganz am Ziel und investieren etwa viel in Automatisierung. Ich kann mir gut vorstellen, dass künftig ein KI-Agent für Sie Updates testen und automatisiert einspielen könnte. In fünf oder zehn Jahren sind wir dann vielleicht soweit, dass wir die Kontrolle darüber weitgehend an die Kunden übergeben können.

Also KI als Technologie, die gerade ein Mehr an Autonomie ermöglicht?

Cameron Bahar: Genau: mehr Autonomie und nicht weniger.

(ID:50385571)