Gerade hat Nvidia Racks, die 600 Kilowatt (kW) verkraften sollen, für die nicht allzu ferne Zukunft in Aussicht gestellt. Gedacht sind diese für Anwendungen der Künstlichen Intelligenz. Ampere Computing, derzeit ein Übernahmekandidat, hat sich seit jeder als Cloud- und KI-Plattformgeber positioniert, der ohne (Nvidia-) GPUs und Flüssigkühlung auskommt. Wie soll das funktionieren, Herr Wittich?
Im Sommer des vergangenen Jahres hat Ampere den neuen 512-Kern-Prozessor „Ampere One Aurora“ in seine Roadmap auf genommen.
(Bild: Ampere Computing)
Wie positioniert sich Ampere im Wettbewerb um Leistung, Energie-Effizienz und die verschiedenen Cloud- und Serviceniveaus?
Der Interviewpartner Jeff Wittich ist Chief Product Officer bei Ampere Computing. Er hat als strategische Führungskraft mehr als 20 Jahren Erfahrung in der Halbleiterindustrie. Bevor ich zu Ampere kam, war ich für das Cloud Platform Business von Intel verantwortlich und leitete ein Produktentwicklungsteam, das für 5 Generationen von Xeon-Prozessoren zuständig war. Er konzentriert sich auf die Umsetzung von Strategien und die Ausrichtung von Ressourcen, die die Geschäftsanforderungen des Unternehmens unterstützen und gleichzeitig den Kunden höchstmöglichen Wert bieten sollen. Über sein Team bei Ampere Computing spricht er als „erstklassigem Technologieteam“, das Cloud Native-Prozessoren für die nachhaltige Cloud entwickelt.
Bildquelle: Ampere Computing
Jeff Wittich: Während viele Wettbewerber ausschließlich auf maximale Leistung abzielen – unabhängig vom Energieverbrauch – verfolgt Ampere einen anderen Ansatz: höchste Leistung bei minimalem Energieverbrauch.
Ampere-Prozessoren benötigen bis zu 37 Prozent weniger Strom im Vergleich zu x86-basierten Alternativen. Gleichzeitig bieten sie eine Leistungssteigerung von bis zu 67 Prozent pro Rack, wodurch Rechenzentrumsbetreiber ihre vorhandenen Kapazitäten effizienter nutzen können, sowohl beim Stromverbrauch als auch beim Platzbedarf.
Für welche Workloads sind die mit Ampere ausgestatteten Systeme konzipiert und wer sind die Kunden?
Jeff Wittich: Ampere-Prozessoren sind optimal für Cloud- und KI-Workloads geeignet. Besonders für KI-Inferenz-Workloads sind sie gefragt, da sie diese Modelle effizient und kostengünstig ausführen können. Die 'Ampere A2 Compute Instances' in der 'Oracle Cloud' bieten zum Beispiel eine um bis zu 50 Prozent bessere Preis-Leistungs-Relation als x86-Systeme für generative KI-Modelle.
Die Kunden von Ampere reichen von großen Hyperscalern und Cloud-Providern bis hin zu Unternehmen und Edge-Anwendungen weltweit. Zu den Kunden zählen unter anderem Alibaba Cloud, Baidu, Equinix, Gcore, Google Cloud, Hetzner, Glesys, JD Cloud, Leaseweb, Microsoft Azure, Oracle, Scaleway, Tencent Cloud, Uber und Ucloud. Außerdem arbeitet Ampere mit führenden OEMs und ODMs wie Giga Computing, HPE und Supermicro zusammen.
Welche Maßnahmen ergreift Ampere zur Steigerung der Energie-Effizienz in Rechenzentren und zur Reduktion der CO₂-Emissionen?
Jeff Wittich: Seit der Gründung hat Ampere das Ziel, maximale Leistung bei minimalem Energieverbrauch zu bieten. Aktuelle Ampere-Prozessoren verbrauchen bis zu 37 Prozent weniger Strom als x86-Alternativen. Künftige Modelle mit 256 und 512 Kernen werden ebenfalls die Energie-effizientesten Chips auf dem Markt sein und sich in nahezu jedem Umfeld einsetzen lassen – auch in solchen mit beschränkten Kapazitäten. Damit reduziert Ampere den CO₂-Ausstoß von Rechenzentren weltweit und trägt dazu bei, dass unsere Stromnetze die für KI-Anwendungen notwendige Rechenleistung auch in Zukunft bewältigen können.
Wie sieht Ampere seine Position im Hinblick auf den Branchentrend hin zur Flüssigkeitskühlung, und welche Vorteile bietet die Kompatibilität mit Luftkühlung für Betreiber von Rechenzentren?
Jeff Wittich: Der Großteil der Rechenzentren setzt weiterhin auf Luftkühlung und wird dies auch zukünftig tun. 77 Prozent der Rechenzentren weltweit sind auf Racks unter 20 kW beschränkt und profitieren daher nicht von der höheren Dichte, die Flüssigkeitskühlung ermöglicht.
Außerdem ist der Umstieg auf Flüssigkeitskühlung in bestehenden Rechenzentren mit umfangreichen und kostspieligen Infrastrukturänderungen verbunden, was für viele Betreiber keine Option ist. Die Lösung für das globale Energieproblem muss daher universell einsetzbar sein, unabhängig von den thermischen Kühlmöglichkeiten vor Ort. Chips müssen in Umgebungen mit Flüssigkeits- und Luftkühlung gleichermaßen funktionieren.
Auch wenn Flüssigkeitskühlung künftig für Hochleistungskomponenten sinnvoll sein kann, bleibt es entscheidend, dass die Hardware so wenig Energie wie möglich verbraucht. Selbst wenn die Kühlung gesichert ist, bedeutet das nicht automatisch, dass auch genügend Strom zur Verfügung steht.
Die Produkte von Ampere sind so konzipiert, dass sie nicht nur in flüssigkeitsgekühlten Rechenzentren der Zukunft, sondern auch in allen heute bestehenden luftgekühlten Rechenzentren eingesetzt werden können. Ampere löst somit Effizienzprobleme für alle Rechenzentren, nicht nur für einen Teilbereich.
Wie bewältigen die Ampere-Prozessoren, darunter der zukünftige 'Ampere One Aurora'-Prozessor, die Anforderungen von KI-Workloads und bleiben dabei umweltfreundlich?
Jeff Wittich: Bereits heute senken die Prozessoren der 'Ampere Altra'- und 'Ampere One'-Serien den Energieverbrauch für KI-Modelle, ohne Kompromisse bei der Leistung einzugehen – ein entscheidender Beitrag zu einer nachhaltigen Zukunft.
Der kommende 'Ampere One Aurora'-Prozessor wird mit bis zu 512 Rechenkernen und einer integrierten Ampere KI-Hardware-IP ausgestattet sein, um auch die größten KI-Modelle effizient zu beschleunigen. Er wird die führende Leistung pro Rack für KI-Computing liefern und gleichzeitig überall auf der Welt in bestehenden Rechenzentren – von der Public Cloud über Unternehmensumgebungen bis hin zu Edge-Installationen – einsetzbar sein. Dies ist ein wichtiger Schritt zur Lösung der globalen Energieprobleme im Bereich der KI.
Wie stellt sich Ampere die Zukunft der Rechenzentren hinsichtlich Nachhaltigkeit und KI vor?
Jeff Wittich: Da KI-Modelle in der Inferenzphase zunehmend genutzt werden, steigt der dafür benötigte Gesamt-Compute-Bedarf um bis zu das Zehnfache im Vergleich zur Trainingsphase. Angesichts der bereits stark beanspruchten Stromnetze ist es entscheidend, die Energieversorgung für die Zukunft der KI-Inferenz nachhaltig zu gestalten und über Energie-intensive GPUs hinauszudenken.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Ampere sieht die Zukunft des KI-Computings in Energie-effizienten, leistungsstarken CPUs, die flexibel KI-Leistung mit hoher Effizienz bereitstellen. Damit können Rechenzentrumsbetreiber ihre bestehende Infrastruktur in Bezug auf Fläche, Stromverbrauch und Budget besser nutzen, was gleichzeitig die Notwendigkeit neuer Rechenzentren und Kraftwerke verringert und zu einer nachhaltigeren KI-Nutzung beiträgt.
Die Prozessoren von Ampere
Das Silizium von Ampere ist für Rechenzentrumsumgebungen mit hoher Dichte konzipiert. Es konkurriert nicht nur mit dem kernlastigem „AMD Epyc Bergamo“ und dem „Intel Sierra Forest“-Prozessor, sondern auch mit einer Vielzahl von kundenspezifischem Prozessoren, die derzeit von führenden Hyperscalern produziert werden.
Ampere konzentriert sich nach eigenen Angaben auf Core-Density-Designs, aber sein besonderer Fokus auf die Bereitstellung von Chips für luftgekühlte Umgebungen ist ein weiteres wichtiges Wertversprechen - Ampere sagt, dass trotz der Tatsache, dass 1mW-Racks am Horizont zu sehen sind, da die Industrie weiterhin nach leistungsfähigerem Silizium auf Kosten eines unersättlichen Stromverbrauchs strebt,
77 Prozent der derzeit eingesetzten Racks lägen immer noch unter 20 kW liegen und die Hälfte unter 10 kW.Bis jetzt ist die Luftkühlung preislich viel günstiger als die Flüssigkeitskühlung, daher hat sich Ampere stark auf die Energie.Effizienz konzentriert, was die Kühllast reduziert.
Das jüngste Design von Ampere Computind Ampere ist der 512-Kern-Prozessor. Der Chip verfügt über kundenspezifische ARM-Kerne und ein kundenspezifisches Mesh- und Die-to-Die-Interconnect. Er unterstützt HBM-Speicher und die KI-Beschleunigungsblöcke der nächsten Generation von Ampere.