Städte, Produkte und die Welt insgesamt werden zunehmend digital, und es wird mehr Rechenleistung benötigt, um dieser Entwicklung Rechnung zu tragen. Die Optimierung der bestehenden Rechenzentrumsinfrastruktur, um mehr Leistung herauszuholen, ist die beste Möglichkeit für Rechenzentrumsbetreiber, diese Einschränkungen in einen Wettbewerbsvorteil zu verwandeln.
Der Bedarf an Rechenleistung steigt, doch es ist wichtig, den wachsenden Bedarf mit Nachhaltigkeitszielen in Einklang zu bringen, sagt 'AMD-Epyc-Guy' Alex Troshin.
(Bild: AMD)
Im Zeitalter von Cloud Computing und künstlicher Intelligenz ist der Bedarf an Rechenleistung sprunghaft angestiegen. Eine Folge ist die signifikante Zunahme an Rechenzentren weltweit. Doch neue Rechenzentren sind oft eine Herausforderung in puncto Nachhaltigkeit, Platz und Budget.
Politische Entscheidungsträger wissen um die Vorteile von Rechenzentren für Produktivität, Wirtschaftswachstum und Forschung, dennoch gibt es regelmäßig Debatten um ihre Auswirkungen auf die Region, Wasser- und Stromverbrauch. Die beste Lösung besteht folglich darin, die bestehende Rechenzentrumsinfrastruktur zu optimieren, um mehr Leistung zu erzielen, ohne dabei physische Grenzen zu vernachlässigen.
CIOs und IT-Führungskräfte sehen sich zunehmend mit der Notwendigkeit konfrontiert, eine hochleistungsfähige IT-Kerninfrastruktur für ihr Unternehmen bereitzustellen und neue, anspruchsvollere Anwendungen zu unterstützen. Gleichzeitig müssen sie Nachhaltigkeitsverpflichtungen, Platz- und Budgetbeschränkungen berücksichtigen. Viele sind bestrebt, neue Rechenzentren zu bauen, um den Bedarf zu decken, und diese mit Energie-effizienten Technologien zu kombinieren, um die Auswirkungen auf die Umwelt zu minimieren.
Effizient zu sein, reicht nicht
So wird beispielsweise der Supercomputer „Lumi“ (Large Unified Modern Infrastructure) (siehe: Der Lumi Supercomputer; Der leistungsstärkste Rechner Europas steht in Finnland), einer der leistungsstärksten in Europa, zu 100 Prozent mit emissionsfreier Energie aus Wasserkraft betrieben, und seine Abwärme wird zum Heizen von Häusern in der nahe gelegenen finnischen Stadt Kajanni genutzt.
Es gibt viele weitere Beispiele wie Lumi, die zeigen, dass die Rechenzentrumsindustrie erhebliche Fortschritte bei der Energie-Effizienz gemacht hat. Diese Energie-Effizienz allein wird jedoch nicht ausreichen, um den wachsenden Bedarf an künstlicher Intelligenz zu decken, der die Speicherkapazität von Rechenzentren in die Höhe treiben dürfte. Laut IDC („EMEA Infrastructure Market Overview“, 3Q24, doc #EUR152335525, Februar 2025) wuchs der Markt für externe Speichersysteme in der EMEA-Region im dritten Quartal um 3,6 Prozent, während der Markt für Unternehmensserver in der EMEA-Region mit 25,0 Prozent ebenfalls stark zulegte.
Der höhere Energiebedarf der KI erfordert auch Energie-effizientere Designs, um die Skalierbarkeit zu gewährleisten und Umweltziele zu erreichen. Da Rechenzentrumsfläche, verfügbares Bauland und Stromnetze an ihre Grenzen stoßen, besteht eine Möglichkeit zur Optimierung des Designs darin, alte Server zu ersetzen.
Rechenzentren sind teure Investitionen, und einige CIOs und IT-Manager versuchen, die Kosten wieder hereinzuholen, indem sie ihre Hardware so lange wie möglich nutzen. Infolgedessen verwenden die meisten Rechenzentren immer noch Hardware, die zehn Jahre alt ist (Dell), und erweitern die Rechenleistung nur, wenn es absolut notwendig ist.
Auch wenn der Bau neuer Rechenzentren zuweilen nötig sein mag, gibt es umfassende Möglichkeiten, die bestehende Infrastruktur aufzurüsten. Ein Upgrade auf neuere Systeme bedeutet, dass Rechenzentren die gleichen Aufgaben effizienter erledigen können.
Der wachsende Strombedarf
Die globale IT-Rechenzentrumskapazität wird von 180 Gigawatt (GW) im Jahr 2024 auf 296 GW im Jahr 2028 ansteigen. Dies entspricht einem durchschnittlichen Wachstum (CAGR) von 12,3 Prozent. Gleichzeitig wird der Energieverbrauch mit einer Rate von 23,3 Prozent von 397 Terawattstunden (TWh) auf 915 TWh im Jahr 2028 ansteigen.
AMD und Humain - und Nvidia
Humain ist eine KI-Tochtergesellschaft des saudi-arabischen Public Investment Fund mit Sitz in Saudi-Arabien. In der vergangenen Woche haben AMD und Human (und Nvdia) eine umfangreiche Zusammenarbeit angekündigt – im Wert von 10 Milliarden Dollar.
Das Geld ist für den Aufbau einer offenen und skalierbaren KI-Infrastruktur gedacht, die weltweit führend sein soll. Dazu werde es ein Netzwerk von AMD-basierten KI-Rechenzentren geben, das sich von Saudi-Arabien bis in die Vereinigten Staaten erstreckt. In den kommenden fünf Jahren werde die Infrastruktur rund 500 Megawatt an KI-Rechenkapazität bereitstellen, so die Ankündigung.
Die von AMD und Humain aufgebaute KI-Superstruktur werde in großem Umfang offen zugänglich und für den Betrieb von KI-Workloads in Unternehmen, Start-ups und staatlichen Märkten optimiert sein. Die End-to-End-Bereitstellung will Humain beaufsichtigen, einschließlich Hyperscale-Rechenzentren, nachhaltiger Energiesysteme und globaler Glasfaserverbindungen, und AMD wird das gesamte Spektrum des AMD KI-Rechenportfolios und das offene „AMD ROCm“-Software-Ökosystem bereitstellen.
Am 13. Mai hat AMD die Einführung der seiner Prozessorfamilie „Epyc 4005“ bekannt gegeben. Diese Prozessoren ermöglichen Systeme unterschiedlicher Größe mit Funktionen der Enterprise-Klasse auszustatten.
(Bild: AMD)
Lisa Su, Vorsitzende und CEO von AMD, sagt dazu: „Wir bei AMD haben die kühne Vision, die Zukunft der KI überall zu ermöglichen, indem wir jedem Entwickler, KI-Start-up und Unternehmen auf der ganzen Welt offenes Hochleistungs-Computing zur Verfügung stellen.“ Die Investition in Humain sei ein wichtiger Meilenstein bei der Förderung der globalen KI-Infrastruktur. „Gemeinsam bauen wir eine global bedeutsame KI-Plattform auf, die Leistung, Offenheit und Reichweite auf einem noch nie dagewesenen Niveau bietet“, so Su.
Tareq Amin, CEO von Humain, fügt hinzu: „Dies ist nicht nur ein weiteres Infrastrukturangebot - es ist eine offene Einladung an die Innovatoren der Welt. Wir demokratisieren die KI auf der Rechenebene und stellen sicher, dass der Zugang zu fortschrittlicher KI nur durch die Vorstellungskraft und nicht durch die Infrastruktur begrenzt wird.“
Die ersten Implementierungen sind bereits im Gange, und die Zusammenarbeit ist auf dem besten Weg, bis Anfang 2026 Multi-Exaflop-Kapazitäten zu aktivieren. Dazu gehörten auch die Energieressourcen des Königreichs, KI-bereite Arbeitskräfte und zukunftsweisende nationale KI-Politiken sowie:
„AMD Instinct“-GPUs mit Speicher- und Inferenzleistung
AMD Epyc-CPUs für Rechendichte und Energie-Effizienz
„AMD Pensando“-DPUs für skalierbare und programmierbare Netzwerke
„AMD Ryzen-AI“ für KI-Rechenleistung an der Edge
AMD ROCm offenes Software-Ökosystem mit integrierter Unterstützung für alle KI-Frameworks wie Pytorch und SGLang
Nvidia im Boot
Übrigens stellt Nvidia ebenfalls KI-Technik bereit. In der ersten Phase wird es sich um einen „Nvidia GB300 Grace Blackwell“ KI-Supercomputer mit 18.000 der GB300-Chips und dem Nvidia-Infiniband-Netzwerk handeln.
Au0erdem wird Humain die „Nvidia Omniverse“-Plattform als mandantenfähiges System einsetzen, um die Beschleunigung der neuen Ära der physischen KI und Robotik durch Simulation, Optimierung und Betrieb physischer Umgebungen durch neue, von Menschen gesteuerte KI-geführte Lösungen voranzutreiben. Dies wird es Branchen wie Fertigung, Logistik und Energie ermöglichen, vollständig integrierte digitale Zwillinge zu erstellen, die Effizienz, Sicherheit und Nachhaltigkeit zu steigern und gleichzeitig den Weg des Königreichs zur Industrie 4.0 zu beschleunigen.
Schließlich werden Humain und Nvidia bei groß angelegten Weiterbildungs- und Schulungsinitiativen zusammenarbeiten und Tausenden von saudischen Bürgern und Entwicklern praktische Erfahrungen in fortschrittlichen KI-, Simulations-, Robotik- und digitalen Zwillingstechnologien vermitteln.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Für alternde Rechenzentren bedeutet höhere Effizienz, dass bei gleicher Rechenkapazität weniger Racks und Systeme verwaltet werden müssen. Dies kann erheblichen Spielraum für künftige IT-Anforderungen schaffen, bietet aber auch Raum für Experimente, die derzeit für KI-Workloads unbedingt erforderlich sind.
Der Platz kann genutzt werden, um kostengünstigere Proof-of-Concept-Half-Racks zu bauen, bevor größere Erweiterungen vorgenommen werden. Auch können neue hocheffiziente Chips eingesetzt werden, um den Energieverbrauch und die Anforderungen an die Kühlung zu senken und die Investition schneller zu amortisieren.
Was gilt es bei einem Upgrade zu beachten?
Bei einem Server-Upgrade sind viele Faktoren zu berücksichtigen, und es gibt keine Patentlösung dafür. Es geht nicht nur darum, den leistungsstärksten Chip zu kaufen, der ins Budget passt. Zwar sollte die Bedeutung eines guten Chips für die Energie-Effizienz nicht unterschätzt werden, aber jedes Rechenzentrum hat andere Anforderungen – mit Implikationen für Hardware und Software – die es für einen möglichst effizienten Betrieb benötigt.
Criteo, ein Unternehmen für digitale Werbung, stand beispielsweise vor der Herausforderung, die Anzahl der digitalen Werbeanzeigen in Echtzeit zu erhöhen und gleichzeitig den Stromverbrauch zu senken. Durch den Einsatz von „AMD Epyc“-Prozessoren der vierten Generation konnte das Unternehmen mit der Hälfte der Server, die das Unternehmen im Jahr 2020 im Einsatz hatte, 16-mal mehr digitale Echtzeit-Werbeangebote verarbeiten und gleichzeitig die Stromverbrauchslimits des Rechenzentrums pro Rack einhalten.
Die neue Prozessorserie Epyc 4005
In der vergangenen Woche hat AMD Prozessoren der „Epyc 4005“-Serie vorgestellt, die auf der AMD „Zen 5“-Architektur basieren. Sie sollen insbesondere Leistung für für Einsteiger-Server bereitstellen.
Die Prozessoren eigneten sich deshalb insbesondere für kleine Unternehmen und Hosted IT Service Provider, so AMD, und böten Unternehmensfunktionen zu einem guten Preisleistungsverhältnis. Zu den Highlights zählen:
Optimierung für Unternehmen, die an Einsteiger-Systemen interessiert sind: Die Prozessorserie bietet Leistung, Zuverlässigkeit und Effizienz in einem erschwinglichen, einfach zu implementierenden Paket für kleine und mittlere Unternehmen sowie Hosted IT Service Provider.
Kosteneffiziente Enterprise-Lösung: Der „AM5“-Sockel wird genutzt, um für Server unterschiedlichster Formfaktoren, auch Blades und Tower ausstatten zu können und dabei unnötige Funktionen und Komplexität zu vermeiden.
Die CPUs sind ab sofort erhältlich und werden von Partnern wie Altos, ASrock Rack, Gigabyte, Lenovo, MSI, OVHcloud und Supermicro unterstützt
.
Wie Criteo sollten IT-Entscheider nach Anbietern suchen, die eine End-to-End-Rechenzentrumsinfrastruktur in großem Maßstab bereitstellen können, indem sie leistungsstarke Chips, Netzwerke, Software und Systemdesign-Know-how kombinieren. Die richtigen physischen Racks machen es zum Beispiel einfach, neue Geräte auszutauschen, wenn sich die Anforderungen ändern.
Offene Software ist ebenso wichtig, damit die verschiedenen Teile des Software-Stacks von unterschiedlichen Anbietern miteinander kommunizieren können. Darüber hinaus sind Anbieter, die kontinuierlich in erstklassiges Systemdesign und KI-Systemfähigkeiten investieren, am besten positioniert, um die KI-Hardware- und Software-Roadmaps von Unternehmen zu beschleunigen.
*Der Autor Alex Troshin, genannt: The Epyc-Guy, ist Product Marketing Manager, EMEA, Enterprise und HPC Server Business Unit bei AMD. Er sagt: Mit der zunehmenden Abhängigkeit von digitalen Technologien steigt auch der Bedarf an Rechenleistung. Es ist wichtig, den wachsenden Bedarf an Rechenleistung mit Nachhaltigkeitszielen in Einklang zu bringen, und der Weg in Richtung Zukunft besteht darin, das Beste aus den vorhandenen Einrichtungen herauszuholen. Dies ist eine große Chance, intelligent zu agieren und scheinbare Widersprüche in einen großen Vorteil zu verwandeln. Mit der richtigen IT-Architektur können Rechenzentren die gleichen Aufgaben effizienter erfüllen und so Platz für die Technologien der Zukunft schaffen, die das Geschäft und das Leben vieler verändern werden.