Mega-Trend Agentic AI Agenten im Rechenzentrum zerstören Paradigmen

Von Anna Kobylinska und Filipe Martins* 10 min Lesedauer

Anbieter zum Thema

Agentic AI – autonome Systeme, die eigenständig planen, wahrnehmen, schlussfolgern und handeln – ziehen ins Rechenzentrum ein. Neue Anforderungen an Skalierbarkeit, Resilienz und Adaptivität bringen klassische Betriebsmodelle an ihre Grenzen.

KI-Agenten schleusen sich in die Rechenzentren ein; sie könnten optimiern oder auch SLAs kompromittieren, stellen aber jedem Fall mit Results-as-a-Service  Bezahlmodelle wie Softwarelizenzen oder eine definierte Provisionierung im Cloud-Betrieb auf den Kopf. (Bild:  Nattanon - stock.adobe.com / KI-generiert / KI-generiert)
KI-Agenten schleusen sich in die Rechenzentren ein; sie könnten optimiern oder auch SLAs kompromittieren, stellen aber jedem Fall mit Results-as-a-Service Bezahlmodelle wie Softwarelizenzen oder eine definierte Provisionierung im Cloud-Betrieb auf den Kopf.
(Bild: Nattanon - stock.adobe.com / KI-generiert / KI-generiert)

Agentenbasierte Künstliche Intelligenz (Agentic AI) nutzt fortgeschrittene Logik und iterative Planung, um komplexe, mehrstufige Aufgabenstellungen zu lösen. Anders als klassische Automatisierung oder generative KI agieren diese Systeme nicht reaktiv und ereignisgetrieben, sondern 'denken' strategisch voraus:

Sie analysieren Situationen, formulieren Ziele, planen Zwischenschritte und passen ihre Aktionen dynamisch an neue Informationen an. Ein praxisnahes Beispiel liefert „SAP Joule“, die agentenbasierte KI-Plattform von SAP.

SAP Joule für die Optimierung von SAP-Lasten

Joule verknüpft Geschäftsdaten aus „SAP S/4 HANA“, „Success Factors“ und „Ariba“ mit externen Quellen. Die KI-Agenten in SAP Joule können mit Sensordaten arbeiten, etwa, um die Betriebsparameter von Kühlsystemen und Servern anzupassen oder Stromquellen auf Basis der Energiepreise im Markt zu wechseln. Ein KI-Agent kann eine Kosten-Nutzen-Analyse durchführen und mit Daten für prädiktive Wartung und den aktuellen Konjunkturprognosen abgleichen, um zu bestimmen, ob eine Erweiterung oder Modernisierung der Kühltechnik aus finanzieller Sicht vertretbar ist.

„SAP Joule“, die agentenbasierte KI-Plattform von SAP, will sich in Betriebsabläufe einklinken und übernimmt gerne das Sagen.(Bild:  SAP)
„SAP Joule“, die agentenbasierte KI-Plattform von SAP, will sich in Betriebsabläufe einklinken und übernimmt gerne das Sagen.
(Bild: SAP)

SAP Joule mit „SAP AI Core“ kann die Automatisierung von SAP-zentrierten Workloads, zum Beispiel SAP HANA, S/4 HANA, in hybriden und Cloud-nativen Infrastrukturen übernehmen. Joule agiert hierbei als kontextbewusster Assistent, der über eine Reihe von vordefinierten APIs die Bereitstellung von Rechenzentrumsressourcen orchestriert.

Von Analysen über Entscheidungen bis hin zu Visualisierungen: Agenten-KI zeigt Potenzial.(Bild:  SAP)
Von Analysen über Entscheidungen bis hin zu Visualisierungen: Agenten-KI zeigt Potenzial.
(Bild: SAP)

Ein KI-Agent von SAP analysiert Datacenter-Betriebsdaten und schlägt proaktiv eine intelligente Umverteilung von Lasten oder andere Maßnahmen zur Incident-Prevention vor. In Kombination mit hyperskalierbarer Infrastruktur ist die Lösung auch im Edge- oder Hybrid-Modus einsetzbar.

Daten-Agents

Datenagenten sind eine Kategorie von KI-Agenten mit einem extremen Fokus auf die Genauigkeit ihrer Ergebnisse. Diese Treffsicherheit der datengetriebenen Entscheidungsfindung erfordert eine extreme Spezialisierung auf die jeweilige Aufgabenstellung und strukturierte Leitplanken (engl. Guardrails), also Sicherheitsvorkehrungen, die gewährleisten, dass autonome KI-Agenten innerhalb definierter ethischer, rechtlicher und operativer Grenzen handeln. Mehrere spezialisierte KI-Agenten, die unter diesen Rahmenbedingungen zusammenarbeiten, können extrem verzwickte Herausforderungen lösen.

Ein KI-Agent ohne Guardrails könnte etwa Server-Workloads verschieben und ganze Server-Racks herunterfahren, auch ohne Rücksicht auf vertragliche SLAs, sicherheitskritische Anwendungen oder regulatorische Anforderungen wie Datenlokalität. Damit das nicht passiert, kommen so genannte Guardrails ins Spiel, zum Beispiel reputationsbasierte Entscheidungsgewichte:

Fällt das Vertrauen des KI-Agenten in eine Maßnahme unter einen definierten Schwellenwert basierend auf bisherigen Ergebnissen, wird die Entscheidung nicht autonom getroffen. Auch bei SAP Joule sorgen Guardrails für die Einhaltung von Vorgaben im Hinblick auf die Governance, Energie-Management und Datenlokalität.

Gemini-Modelle für On-Premises-Rechenzentren auf Nvidia Blackwell

Nvidia bringt vertrauliche Agentic-AI-Anwendungen ins OnPremise-Rechenzentrum und zwar in Zusammenarbeit mit Google. Durch die Integration der „Nvidia-Blackwell“-Plattform in die „Google Distributed Cloud“ haben die Partner eine Lösung für den Betrieb sensibler KI-Anwendungen auf Infrastrukturen vor Ort geschaffen. Diese sei in Sachen Sicherheit und Konformität „kompromisslos“.

Nvidia schützt die Daten in „Gemini“-Modellen durch Confidential Computing, also die Verschlüsselung von Daten und KI-Modellen auch während der Verarbeitung. Dank der doppelten Schutzebene, sowohl der Daten als auch der KI-Modelle, schafft Nvidia eine sichere Umgebung, die Agentic AI auch für hochregulierte Branchen wie Gesundheitswesen, Finanzindustrie oder Verwaltung attraktiv macht.

Die Inferenz erfolgt lokal, so dass sensible Daten die Grenzen des Rechenzentrums niemals verlassen müssen. Die Technik nutzt „Agentic Reasoning“, um Optimierungen an der Infrastruktur vorzunehmen — sei es, um GPU-Cluster dynamisch bereitzustellen oder um Wartungszyklen zu optimieren.

Agenten infiltrieren die DCIM-Systeme

Auch im Kontext des reinen Rechenzentrumsbetriebs setzen immer mehr Anbieter auf agentenbasierte KI-Lösungen, um Automatisierung, Energie-Effizienz und Ausfallsicherheit zu verbessern. Mehrere führende Plattformen und Anbieter integrieren KI-Agenten für das Management von Rechenzentrumsinfrastrukturen. Dazu zählt „Ecostruxure IT“, die herstellerübergreifende Plattform für das Monitoring, Management und die Optimierung von Edge-Umgebungen und Rechenzentren von Schneider Electric.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Agentic AI in Ecostruxure IT steht für einen Paradigmenwechsel im Datacenter-Betrieb. Es geht weg von reaktiver Verwaltung, hin zu autonomer, kontextsensitiver Steuerung physischer Infrastrukturen.

HPE Greenlake mit Opsramp AI Copilot

„HPE Greenlake“ mit „Opsramp AI Copilot“ nutzt Künstliche Intelligenz und Automatisierung, um das Management von IT-Infrastrukturen, einschließlich Rechenzentren und Cloud-Umgebungen, zu optimieren. Im Kern dieser Technik steht der Einsatz von KI-Agenten für das Monitoring, Fehlerbehebung, Kapazitäts-Management und das Prognostizieren des Ressourcenbedarfs.

Opsramp AI Copilot ist nicht verwandt mit dem „365 Copilot“ oder dem „Github Copilot“ von Microsoft. Es handelt sich hier vielmehr um ein spezialisiertes KI-Agentensystem für IT Operations Management (ITOM) innerhalb der Opsramp-Plattform von HPE, die seit 2023 als Teil von HPE Greenlake bereitgestellt wird. Der Opsramp AI Copilot kann beispielsweise die Auslastung von CPUs oder Speicherengpässe vorhersagen und automatisch entsprechende Ressourcen bereitstellen, um die Performance aufrechtzuerhalten.

Das Werkzeug ermöglicht eine vollständige Automatisierung des gesamten Lebenszyklus von Anwendungen und Infrastruktur durch die Verzahnung von KI-Agenten mit den DevOps- und ITSM-Prozessen (IT Service Management). Die KI-Agenten greifen in CI/CD-Pipelines ein, um Bereitstellungen zu überwachen, Fehler im Code zu erkennen und Korrekturmaßnahmen einzuleiten, bevor die Software in die Produktionsumgebung übergeht.

Die KI-Agenten sind auch in der Lage, das Nutzerverhalten im Zusammenhang mit den Anwendungsanforderungen zu analysieren, um optimale Leistung und eine nahtlose Benutzererfahrung zu gewährleisten. Sie können hierzu die Infrastruktur dynamisch anpassen. Im Falle einer Betriebsstörung kann der AI Copilot selbsttätig Eskalationen einleiten und die zuständigen Teams alarmieren.

Agentic AI von Lenovo

Zu den Vorreitern von Agentic AI zählt Lenovo, einer der größten IT-Anbieter Chinas. Das Unternehmen diversifiziert gerade seine technische Basis.

Das AI Innovators Program von Lenovo ist eine breite Partnerschaftsinitiative für die Entwicklung und Integration von KI-Anwendungen. Das Programm bringt Partner wie Nvidia, Red Hat und andere führende Technologieanbieter zusammen, um die Entstehung maßgeschneiderter KI-Prdukte für Rechenzentren, Cloud-Dienste, Edge Computing und Industrieanwendungen im Lenovo-Ökosystem zu fördern.

Mit der Agentic AI Solution zielt Lenovo speziell auf den Rechenzentrumsbetrieb und IT-Infrastrukturoptimierung ab.Die KI-Agenten von Lenovo agieren in mehreren zentralen Bereichen des Rechenzentrumsbetriebs, vom automatisierten Ressourcen-Management über prädiktive Wartung und Fehlererkennung bis hin zum Energie-Management und Sicherheit.

„Lenovo Thinksystem SR950 V3“ Server-Rack liefert HPC-Leistung zum Beispiel für KI-Agenten.(Bild:  Lenovo)
„Lenovo Thinksystem SR950 V3“ Server-Rack liefert HPC-Leistung zum Beispiel für KI-Agenten.
(Bild: Lenovo)

KI-Agenten überwachen Workloads und verwalten Ressourcen dynamisch anhand von Echtzeitdaten wie CPU/GPU-Auslastung, Temperatur, Energieverbrauch und Netzwerkgeschwindigkeit.

Durch den Einsatz von Energie-Optimierungsalgorithmen können die Agenten den Energieverbrauch des Rechenzentrums automatisch steuern, indem sie die Kühlung und Stromversorgung an die tatsächliche Auslastung anpassen.

Lenovo hat spezielle Teams für Export-Compliance gebildet, um sicherzustellen, dass alle Aktivitäten des Unternehmens die rechtlichen Anforderungen erfüllen. Dies schützt den Anbieter vor möglichen Handelsstrafen und soll die weltweite Verfügbarkeit seiner Lösungen gewährleisten.

Ein dickes Stück Infrastruktur: Rendering der Lenovo-Firmenzentrale in Shenzhen.(Bild:  Eric Engdahl, KPF Lenovo Shenzhen/  Rendering von Plompmozes)
Ein dickes Stück Infrastruktur: Rendering der Lenovo-Firmenzentrale in Shenzhen.
(Bild: Eric Engdahl, KPF Lenovo Shenzhen/ Rendering von Plompmozes)

Das „DGX System“ von Nvidia kann auch als Teil einer „Lenovo AI“-Plattform eingesetzt werden. Das DGX ist eine spezialisierte High-Performance Computing-Plattform für das Training von KI-Modellen und das Deep Learning, die sich Nvidia-GPUs wie „A100 Tensor Core“ zu Nutze macht. Lenovo bietet jedoch auch eigene Server an, die auf Nvidia-Technologien basieren, aber unter der Marke von Lenovo vertrieben werden.

Der Server „Lenovo Thinksystem SC777 V4 Neptune“, hier in einer Konfiguration für KI-Training, nutzt die „Nvidia GB200 NVL4“-Plattform.(Bild:  Lenovo)
Der Server „Lenovo Thinksystem SC777 V4 Neptune“, hier in einer Konfiguration für KI-Training, nutzt die „Nvidia GB200 NVL4“-Plattform.
(Bild: Lenovo)

Lenovo verwendet unter anderem auch Nvidia A100-GPUs in verschiedenen Serverplattformen, insbesondere für GPU-unterstützte Workloads und Deep Learning-Anwendungen. Für die Verwaltung und Bereitstellung von Container-basierten Anwendungen und Microservices auf KI-Infrastrukturen setzt Lenovo auf die Orchestrierungsplattform „Red Hat Openshift“. Diese bietet eine enge Integration mit „Red Hat Ansible Automation“, um KI-Agenten nahtlos in bestehende IT- und Infrastruktur-Management-Prozesse zu integrieren.

Lenovo setzt auf Agentic AI auch in der hauseigenen Infrastrukturplattform „Xclarity“, die zentrale Funktionen für das Geräte- und Infrastruktur-Management für Lenovo-Server, -Storage und -Netzwerkkomponenten in Rechenzentren, Edge-Umgebungen und hybriden Clouds bereitstellt. Xclarity dient als Datenquelle und Orchestrator für alle IT-Assets im Lenovo-Ökosystem. Sie stellt API-Schnittstellen zur Integration mit Drittanbieter-Tools bereit.

Klotzen statt kleckern: Die China State Construction ging beim Bau der Firmenzentrale von Lenovo im Nanshan-Distrikt von Shenzen, China, in die Vollen. Der große Lenovo-Turm ist satte 204 Meter hoch. 90-Grad-gedreht dazu steht ein zweiter Tower mit immerhin 140 Metern Höhe.(Bild:  China State Construction)
Klotzen statt kleckern: Die China State Construction ging beim Bau der Firmenzentrale von Lenovo im Nanshan-Distrikt von Shenzen, China, in die Vollen. Der große Lenovo-Turm ist satte 204 Meter hoch. 90-Grad-gedreht dazu steht ein zweiter Tower mit immerhin 140 Metern Höhe.
(Bild: China State Construction)

In Verbindung mit Xclarity hat Lenovo sein Portfolio um AIOps-Funktionen, also den Einsatz von künstlicher Intelligenz zur Automatisierung und Optimierung von IT-Betriebsprozessen, erweitert. KI-Agenten übernehmen die Analyse von Telemetriedaten, Logs und anderen Metriken zur Erkennung von Anomalien, für Prädiktive Wartung sowie autonome Incident-Response anhand KI-gestützter Playbooks.

„Resultat-as-a-Service“

Multimodale, agentenbasierte GenAI-Frameworks heben die Prozessautomatisierung auf ein ganz neues Niveau. Die geänderten Anforderungen an IT/OT-Infrastrukturen gehen mit einem neuen Bereitstellungsmodell einher: Resultat-als-Service (Results-as-a-Service, kurz RaaS).

Für Organisationen mit hohen Betriebskosten stellt das Outsourcing von Betriebsprozessen an Agentic AI eine reizvolle Möglichkeit dar, ihre IT-Kosten in den Griff zu bekommen. Anstatt Softwarelizenzen oder eine definierte Provisionierung wie im Cloud-Modell zu erwerben, bezahlen die Unternehmen für ein definiertes Endresultat, also zum Beispiel für erfolgreich gelöste Support-Anfragen.

Ein Blick auf den Retrieval-Stack für strukturierte und unstrukturierte Daten für Datenagenten nach Snowflake. (Bild:  Snowflake)
Ein Blick auf den Retrieval-Stack für strukturierte und unstrukturierte Daten für Datenagenten nach Snowflake.
(Bild: Snowflake)

Sierra.ai hat es vorgemacht. Der Anbieter von KI-Agentendiensten mit Hauptsitz im U.S.-Bundesstaat Texas löst für Unternehmen breit gefächerte Aufgaben im Bereich der Kundenkommunikation. Das ergebnisbasierte Bereitstellungsmodell verknüpft die Kosten mit den Ergebnissen.

Ein Blick in das texanische Büro der Geschäftszentrale  von Sierra AI in Austin, Texas: Die Gelassenheit der Szene täuscht über die transformative Wirkung von agentenbasierer KI hinweg.(Bild:  Sierra AI)
Ein Blick in das texanische Büro der Geschäftszentrale von Sierra AI in Austin, Texas: Die Gelassenheit der Szene täuscht über die transformative Wirkung von agentenbasierer KI hinweg.
(Bild: Sierra AI)

Dieser Wandel – weg von klassischen Softwarelizenzen oder SaaS-Angeboten hin zu „Resultat-as-a-Service“ – ist transformativ. Er reduziert geschäftliche Risiken für die Anwenderorganisationen und schafft gleichzeitig finanzielle Anreize für den KI-Anbieter, die Leistung über den gesamten Stack hinweg kontinuierlich zu verbessern.

Bret Taylor (l.), ehemals Co-CEO von Salesforce und CTO von Facebook, und Clay Bavor (r.), ehemals Leiter von Google Labs, wollen mit Sierra.ai  agentenbasierte KI-Systeme zum neuen Standard machen.(Bild:  Sierra AI)
Bret Taylor (l.), ehemals Co-CEO von Salesforce und CTO von Facebook, und Clay Bavor (r.), ehemals Leiter von Google Labs, wollen mit Sierra.ai agentenbasierte KI-Systeme zum neuen Standard machen.
(Bild: Sierra AI)

Hinter Sierra AI stehen Bret Taylor, Vorstandsvorsitzender von OpenAI, ehemals Co-CEO von Salesforce und CTO von Facebook, sowie Clay Bavor, ehemaliger Leiter von Google Labs, der Projekte wie „Google Lens“ und die AR/VR-Initiative „Project Starline“ zum Erfolg führte. Die Kombination aus technischer Exzellenz und strategischer Führung der beiden Mitgründer spiegelt sich in der schnellen Marktdurchdringung und dem Vertrauen namhafter Investoren wider.

Adaptiv orchestrieren

Mit dem Aufkommen agentenbasierter KI bricht eine neue Ära datengetriebener IT-Automatisierung und massiv paralleler Verarbeitung an. Sie erzwingt ein Umdenken im Hinblick auf den Datacenter-Betrieb: Weg von starrer Orchestrierung, hin zu adaptiven, zustandsabhängigen Systemen.

Agentendienste behalten den Zustand innerhalb des Dienstes selbst bei, indem sie jedes Ereignis speichern, um nachzuverfolgen, wie der Dienst seinen aktuellen Zustand erreicht hat. Dies kontrastiert mit traditionellen zustandslosen SaaS-Anwendungen.

Die geänderten Anforderungen rufen eine neue Klasse von Rechenzentrumsinfrastrukturen auf den Plan: GPU-zentrierte Compute-Fabriken mit integriertem High-Speed-Networking, speichernaher Verarbeitung - Stichwort: Near-Data Processing oder In-Memory Processing - und intelligenter Orchestrierung, die sich selbst dynamische Agentenlogik zu Nutze macht.

Weder Nvidia noch Lenovo bieten derzeit vollwertige NDP-Chips mit Logik direkt im DRAM, wie sie Samsung oder SK Hynix anstreben. Dennoch nähern sich beide diese Hersteller durch den Einsatz von HBM-Speicher, direkte Datenpfade (GPUDirect) und systemnahe Orchestrierung der Vision rechenzentrierter Architekturen.

IBM forscht an In-Memory-fähigen KI-Chips auf Basis von Phase-Change-Memory (PCM) und Resistive RAM (ReRAM), speziell für kognitive Agentensysteme. Samsung will mit HBM2-PIM (High Bandwidth Memory mit integrierter Logikschicht) agentenbasierte Inferenz und Planung direkt speicherintern ausführen, etwa bei Edge-Agenten, die autonom und latenzkritisch handeln müssen. Vom Konzept her ist der Ansatz bereits weit gediehen.

Die passende Hardware

Aktuell nutzen agentische KI-Systeme wie jene in SAP Joule, Google Gemini, HPE Opsramp AI Copilot oder Lenovo Xclarity One generell noch klassische HPC-Architekturen mit HBM und softwareseitigem Near-Data-Ansatz, zum Beispiel durch GPUDirect, Zero-Copy-Transfers und Co-Located APIs. Die High-Bandwidth-Memory-Technologie, beispielsweise HBM2e/HBM3 in Nvidia H100/A100 Tensor Core GPUs, platziert den Speicher direkt auf dem Package der GPU.

In Systemen wie „Lenovo Thinksystem SR670 V2“ arbeiten HBM und NVMe eng zusammen. Lenovo bietet auch Edge-Geräte, die auf ARM- oder x86-Basis direkt speichernahe Inferenz ermöglichen.

Systeme wie Nvidia DGX, „HPE Cray“ oder „Lenovo AI-Ready-Cluster“ kombinieren hochdichte GPU-Arrays mit ultraschnellen Interconnects wie „NVLink“ oder Infiniband – ausgelegt für verteilte KI-Workloads, die synchron und autonom agieren müssen. Was fehlt, sind Möglichkeiten zur Verknüpfung mehrerer speicherlokaler Subprozesse zu einem koordinierten, planenden Agenten.

Neue Aufgabenverteilung für Speicher

Nvidia hat in Zusammenarbeit mit Anbietern von Speichertechnologien, darunter Hitachi Vantara, Nutanix und Netapp, eine neue Art von Infrastruktur speziell für agentenbasierte KI entwickelt. Die KI-Datenplattform integriert Unternehmensspeicher mit Nvidia-beschleunigtem Computing, um KI-Agenten mit Geschäftsdaten in nahezu Echtzeit zu versorgen.

Die Plattform nutzt unter anderem die Blackwell-GPUs, „Bluefield-3“-DPUs von Nvidia sowie dessen „Spectrum-X“-Netzwerke, um die Verarbeitung und Analyse großer Datenmengen zu optimieren. Im Kern fungiert die Datenplattform als ein intelligenter KI-Router mit Lastenausgleich. Die Plattform koordiniert den Austausch von Prompts und verwaltet den Key-Value-Cache (KV) über Hochgeschwindigkeitsnetze.

Der „DGX Superpod“ ist ein vorintegrierter Cluster aus DGX-Systemen, wie DGX H100, die über NVLink, „NVSwitch“ und „Quantum-Infiniband“ zu einem hochperformanten KI-Rechenzentrum zusammengeschaltet sind. Das Gehirn der Infrastruktur bildet die „Base Command Platform„“, die Cloud-ähnliche Orchestrierungs-, Monitoring- und Entwicklungssoftware von Nvidia. Agentenbasierte KI skaliert nicht linear, da Agenten voneinander lernen, Modelle teilen und im Schwarm agieren.

Dank dieser Platform lassen sich mehrere Agenten-Instanzen, zum Beispiel GPT-Agents, RAG-Agents und Simulationen, auf DGX-Systemen verteilt, priorisiert und parallel orchestrieren. Bei der Evolution von Systemarchitekturen mit Blick auf Agenten-KI verschiebt sich daher der Fokus von der reinen Hardwareleistung hin zu Systemkohärenz.

Einem agentenbasierten System unter die Haube geschaut.(Bild:  HTC Global Services)
Einem agentenbasierten System unter die Haube geschaut.
(Bild: HTC Global Services)

Speicherarchitektur, Kühlung, Energieversorgung und Netzwerke werden als organisches Ganzes gedacht – abgestimmt auf die dynamische Natur von Agentic AI. Hierzu müssen verschiedene datennahe Endpunkte des verteilten Systems nahtlos ineinandergreifen. Bis zum Jahre 2028 dürfte agentenbasierte KI etwa 15 Prozent der täglichen Arbeitsentscheidungen treffen, glauben jedenfalls die Analysten von Gartner.

*Das Autorenduo

Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.

Ihr Fazit lautet: Agentic AI, also autonome, lernfähige Systeme, die eigenständig wahrnehmen, planen und handeln, verspricht einen tiefgreifenden Wandel im Rechenzentrumsbetrieb. Ob bei der Orchestrierung von Workloads, dem Thermo-Management oder der vorausschauenden Wartung: KI-Agenten übernehmen zunehmend Aufgaben, die bislang menschlicher Steuerung vorbehalten waren.

Doch mit wachsender Autonomie steigt auch das Risiko unerwünschter Nebenwirkungen – von SLA-Verletzungen bis hin zu sicherheitskritischen Fehlentscheidungen.

Herkömmliche Rechenzentren, einst auf standardisierte Workloads und lineare Abläufe ausgerichtet, müssen sich neu erfinden. Denn agentenbasierte KI-Modelle hantieren nicht nur mit enormen Datenmengen, sondern treffen kontextabhängig echtzeitkritische Entscheidungen und müssen hierzu komplexe Prozesse über Systemgrenzen hinweg orchestrieren und sich gegenseitig überwachen.

(ID:50413426)