Erfolg-as-a-Service SaaS ist tot. Es leben die Agenten!

Von Anna Kobylinska und Filipe Martins* 10 min Lesedauer

Anbieter zum Thema

Wer heute noch Software als Dienst bezieht, brav lizenziert und tüchtig verwaltet, ohne über den Tellerrand zu schauen, verkennt die tektonischen Verschiebungen, die am Fundament der IT-Infrastrukturen rütteln. Mit dem Aufbruch in die Ära der agentischen KI hat SaaS größtenteils ausgedient. Aber Warum und was ist jetzt anders?

Das Modell SaaS hat ausgedient, ist stillgelegt, rostet.  Viele kleine schwarmfähige autonome Agenten higegen starten in alle Richtungen und übernehmen den IT-Raum. (Bild:  Midjourney / KI-generiert)
Das Modell SaaS hat ausgedient, ist stillgelegt, rostet. Viele kleine schwarmfähige autonome Agenten higegen starten in alle Richtungen und übernehmen den IT-Raum.
(Bild: Midjourney / KI-generiert)

Agentische KI (Agentic AI) ist im Nullkommanichts von der Konzepthaftigkeit zur unmittelbaren Geschäftsrelevanz gemorpht. KI-Agenten ersetzen oder ergänzen klassische SaaS-Bereitstellungen —schneller als gedacht. Sie sind flink, autonom, hochgradig vernetzt, einfallsreich und zielstrebig. Sie denken scheinbar aus freien Stücken und immer ein gutes Stück weiter.

„Agentforce“ ist die KI-Agentik von Salesforce. (Bild:  Salesforce)
„Agentforce“ ist die KI-Agentik von Salesforce.
(Bild: Salesforce)

Klassische SaaS-Anbieter wie Servicenow, Salesforce und SAP bieten KI‑Agenten für den Kunden-Support, E‑Mail‑Kommunikation, die Automatisierung von Rechnungsprozessen und viele andere Aufgaben an. Agentische Funktionen sind auch im eigenen Rechenzentrum beziehungsweise in einer Private-Cloud verfügbar.

Von den drei Anbietern ist SAP am flexibelsten. Die „SAP Business Technology Platform“ (BTP) lässt sich wahlweise in SAP-eigenen Rechenzentren, in Private-Cloud-Umgebungen oder bei den Hyperscalern betreiben. „SAP AI Core/AI Launchpad“ können in SAP Private Cloud Edition (PCE) oder auf Datacenter-Installationen bei Partnern laufen. Damit sind sowohl klassische ERP-Funktionen als auch KI-Agenten-Workflows vollständig im Rechenzentrum realisierbar.

Die Architektur der KI-Agentik von SAP unter der Haube.(Bild:  SAP)
Die Architektur der KI-Agentik von SAP unter der Haube.
(Bild: SAP)

Servicenow bietet im Gegensatz dazu keine vollständig selbst-host-bare Version der Plattform an. Für KI-Modelle, die im Hintergrund laufen, zum Beispiel „Now Assist“, können Unternehmen aber zumindest die Option Bring Your Own Model nutzen. Dabei kann ein Modell on-prem oder in einer privaten GPU-Cloud laufen, während Servicenow die Orchestrierung übernimmt.

Servicenow bearbeitet bereits 80 Prozent der Support-Anfragen am Telefon und im Chat agentisch, ohne jegliche menschliche Intervention. Im Zusammenspiel mit Agentik konnten menschliche Fachkräfte den Zeitaufwand zur Bearbeitung hochkomplexer Support-Fälle bereits in den ersten zwei Wochen um 52  Prozent reduzieren.

Salesforce bietet seit 2024 mit „Einstein Trust Layer“ eine Möglichkeit, lokale Modell-Endpoints anzubinden. Sensible Daten müssen so nicht in die Salesforce-Cloud wandern; die Verarbeitung kann in einem eigenen Rechenzentrum erfolgen.

Undercover und hyperaktiv

Salesforce will bis Ende dieses Jahres eine Milliarde Agenten für Kunden bereitstellen. Das Unternehmen habe bereits mehr als 340.000 Kundenanfragen autonom durch Agentforce beantwortet, die agentenbasierte KI-Plattform des Anbieters.

Laut der Studie „The Future of Enterprise AI Agents“ von Cloudera aus dem Februar dieses Jahres setzen bereits 57 Prozent der Organisationen KI-Agenten produktiv ein. Das Tempo ist überraschend.

Rund jede dritte dieser Firmen (21 Prozent aller Befragten) hat damit erst in den vorangegangenen zwölf Monaten begonnen. 96 Prozent der Unternehmen planen einen breiten Rollout in den kommenden zwölf Monaten. Die Favoriten: Performance-Optimierung (66 Prozent), Security-Monitoring (63 Prozent) und Developer-Assistenz (62 Prozent) – ein leiser Paradigmenwechsel.

Effizienz gehört neu definiert

In einer aktuellen Deloitte-Umfrage unter 2.773 Führungskräften vom Anfang des Jahres gaben allerdings erst 26 Prozent der Befragten an, dass ihre Organisationen autonome Agenten in „großem oder sehr großem Umfang“ erforschen. 78 Prozent planen demnach, ihre gesamten KI-Ausgaben im kommenden Geschäftsjahr zu erhöhen. Offenbar hat sich da was herumgesprochen.

Die digitale Wirtschaft war jahrzehntelang auf ein einfaches, nahezu betäubend komfortables Modell eingeschworen: Anbieter entwickelt eine Anwendung, hostet sie in der Cloud, verpackt sie in ein Abo-Modell und kassiert in Abhängigkeit von der Größe der Bereitstellung ungeachtet vom erzielten Endresultat.

Alles war durchgetaktet – Entwicklung, Bereitstellung, Monetarisierung. Dieses Modell galt als der Inbegriff von Effizienz in einer Welt, die von Produktivität besessen ist. KI-Agentik krempelt das jetzt wieder um; denn sie koppelt Wertschöpfung und Abrechnung nicht mehr ausschließlich an die Bereitstellung, sondern an das Ergebnis: eine gelöste Support-Anfrage, eine abgeschlossene Transaktion, ein verarbeitetes Dokument. Die Folge ist ein Rollentausch zwischen Anbieter und Kunde. Die Agenten müssen sich dem Kunden anpassen, nicht andersherum.

Mit dem Aufkommen maschineller Agentensysteme gerät die alte SaaS-Ordnung ins Wanken. Sie rüttelt an Geschäftsmodellen, Sicherheitsarchitekturen und ganzen Wertschöpfungsketten. Software wird fortan nicht mehr für Menschen entwickelt, sondern für KI-Agentik.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

In vielen Unternehmen existiert bereits heute eine Hybridwelt: SaaS-Frontends bleiben, aber Intelligenz und Workflow-Steuerung verlagern sich in die Agenten-Ebene.

Von Programmen zu Denkstrukturen

KI-Agenten sind mehr als Chatbots mit einem Verständnis für Sprache. Sie sind kognitive Softwaresysteme, geprägt von inhärenter Zielstrebigkeit und ausgestattet mit Einfallsreichtum. Sie verstehen den Kontext, analysieren Daten, kommunizieren mit APIs, orchestrieren Tools und treffen Entscheidungen auf Basis probabilistischer Modelle. Sie lernen fortlaufend und passen sich dynamisch an.

Ihre Einsatzgebiete sind längst nicht mehr nur Support oder einfache Automatisierung. In Rechenzentren übernehmen sie zentrale Aufgaben der Betriebsführung: von der Auslastungsanalyse über das Event-Response-Management bis zur autonomen Re-Konfiguration von Clustern und Sicherheitsüberwachung. In regulatorisch sensiblen Bereichen können sie Compliance-Reports generieren, Audits durchführen, Betriebsdaten pseudonymisieren und dergleichen anderes - ohne dass jede Handlung explizit programmiert wurde.

Agenten analysieren, interpretieren, adaptieren, antizipieren. Sie verhalten sich wie operative Knoten in einem verteilten neuronalen Netz betrieblicher Intelligenz:

  • Agenten liefern Output, nicht Interfaces.
  • Agenten verbinden Tools, die nie füreinander gedacht waren.
  • Identitäts- und Berechtigungs-Management müssen auf autarke Agenten erweitert werden.
  • Abo-Modelle verlieren an Relevanz, wenn das Bereitstellungsmodell aufgabenzentrisch statt aufwandsbezogen abrechnet.
  • Agenten laufen bevorzugt am Entstehungsort der Daten. So liefern sie Resultate ohne Umwege über die Cloud.

Das Abrechnungsmodell folgt dem Funktionswandel

Wo früher Lizenzen für die Bereitstellung von Softwaremodulen fällig waren, konsumiert der Nutzer heute operative Entscheidungen. Die klassische Trennung in Entwicklung, Produkt, Wartung und Betrieb verschwimmt und wird ersetzt durch ein fließendes Modell, bei dem jede Agentenaktion und -interaktion zu einem Mikroservice der Wertschöpfung wird.

Die Anwenderorganisation bezahlt nicht mehr für die Möglichkeit, eine Software zu benutzen, sondern für das Ergebnis ihrer Anwendung: die Inferenz — und deren Resultat als ein Service.

Für die Anbieter klassischer SaaS-Lösungen ist das ein tektonischer Umbruch. Ihre Margen, Vertriebsmodelle und SLAs sind nicht auf volatile Agentensysteme ausgelegt. Die gewohnten KPIs wie ARR (Annual Recurring Revenue) oder Churn-Rate taugen nur noch begrenzt.

Das Aus für KPIs, ARR und Churn-Rate

Die neue Generation autonomer KI-Agenten könnte ein neues ökonomisches Modell für Business-Software erzwingen", sofern sie hält, was sie verspricht.

Dell Technologies zum Beispiel hat diesen Wandel vorweggenommen. Auf der „Dell Technologies World 2025“ zeigte der Anbieter „Poweredge“-Systeme wie de Server „R770“, die nicht nur Rechenleistung bereitstellen, sondern sich eigenständig an wechselnde Anforderungen anpassen kann. Agenten übernehmen Aufgaben klassischer Admin-Tools: Workload-Muster analysieren, Energieflüsse optimieren, Datenpfade priorisieren, Engpässe vermeiden - ein ganzes Ökosystem agentischer Betriebseinheiten.

Was früher ein ganzes Team aus Betriebsspezialisten analysieren musste, erledigt heute eine agentische Logikschicht in Millisekunden.

Die Kernkomponenten agentischer KI.(Bild:  Markovate)
Die Kernkomponenten agentischer KI.
(Bild: Markovate)

Zum Einsatz kommt unter anderem „OPA“ – der Open Policy Agent –, eine Richtlinien-Engine, mit der Agenten kontextsensitive Richtlinien (Policies) durchsetzen können. Das bedeutet: Wenn eine bestimmte Schwelle erreicht wird, etwa beim Stromverbrauch, in der Auslastung oder bei der CPU-Temperatur, greift nicht eine hart codierte Reaktion, sondern eine in Code definierte Handlungsrichtlinie.

Das Ergebnis ist ein System, das nicht nur reagiert, sondern reguliert, inklusive Transparenz: Dell setzt auf erklärbare KI, die jedem Handlungspfad eine sprachlich nachvollziehbare Begründung zuweist. Agenten handeln also nicht im Verborgenen. Sie handeln sichtbar, erklärbar, nachvollziehbar.

Switch Data Centers zeigt, dass agentische Steuerung längst nicht nur auf Software-Ebene stattfindet. Das Unternehmen zählt zu den wenigen Rechenzentrumsbetreibern weltweit, die in ihren Anlagen mit Rack-basierten Agentensystemen für Strom, Kühlung und Sicherheit arbeiten.

Zia Syed, EVP bei Switch, bringt es mit den Worten auf den Punkt: „Wir mussten anfangen, alle zehn Sekunden Systemdaten zu messen, um die Energieflüsse zu optimieren.“ Der Grund: KI-Workloads, die kurzfristig mehrere Megawatt abrufen – und ebenso schnell wieder abschalten.

Ohne eine durchgehende Sensorik und agentische Reaktionslogik würde das Stromnetz destabilisiert (siehe dazu den Bericht „Auf KI ge-Switch(t) heißt: bis zu 40 Megawatt ein paarmal pro Sekunde. Unter Spannung: elastische Infrastrukturen on-prem“. Deshalb regelt bei Switch kein klassisches Power-Management, sondern eine Echtzeit-KI mit Zugriff auf Sensorwerte, Kühlsysteme und Spannungswandler.

Die Agenten handeln

Die Agenten sind dabei nicht bloß passive Beobachter. Sie greifen aktiv in den Betrieb ein, regulieren die Flussgeschwindigkeit von Kühlwasser, verteilen thermische Lasten auf verschiedene Knoten und priorisieren Jobs.

In dieser Umgebung ist das gesamte Rack ein lernendes System. Ein so genannter DC-Busbar – eine Gleichstromschiene auf Rack-Ebene – wird intelligent von Agenten überwacht. Sie erkennen Phasenungleichgewichte, gleichen Stromspitzen aus und verhindern Lastverlagerungen, die ganze Racks aus dem Takt bringen könnten.

Willkommen im Zeitalter der KI-Agentik.

Zwischen dem Kern-Rechenzentrum und der Edge: Orchestrierung von Multiagentensystemen

Ein entscheidender Erfolgsfaktor für KI-Agentik ist nicht der Grad der Spezialisierung einzelner Agenten, sondern die Orchestrierungsschicht: ein Meta-Agent oder Koordinations-Framework. Diese Orchestrierungsschicht vergibt die Zuständigkeiten, löst Konflikte und konsolidiert die Ergebnisse.

Die Umstellung auf Multi-Agent-Architekturen wälzt sowohl das Kern-Rechenzentrum als auch die Edge tiefgreifend um. Statt monolithischer „Super-Agenten“, die alles können (und oft an ihrer eigenen Komplexität scheitern), setzt sich die Idee der Multi-Agent-Koordination durch: mehrere spezialisierte Agenten, die gezielt für Teilaufgaben optimiert sind – von Datenextraktion über API-Parsing bis zur Code-Generierung oder Qualitätssicherung.

Funktionsschema einer agentischen Orchestrierung: Mehrere spezialisierte Agenten interagieren über eine Orchestrierungs-Schicht mit Kontext-, Daten- und Modell-Layern, unterstützt durch LangChain, LlamaIndex und Knowledge Graphs.(Bild:  Markovate)
Funktionsschema einer agentischen Orchestrierung: Mehrere spezialisierte Agenten interagieren über eine Orchestrierungs-Schicht mit Kontext-, Daten- und Modell-Layern, unterstützt durch LangChain, LlamaIndex und Knowledge Graphs.
(Bild: Markovate)

Das Ergebnis ist messbar. Studien bescheinigen Multi-Agenten-Systemen bis zu 70 Prozent höhere Erfolgsraten bei komplexen Aufgaben im Vergleich zu Einzelagenten. In Code-Workflows, bei denen ein Agent schreibt, ein zweiter testet und ein dritter optimiert, verbessert sich die Performance um rund 23 Prozent.

Multi-Agent-Workflows erzeugen parallelisierte API-Calls und damit plötzliche Lastspitzen im Netzwerk des Kern-Datacenter und in der Compute-Ebene.

Hoppla!

KI-Agenten sind nicht unfehlbar, ganz im Gegenteil, warnen die Analysten von Patronus AI. Bereits ein Fehleranteil von 1 Prozent pro Schritt kann nach 100 Schritten zu einer kumulierten Fehlerwahrscheinlichkeit von 63 Prozent und damit zu einem Zufallsergebnis führen.

Schutzmechanismen sind unverzichtbar, um Fehlerquoten im Zaum zu halten. Deshalb sei es wichtig, die Leistung häufig, sorgfältig und ganzheitlich zu messen. Dies belastet die Konnektivität und ruft spezialisierte Werkzeuge auf den Plan.

Meta-Agenten benötigen dedizierte Orchestration-Cluster im Stil von Kubernetes Control-Planes, oft mit GPU/TPU-Unterstützung für schnelles Planen und semantisches Routing. Da Agenten außerdem Arbeitsschritte und Zwischenzustände speichern müssen, steigt der Bedarf an Low-Latency-Storage und verteiltem Caching. Anwendungen wie „Redis“, „Memcached“ und NVMe-Over-Fabrics schaffen Abhilfe.

Das Bild zeigt ein Blueprint für künftige Multi-Agent-Systeme: vom Input-Layer über Orchestrierung- und Speicherebenen bis hin zu Output- und Service-Layern für adaptives Task-Management, Multi-Agent-Koordination und Self-Learning-Agents.(Bild:  Markovate)
Das Bild zeigt ein Blueprint für künftige Multi-Agent-Systeme: vom Input-Layer über Orchestrierung- und Speicherebenen bis hin zu Output- und Service-Layern für adaptives Task-Management, Multi-Agent-Koordination und Self-Learning-Agents.
(Bild: Markovate)

Forschungsansätze wie Multi-Agent Debate oder Task-Decomposition Protocols zeigen, dass strukturierte Kommunikation zwischen Agenten, inklusive Feedback-Schleifen, zu qualitativ besseren Resultaten führt. Dabei ähneln die Architekturen zunehmend den Mustern aus Microservices und verteilten Systemen: lose gekoppelt, hochgradig modular und resilient gegen den Ausfall einzelner Komponenten (siehe: Abbildung).

Klassisches Logging greift in diesem Szenario dann aber deutlich zu kurz. Stattdessen treten near-real-time Tracing-Pipelines auf den Plan, die auch Inter-Agent-Kommunikation erfassen.

Um nicht bei jedem Schritt in die Core-Cloud zu funken, werden Agenten-Cluster an der Edge mit Inference-fähiger Hardware, also mit Edge-GPUs und/oder NPUs, ausgestattet. Lokale Entscheidungsfähigkeit, und damit Autonomie und Resilienz, steht und fällt mit der Latenz der Edge-Cloud.

Cloud - Datacenter - Edge

Edge-Knoten müssen Ereignisse in Millisekunden an Multi-Agent-Systeme weiterreichen. Sie müssen zudem in der Lage sein, lokale Tasks autonom auszuführen, sollte die Verbindung zum Kernrechenzentrum unterbrochen werden.

Koordinations-Frameworks müssen beim Einbezug der Edge hierarchisch arbeiten. Edge-Meta-Agenten übernehmen Vorentscheidungen; der Core-Meta-Agent konsolidiert sie global. Persistenter Speicher und lokale Autonomie erfordern Zero-Trust-Segmentation bis auf Agenten-Ebene. Nur so lassen sich Kompromittierungen eindämmen.

Die gesamte Infrastruktur von Edge bis Core benötigt fein abgestimmte Anpassungen, und zwar:

  • API-Gateways, die agentische Workloads erkennen und priorisieren können, etwa durch adaptive Rate-Limits und Policy-Enforcement auf Task- statt nur auf Anfrage-Ebene;
  • Höhere Anforderungen an die Netzwerkarchitektur betreffen insbesondere deterministische Latenz (TSN, SRv6) und die Bereitstellung sicherer Overlay-Netze zwischen Core und Edge.
  • Energie- und Kühl-Management bedeutet ein Mehr an spezialisierter Hardware sowohl zentral als auch dezentral erfordert feinere Leistungs- und Wärmesteuerung.
  • Multi-Agent-Koordination lässt Core und Edge zu einem verteilten, dynamischen Nervensystem verschmelzen, in dem Workflows und Datenflüsse situativ verschoben werden, abhängig von Ressourcen, Latenz und Sicherheitslage.

Atfaa und Shield

Wo Intelligenz autonom handelt, entstehen neue Angriffsvektoren. Agenten sind manipulierbar, umprogrammierbar, durch gegnerische („Adversarial“) Eingaben aus dem Tritt zu bringen. Unvorhersehbare Task-Sequenzen, persistente Speicherstände und das Umgehen von Governance-Regeln sprengen klassische Sicherheitsmodelle.

Genau hier setzt „Atfaa“ (Advanced Threat Framework for Autonomous AI Agents) an. Hinter dem Akronym steckt ein erweitertes Bedrohungsmodell, das klassische Frameworks wie „Stride“ hinter sich lässt und agentenspezifische Risiken adressiert: vom „Memory Poisoning“ über den unbemerkten Funktionsdrift bis hin zur unautorisierten Aktionsausführung.

Als Gegenstück formuliert „Shield“ einen sechsstufigen Schutzbauplan: Segmentierung trennt kritische Komponenten, heuristisches Monitoring erkennt verdächtige Abläufe, Integritätsprüfungen sichern das Agenten-Gedächtnis, Eskalationskontrollen verhindern unbefugte Rechte-Ausweitungen, unveränderliche Logs sorgen für Nachvollziehbarkeit und verteilte Governance-Mechanismen stärken die Kontrolle.

Gemeinsam skizzieren Atfaa und Shield, wie sich autonome KI-Agenten in Unternehmensumgebungen sicher und regelkonform betreiben lassen.

Sicherheitsfragen? HPE hat eine Antwort gefunden

HPE verfolgt in den „Proliant Gen12“-Servern einen radikalen Ansatz zur Absicherung der Arbeitslasten: eine hardwarebasierte Vertrauenskette. Die Proliant Gen12-Server integrieren eine so genannte Secure Enclave mit postquantenresistenten Signaturen. Bevor ein Agent – oder überhaupt irgendein Softwareprozess – starten darf, muss er kryptografisch validiert werden: „Quantensicher? Keine Panik! HPE stattet die jüngsten Server per Chip mit deutlich höherer Sicherheit aus“ (siehe: „Quantensicher? Keine Panik! HPE stattet die jüngsten Server per Chip mit deutlich höherer Sicherheit aus“).

Der Sicherheitschip basiert auf den NIST-zertifizierten Algorithmen Crystals-Dilithium und Crystals-Kyber, die als besonders resistent gegen Quantenangriffe gelten. Jede Firmware-Ebene wird einzeln signiert, jede Änderung verifiziert, jeder Zugriff geloggt. Diese konsequente Chain-of-Trust-Philosophie schützt sowohl vor klassischen Attacken als auch vor jenen, die durch KI-generierte Malware oder Agenten-Substitution auftreten könnten.

Die „ILO 7“-Technik von HPE erlaubt das Management dieser Sicherheitsarchitektur auch bei ausgeschaltetem Server, ein Feature, das in Agenten-dominierten Infrastrukturen zur Pflicht wird.

*Über das Autorenduo

Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.

Ihr Fazit lautet: Benutzerinteraktionen mit Dashboards, Menüs und festen Arbeitsabläufen weichen agentischen KI-Systemen, die ihre Aufgaben zielstrebig selbst formulieren, externe Tools eigenständig orchestrieren, Heuristiken bewältigen, aus unvollständigen Daten schlussfolgern, autark handeln und auch noch autonom lernen. Agentensysteme verändern das Umfeld, in dem Software entsteht und betrieben wird.

Die Plattformen der Zukunft sind lebendige, dynamisch orchestrierte Daten-Ökosysteme. Sie brauchen eine neue Sicherheitsarchitektur, um neuen Bedrohungsmodellen standzuhalten.

SaaS ist zu rigide, zu träge, zu zentralisiert für die neue Ära; es muss sich neu erfinden. Es muss von „UI-first“ zu „API-first“ wechseln, an Robustheit gewinnen und Multi-Agentik unterstützen.

Artikelfiles und Artikellinks

(ID:50514219)