Wer heute noch Software als Dienst bezieht, brav lizenziert und tüchtig verwaltet, ohne über den Tellerrand zu schauen, verkennt die tektonischen Verschiebungen, die am Fundament der IT-Infrastrukturen rütteln. Mit dem Aufbruch in die Ära der agentischen KI hat SaaS größtenteils ausgedient. Aber Warum und was ist jetzt anders?
Das Modell SaaS hat ausgedient, ist stillgelegt, rostet. Viele kleine schwarmfähige autonome Agenten higegen starten in alle Richtungen und übernehmen den IT-Raum.
(Bild: Midjourney / KI-generiert)
Agentische KI (Agentic AI) ist im Nullkommanichts von der Konzepthaftigkeit zur unmittelbaren Geschäftsrelevanz gemorpht. KI-Agenten ersetzen oder ergänzen klassische SaaS-Bereitstellungen —schneller als gedacht. Sie sind flink, autonom, hochgradig vernetzt, einfallsreich und zielstrebig. Sie denken scheinbar aus freien Stücken und immer ein gutes Stück weiter.
„Agentforce“ ist die KI-Agentik von Salesforce.
(Bild: Salesforce)
Klassische SaaS-Anbieter wie Servicenow, Salesforce und SAP bieten KI‑Agenten für den Kunden-Support, E‑Mail‑Kommunikation, die Automatisierung von Rechnungsprozessen und viele andere Aufgaben an. Agentische Funktionen sind auch im eigenen Rechenzentrum beziehungsweise in einer Private-Cloud verfügbar.
Von den drei Anbietern ist SAP am flexibelsten. Die „SAP Business Technology Platform“ (BTP) lässt sich wahlweise in SAP-eigenen Rechenzentren, in Private-Cloud-Umgebungen oder bei den Hyperscalern betreiben. „SAP AI Core/AI Launchpad“ können in SAP Private Cloud Edition (PCE) oder auf Datacenter-Installationen bei Partnern laufen. Damit sind sowohl klassische ERP-Funktionen als auch KI-Agenten-Workflows vollständig im Rechenzentrum realisierbar.
Die Architektur der KI-Agentik von SAP unter der Haube.
(Bild: SAP)
Servicenow bietet im Gegensatz dazu keine vollständig selbst-host-bare Version der Plattform an. Für KI-Modelle, die im Hintergrund laufen, zum Beispiel „Now Assist“, können Unternehmen aber zumindest die Option Bring Your Own Model nutzen. Dabei kann ein Modell on-prem oder in einer privaten GPU-Cloud laufen, während Servicenow die Orchestrierung übernimmt.
Servicenow bearbeitet bereits 80 Prozent der Support-Anfragen am Telefon und im Chat agentisch, ohne jegliche menschliche Intervention. Im Zusammenspiel mit Agentik konnten menschliche Fachkräfte den Zeitaufwand zur Bearbeitung hochkomplexer Support-Fälle bereits in den ersten zwei Wochen um 52 Prozent reduzieren.
Salesforce bietet seit 2024 mit „Einstein Trust Layer“ eine Möglichkeit, lokale Modell-Endpoints anzubinden. Sensible Daten müssen so nicht in die Salesforce-Cloud wandern; die Verarbeitung kann in einem eigenen Rechenzentrum erfolgen.
Undercover und hyperaktiv
Salesforce will bis Ende dieses Jahres eine Milliarde Agenten für Kunden bereitstellen. Das Unternehmen habe bereits mehr als 340.000 Kundenanfragen autonom durch Agentforce beantwortet, die agentenbasierte KI-Plattform des Anbieters.
Laut der Studie „The Future of Enterprise AI Agents“ von Cloudera aus dem Februar dieses Jahres setzen bereits 57 Prozent der Organisationen KI-Agenten produktiv ein. Das Tempo ist überraschend.
Rund jede dritte dieser Firmen (21 Prozent aller Befragten) hat damit erst in den vorangegangenen zwölf Monaten begonnen. 96 Prozent der Unternehmen planen einen breiten Rollout in den kommenden zwölf Monaten. Die Favoriten: Performance-Optimierung (66 Prozent), Security-Monitoring (63 Prozent) und Developer-Assistenz (62 Prozent) – ein leiser Paradigmenwechsel.
Effizienz gehört neu definiert
In einer aktuellen Deloitte-Umfrage unter 2.773 Führungskräften vom Anfang des Jahres gaben allerdings erst 26 Prozent der Befragten an, dass ihre Organisationen autonome Agenten in „großem oder sehr großem Umfang“ erforschen. 78 Prozent planen demnach, ihre gesamten KI-Ausgaben im kommenden Geschäftsjahr zu erhöhen. Offenbar hat sich da was herumgesprochen.
Die digitale Wirtschaft war jahrzehntelang auf ein einfaches, nahezu betäubend komfortables Modell eingeschworen: Anbieter entwickelt eine Anwendung, hostet sie in der Cloud, verpackt sie in ein Abo-Modell und kassiert in Abhängigkeit von der Größe der Bereitstellung ungeachtet vom erzielten Endresultat.
Alles war durchgetaktet – Entwicklung, Bereitstellung, Monetarisierung. Dieses Modell galt als der Inbegriff von Effizienz in einer Welt, die von Produktivität besessen ist. KI-Agentik krempelt das jetzt wieder um; denn sie koppelt Wertschöpfung und Abrechnung nicht mehr ausschließlich an die Bereitstellung, sondern an das Ergebnis: eine gelöste Support-Anfrage, eine abgeschlossene Transaktion, ein verarbeitetes Dokument. Die Folge ist ein Rollentausch zwischen Anbieter und Kunde. Die Agenten müssen sich dem Kunden anpassen, nicht andersherum.
Mit dem Aufkommen maschineller Agentensysteme gerät die alte SaaS-Ordnung ins Wanken. Sie rüttelt an Geschäftsmodellen, Sicherheitsarchitekturen und ganzen Wertschöpfungsketten. Software wird fortan nicht mehr für Menschen entwickelt, sondern für KI-Agentik.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
In vielen Unternehmen existiert bereits heute eine Hybridwelt: SaaS-Frontends bleiben, aber Intelligenz und Workflow-Steuerung verlagern sich in die Agenten-Ebene.
Von Programmen zu Denkstrukturen
KI-Agenten sind mehr als Chatbots mit einem Verständnis für Sprache. Sie sind kognitive Softwaresysteme, geprägt von inhärenter Zielstrebigkeit und ausgestattet mit Einfallsreichtum. Sie verstehen den Kontext, analysieren Daten, kommunizieren mit APIs, orchestrieren Tools und treffen Entscheidungen auf Basis probabilistischer Modelle. Sie lernen fortlaufend und passen sich dynamisch an.
Ihre Einsatzgebiete sind längst nicht mehr nur Support oder einfache Automatisierung. In Rechenzentren übernehmen sie zentrale Aufgaben der Betriebsführung: von der Auslastungsanalyse über das Event-Response-Management bis zur autonomen Re-Konfiguration von Clustern und Sicherheitsüberwachung. In regulatorisch sensiblen Bereichen können sie Compliance-Reports generieren, Audits durchführen, Betriebsdaten pseudonymisieren und dergleichen anderes - ohne dass jede Handlung explizit programmiert wurde.
Agenten analysieren, interpretieren, adaptieren, antizipieren. Sie verhalten sich wie operative Knoten in einem verteilten neuronalen Netz betrieblicher Intelligenz:
Agenten liefern Output, nicht Interfaces.
Agenten verbinden Tools, die nie füreinander gedacht waren.
Identitäts- und Berechtigungs-Management müssen auf autarke Agenten erweitert werden.
Abo-Modelle verlieren an Relevanz, wenn das Bereitstellungsmodell aufgabenzentrisch statt aufwandsbezogen abrechnet.
Agenten laufen bevorzugt am Entstehungsort der Daten. So liefern sie Resultate ohne Umwege über die Cloud.
Das Abrechnungsmodell folgt dem Funktionswandel
Wo früher Lizenzen für die Bereitstellung von Softwaremodulen fällig waren, konsumiert der Nutzer heute operative Entscheidungen. Die klassische Trennung in Entwicklung, Produkt, Wartung und Betrieb verschwimmt und wird ersetzt durch ein fließendes Modell, bei dem jede Agentenaktion und -interaktion zu einem Mikroservice der Wertschöpfung wird.
Die Anwenderorganisation bezahlt nicht mehr für die Möglichkeit, eine Software zu benutzen, sondern für das Ergebnis ihrer Anwendung: die Inferenz — und deren Resultat als ein Service.
Für die Anbieter klassischer SaaS-Lösungen ist das ein tektonischer Umbruch. Ihre Margen, Vertriebsmodelle und SLAs sind nicht auf volatile Agentensysteme ausgelegt. Die gewohnten KPIs wie ARR (Annual Recurring Revenue) oder Churn-Rate taugen nur noch begrenzt.
Das Aus für KPIs, ARR und Churn-Rate
Die neue Generation autonomer KI-Agenten könnte ein neues ökonomisches Modell für Business-Software erzwingen", sofern sie hält, was sie verspricht.
Dell Technologies zum Beispiel hat diesen Wandel vorweggenommen. Auf der „Dell Technologies World 2025“ zeigte der Anbieter „Poweredge“-Systeme wie de Server „R770“, die nicht nur Rechenleistung bereitstellen, sondern sich eigenständig an wechselnde Anforderungen anpassen kann. Agenten übernehmen Aufgaben klassischer Admin-Tools: Workload-Muster analysieren, Energieflüsse optimieren, Datenpfade priorisieren, Engpässe vermeiden - ein ganzes Ökosystem agentischer Betriebseinheiten.
Was früher ein ganzes Team aus Betriebsspezialisten analysieren musste, erledigt heute eine agentische Logikschicht in Millisekunden.
Die Kernkomponenten agentischer KI.
(Bild: Markovate)
Zum Einsatz kommt unter anderem „OPA“ – der Open Policy Agent –, eine Richtlinien-Engine, mit der Agenten kontextsensitive Richtlinien (Policies) durchsetzen können. Das bedeutet: Wenn eine bestimmte Schwelle erreicht wird, etwa beim Stromverbrauch, in der Auslastung oder bei der CPU-Temperatur, greift nicht eine hart codierte Reaktion, sondern eine in Code definierte Handlungsrichtlinie.
Das Ergebnis ist ein System, das nicht nur reagiert, sondern reguliert, inklusive Transparenz: Dell setzt auf erklärbare KI, die jedem Handlungspfad eine sprachlich nachvollziehbare Begründung zuweist. Agenten handeln also nicht im Verborgenen. Sie handeln sichtbar, erklärbar, nachvollziehbar.
Switch Data Centers zeigt, dass agentische Steuerung längst nicht nur auf Software-Ebene stattfindet. Das Unternehmen zählt zu den wenigen Rechenzentrumsbetreibern weltweit, die in ihren Anlagen mit Rack-basierten Agentensystemen für Strom, Kühlung und Sicherheit arbeiten.
Zia Syed, EVP bei Switch, bringt es mit den Worten auf den Punkt: „Wir mussten anfangen, alle zehn Sekunden Systemdaten zu messen, um die Energieflüsse zu optimieren.“ Der Grund: KI-Workloads, die kurzfristig mehrere Megawatt abrufen – und ebenso schnell wieder abschalten.
Die Agenten sind dabei nicht bloß passive Beobachter. Sie greifen aktiv in den Betrieb ein, regulieren die Flussgeschwindigkeit von Kühlwasser, verteilen thermische Lasten auf verschiedene Knoten und priorisieren Jobs.
In dieser Umgebung ist das gesamte Rack ein lernendes System. Ein so genannter DC-Busbar – eine Gleichstromschiene auf Rack-Ebene – wird intelligent von Agenten überwacht. Sie erkennen Phasenungleichgewichte, gleichen Stromspitzen aus und verhindern Lastverlagerungen, die ganze Racks aus dem Takt bringen könnten.
Willkommen im Zeitalter der KI-Agentik.
Zwischen dem Kern-Rechenzentrum und der Edge: Orchestrierung von Multiagentensystemen
Ein entscheidender Erfolgsfaktor für KI-Agentik ist nicht der Grad der Spezialisierung einzelner Agenten, sondern die Orchestrierungsschicht: ein Meta-Agent oder Koordinations-Framework. Diese Orchestrierungsschicht vergibt die Zuständigkeiten, löst Konflikte und konsolidiert die Ergebnisse.
Die Umstellung auf Multi-Agent-Architekturen wälzt sowohl das Kern-Rechenzentrum als auch die Edge tiefgreifend um. Statt monolithischer „Super-Agenten“, die alles können (und oft an ihrer eigenen Komplexität scheitern), setzt sich die Idee der Multi-Agent-Koordination durch: mehrere spezialisierte Agenten, die gezielt für Teilaufgaben optimiert sind – von Datenextraktion über API-Parsing bis zur Code-Generierung oder Qualitätssicherung.
Funktionsschema einer agentischen Orchestrierung: Mehrere spezialisierte Agenten interagieren über eine Orchestrierungs-Schicht mit Kontext-, Daten- und Modell-Layern, unterstützt durch LangChain, LlamaIndex und Knowledge Graphs.
(Bild: Markovate)
Das Ergebnis ist messbar. Studien bescheinigen Multi-Agenten-Systemen bis zu 70 Prozent höhere Erfolgsraten bei komplexen Aufgaben im Vergleich zu Einzelagenten. In Code-Workflows, bei denen ein Agent schreibt, ein zweiter testet und ein dritter optimiert, verbessert sich die Performance um rund 23 Prozent.
Multi-Agent-Workflows erzeugen parallelisierte API-Calls und damit plötzliche Lastspitzen im Netzwerk des Kern-Datacenter und in der Compute-Ebene.
Hoppla!
KI-Agenten sind nicht unfehlbar, ganz im Gegenteil, warnen die Analysten von Patronus AI. Bereits ein Fehleranteil von 1 Prozent pro Schritt kann nach 100 Schritten zu einer kumulierten Fehlerwahrscheinlichkeit von 63 Prozent und damit zu einem Zufallsergebnis führen.
Schutzmechanismen sind unverzichtbar, um Fehlerquoten im Zaum zu halten. Deshalb sei es wichtig, die Leistung häufig, sorgfältig und ganzheitlich zu messen. Dies belastet die Konnektivität und ruft spezialisierte Werkzeuge auf den Plan.
Meta-Agenten benötigen dedizierte Orchestration-Cluster im Stil von Kubernetes Control-Planes, oft mit GPU/TPU-Unterstützung für schnelles Planen und semantisches Routing. Da Agenten außerdem Arbeitsschritte und Zwischenzustände speichern müssen, steigt der Bedarf an Low-Latency-Storage und verteiltem Caching. Anwendungen wie „Redis“, „Memcached“ und NVMe-Over-Fabrics schaffen Abhilfe.
Das Bild zeigt ein Blueprint für künftige Multi-Agent-Systeme: vom Input-Layer über Orchestrierung- und Speicherebenen bis hin zu Output- und Service-Layern für adaptives Task-Management, Multi-Agent-Koordination und Self-Learning-Agents.
(Bild: Markovate)
Forschungsansätze wie Multi-Agent Debate oder Task-Decomposition Protocols zeigen, dass strukturierte Kommunikation zwischen Agenten, inklusive Feedback-Schleifen, zu qualitativ besseren Resultaten führt. Dabei ähneln die Architekturen zunehmend den Mustern aus Microservices und verteilten Systemen: lose gekoppelt, hochgradig modular und resilient gegen den Ausfall einzelner Komponenten (siehe: Abbildung).
Klassisches Logging greift in diesem Szenario dann aber deutlich zu kurz. Stattdessen treten near-real-time Tracing-Pipelines auf den Plan, die auch Inter-Agent-Kommunikation erfassen.
Um nicht bei jedem Schritt in die Core-Cloud zu funken, werden Agenten-Cluster an der Edge mit Inference-fähiger Hardware, also mit Edge-GPUs und/oder NPUs, ausgestattet. Lokale Entscheidungsfähigkeit, und damit Autonomie und Resilienz, steht und fällt mit der Latenz der Edge-Cloud.
Cloud - Datacenter - Edge
Edge-Knoten müssen Ereignisse in Millisekunden an Multi-Agent-Systeme weiterreichen. Sie müssen zudem in der Lage sein, lokale Tasks autonom auszuführen, sollte die Verbindung zum Kernrechenzentrum unterbrochen werden.
Koordinations-Frameworks müssen beim Einbezug der Edge hierarchisch arbeiten. Edge-Meta-Agenten übernehmen Vorentscheidungen; der Core-Meta-Agent konsolidiert sie global. Persistenter Speicher und lokale Autonomie erfordern Zero-Trust-Segmentation bis auf Agenten-Ebene. Nur so lassen sich Kompromittierungen eindämmen.
Die gesamte Infrastruktur von Edge bis Core benötigt fein abgestimmte Anpassungen, und zwar:
API-Gateways, die agentische Workloads erkennen und priorisieren können, etwa durch adaptive Rate-Limits und Policy-Enforcement auf Task- statt nur auf Anfrage-Ebene;
Höhere Anforderungen an die Netzwerkarchitektur betreffen insbesondere deterministische Latenz (TSN, SRv6) und die Bereitstellung sicherer Overlay-Netze zwischen Core und Edge.
Energie- und Kühl-Management bedeutet ein Mehr an spezialisierter Hardware sowohl zentral als auch dezentral erfordert feinere Leistungs- und Wärmesteuerung.
Multi-Agent-Koordination lässt Core und Edge zu einem verteilten, dynamischen Nervensystem verschmelzen, in dem Workflows und Datenflüsse situativ verschoben werden, abhängig von Ressourcen, Latenz und Sicherheitslage.
Atfaa und Shield
Wo Intelligenz autonom handelt, entstehen neue Angriffsvektoren. Agenten sind manipulierbar, umprogrammierbar, durch gegnerische („Adversarial“) Eingaben aus dem Tritt zu bringen. Unvorhersehbare Task-Sequenzen, persistente Speicherstände und das Umgehen von Governance-Regeln sprengen klassische Sicherheitsmodelle.
Genau hier setzt „Atfaa“ (Advanced Threat Framework for Autonomous AI Agents) an. Hinter dem Akronym steckt ein erweitertes Bedrohungsmodell, das klassische Frameworks wie „Stride“ hinter sich lässt und agentenspezifische Risiken adressiert: vom „Memory Poisoning“ über den unbemerkten Funktionsdrift bis hin zur unautorisierten Aktionsausführung.
Als Gegenstück formuliert „Shield“ einen sechsstufigen Schutzbauplan: Segmentierung trennt kritische Komponenten, heuristisches Monitoring erkennt verdächtige Abläufe, Integritätsprüfungen sichern das Agenten-Gedächtnis, Eskalationskontrollen verhindern unbefugte Rechte-Ausweitungen, unveränderliche Logs sorgen für Nachvollziehbarkeit und verteilte Governance-Mechanismen stärken die Kontrolle.
Gemeinsam skizzieren Atfaa und Shield, wie sich autonome KI-Agenten in Unternehmensumgebungen sicher und regelkonform betreiben lassen.
Sicherheitsfragen? HPE hat eine Antwort gefunden
HPE verfolgt in den „Proliant Gen12“-Servern einen radikalen Ansatz zur Absicherung der Arbeitslasten: eine hardwarebasierte Vertrauenskette. Die Proliant Gen12-Server integrieren eine so genannte Secure Enclave mit postquantenresistenten Signaturen. Bevor ein Agent – oder überhaupt irgendein Softwareprozess – starten darf, muss er kryptografisch validiert werden: „Quantensicher? Keine Panik! HPE stattet die jüngsten Server per Chip mit deutlich höherer Sicherheit aus“ (siehe: „Quantensicher? Keine Panik! HPE stattet die jüngsten Server per Chip mit deutlich höherer Sicherheit aus“).
Der Sicherheitschip basiert auf den NIST-zertifizierten Algorithmen Crystals-Dilithium und Crystals-Kyber, die als besonders resistent gegen Quantenangriffe gelten. Jede Firmware-Ebene wird einzeln signiert, jede Änderung verifiziert, jeder Zugriff geloggt. Diese konsequente Chain-of-Trust-Philosophie schützt sowohl vor klassischen Attacken als auch vor jenen, die durch KI-generierte Malware oder Agenten-Substitution auftreten könnten.
Die „ILO 7“-Technik von HPE erlaubt das Management dieser Sicherheitsarchitektur auch bei ausgeschaltetem Server, ein Feature, das in Agenten-dominierten Infrastrukturen zur Pflicht wird.
*Über das Autorenduo
Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereia Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.
Ihr Fazit lautet: Benutzerinteraktionen mit Dashboards, Menüs und festen Arbeitsabläufen weichen agentischen KI-Systemen, die ihre Aufgaben zielstrebig selbst formulieren, externe Tools eigenständig orchestrieren, Heuristiken bewältigen, aus unvollständigen Daten schlussfolgern, autark handeln und auch noch autonom lernen. Agentensysteme verändern das Umfeld, in dem Software entsteht und betrieben wird.
Die Plattformen der Zukunft sind lebendige, dynamisch orchestrierte Daten-Ökosysteme. Sie brauchen eine neue Sicherheitsarchitektur, um neuen Bedrohungsmodellen standzuhalten.
SaaS ist zu rigide, zu träge, zu zentralisiert für die neue Ära; es muss sich neu erfinden. Es muss von „UI-first“ zu „API-first“ wechseln, an Robustheit gewinnen und Multi-Agentik unterstützen.