Neue Trends und Paradigmenwechsel in der Softwareentwicklung sind schwer vorhersehbar. Aktuell sorgen datengetriebene Anwendungen und KI-Technologien für grundlegende Veränderungen. Was bedeutet dies für Softwareentwicklungs- und IT-Teams sowie Unternehmen?
Datengetriebene Anwendungen und GenAI schicken sich an, die Softwareentwicklung nachhaltig zu beeinflussen.
Der Browser, den die meisten bevorzugen. Die Suchmaschine, die zum Standard wird. Das Dateiformat, das sich durchsetzt: Im Rückblick erscheinen solche Entwicklungen klar und eindeutig zu sein. Doch im Moment des Umbruchs lässt sich kaum abschätzen, welche Technologie oder welcher Trend sich durchsetzen wird.
Ähnliches lässt sich heute in der Softwareentwicklung beobachten. Lange Zeit herrschten in diesem Aufgabengebiet stabile Verhältnisse. Natürlich gab es rechts und links immer neue Ansätze, die Arbeitsweisen veränderten und Anforderungen verschoben sich. Aber der Kern der Arbeit blieb weitgehend konstant.
Doch nun lösen sich diese temporären Gewissheiten in Luft auf. Eine Ursache: der Aufstieg datengetriebener Anwendungen, unter anderem befeuert durch die zunehmende Bedeutung von KI-Technologien. Diese Anwendungen stellen andere Anforderungen an die Softwareentwicklung. Fortschritte in der Telekommunikation, der Robotik oder rund um Cyber-physikalische Systeme (CPS) verändern das Fundament der Softwareentwicklung.
Diese findet in post-agilen, post-monolithischen und post-prozessualen Zeiten statt. Drei Schlagworte, die für die fundamentalen Veränderungen stehen, mit denen es die Fachleute zu tun haben. Welche neuen Gewissheiten an ihre Stelle treten werden, zeichnet sich derzeit erst schemenhaft ab.
Und doch laufen Projekte weiter, müssen Teams neue Anwendungen entwickeln, müssen Verantwortliche ihre IT fit machen für die Anforderungen von morgen und übermorgen. Welche Ursachen den Entwicklungen zugrunde liegen und was datengetriebene Systeme auszeichnet, ist Gegenstand der folgenden Überlegungen.
Post-agil: Das Revolutionäre wird zum Standard
Der Begriff „post-agil“ markiert keinen Abgesang auf agile Methoden. Er steht vielmehr für eine Weiterentwicklung und Fokussierung des Konzepts. Einerseits impliziert er, dass die Lehren und Erkenntnisse der agilen Entwicklung bereits in die grundlegenden Arbeitsweisen eingeflossen sind. Sie sind einfach etabliert und gehören zum Handwerkszeug jeder Entwicklerin und jedes Entwicklers. Agiles Denken und Arbeiten ist die Regel, nicht die Ausnahme.
Andererseits gibt es vermeintliche Verbesserungen und Ergänzungen der agilen Idee, die den Praxistest nicht bestanden haben. So hat sich der Ansatz des Scaled Agile Framework (SAFe) als zu komplex erwiesen. Nicht als undurchführbar, aber als so wenig agil, dass der ursprüngliche Nutzen der Agilität schnell auf der Strecke bleibt. Beim agilen Festpreis hingegen sollte zusammenwachsen, was nicht zusammengehört. Einzelne Inkremente zu festen Preisen, viele kleine Festpreise statt einem großen. Das hört sich charmant an – mündet aber oft in der Controlling-Hölle.
Aktuell gibt es einen gegenläufigen Trend: Agilität wird wieder einfacher. Überall gibt es eine Tendenz zurück zum Kern der Idee. Und der Beitrag der agilen Idee für das Entwickeln wertstiftender Software kann kaum überschätzt werden. Mehr denn je gilt: Technologisches Know-how und Fachexpertise müssen bei IT-Projekten Hand in Hand arbeiten – und das ist bei datengetriebenen Projekten noch relevanter, mehr dazu weiter unten.
Post-monolithisch: Der große Beitrag kleiner Bausteine
Ein Blick in die Praxis zeigt: Der Trend geht zu kleineren Softwareprojekten. Noch vor wenigen Jahren zogen sich Teams monatelang zurück, um dann ein großes Stück Software in die Welt zu entlassen. Heute dominiert das Denken und Arbeiten in kleineren Einheiten. Das Konzept der Microservices setzt sich auf breiter Front durch. Ihr großer Vorteil: Sie sind in sich geschlossen – Stichwort „self contained“ – und damit einzeln einsetzbar. Das spielt vor allem im Zusammenhang mit datengetriebenen Anwendungen eine große Rolle, auch dazu weiter unten mehr.
Dank dieses Ansatzes bringen Softwareprojekte schnell Nutzen. Denn einzelne Services können sofort produktiv eingesetzt werden. Die dafür notwendige Priorisierung der Anwendungen erfordert jedoch detailliertes Fachwissen und den kontinuierlichen Austausch zwischen IT- und Fachangestellten. Nur dann lässt sich das grundsätzlich ungelöste Problem, wie viele Daten sinnvoll redundant gehalten werden, um die Microservices wirklich self contained zu machen, einigermaßen in den Griff bekommen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Post-agil und post-monolithisch sind wichtige Elemente, um die aktuelle Welt der Softwareentwicklung zu verstehen. Der revolutionärste Aspekt liegt jedoch in der Idee einer postprozessualen Unternehmens-IT.
Post-prozessual: Das Ende der Prozesse ist nahe
Ob ERP, CRM oder SCM: Bislang dominieren klassische Informationssysteme die IT-Welt. Sie dienen der Unterstützung und Automatisierung von Geschäftsprozessen in fest definierten Abläufen mit vorgegebener Taktung und klarer Aufgabenverteilung. Einzelne Daten werden sequenziell durch die Abläufe geschleust. Aus dieser Sicht sind Prozesse „Datenvereinzelungsmaschinen“. Die zugrunde liegenden Regeln der Informationsverarbeitung sind eindeutig. Dabei können Informationssysteme nur eine Art von Daten verarbeiten: konsistente Daten.
Neben Informationssystemen spielen CPS eine zentrale Rolle in der Unternehmens-IT. Sie verbinden Elemente der physischen Welt – Maschinen, Autos, Menschen – mit der digitalen Welt. Der Sensor, der Temperatur und Drehzahl einer Maschine überwacht. Oder der Fitnesstracker, der die Vitaldaten von Versicherten misst. Hier entstehen oft Daten, deren Konsistenz nicht mehr gegeben ist. Sie sind von unterschiedlicher Qualität, teilweise widersprüchlich, stammen aus unterschiedlichen Quellen. All das müssen Unternehmen und IT-Systeme bewältigen.
Aktuell dienen Daten nicht mehr nur der Unterstützung von Geschäftsprozessen. Sie bilden den Kern innovativer Systeme. Denn es sind genau diese Daten, auf denen der Unternehmenserfolg von morgen und übermorgen beruht. So kann sich in der Vielfalt der Kundendaten der Hinweis auf eine interessante Zielgruppe verbergen, die bisher nur unzureichend adressiert wurde. Oder in den Ergebnissen einer klinischen Studie der Ansatz für eine neue Therapie.
Bei solchen Aufgaben stoßen klassische Informationssysteme an ihre Grenzen. Hier schlägt die Stunde datengetriebener Systeme. Sie erleben ihren Aufstieg insbesondere im Zuge der zunehmenden Bedeutung von Anwendungen, die auf Künstlicher Intelligenz (KI) oder Generativer Künstlicher Intelligenz (GenAI) basieren. Für diese Systeme sind Daten als Trainings- und Lernmaterial wichtig. Im Gegensatz zu den „Datenvereinzelungsmaschinen“ der klassischen Prozesse arbeiten sie mit der Gesamtheit aller verfügbaren Daten.
Für die IT-Fachleute in den Unternehmen geht dieser Aufstieg mit einem grundlegenden Wandel der Anforderungen einher. Ein „normales“ fachliches Architekturwissen reicht nicht mehr aus. Es genügt nicht, über einzelne Dateneigenschaften sprechen zu können. Die IT muss auch ein Verständnis dafür entwickeln, was das Business interessiert, welche unterschiedlichen Arten von Daten in unterschiedlichen Branchen relevant sind.
Das passende Stichwort dazu ist „Data Literacy“, also Datenkompetenz. Damit ist die umfassende Fähigkeit innerhalb einer Organisation gemeint, Daten zielgerichtet zu nutzen und zu interpretieren.
Der oben beschriebene Fokus auf Prozesse – etabliert durch jahrzehntelange Arbeit in und mit Informationssystemen – wird durch datengetriebene Systeme auf eine harte Probe gestellt. Denn häufig besteht der menschliche Beitrag in diesen Geschäftsprozessen lediglich darin, Medienbrüche zu überwinden oder Inkonsistenzen zu prüfen. Aufgaben, die in datengetriebenen Systemen zumindest weniger relevant sind. So lässt sich auch mit inkonsistenten Daten gut lernen.
Es ist davon auszugehen, dass der Anteil der Arbeit, der in klassischen Informationsprozessen stattfindet, tendenziell abnehmen wird. An ihre Stelle treten zunehmend datengetriebene Systeme, die keine oder nur geringe menschliche Eingriffe erfordern. Eine zentrale Aufgabe für die Verantwortlichen in den Unternehmen besteht derzeit darin, die klassische Prozessperspektive mit der relativ neuen Datenperspektive in Einklang zu bringen.
Ein anderes Denken, ein anderes Arbeiten
Weg vom Prozess, hin zu den Daten: Das betrifft zum einen die Einstellung der Mitarbeiterinnen und Mitarbeiter, zum anderen die Art und Weise, wie Software entwickelt wird.
Wer seit Jahrzehnten darüber nachdenkt, wie er die eigenen Geschäftsprozesse noch etwas effizienter gestalten oder den Automatisierungsgrad um ein paar Prozentpunkte erhöhen kann, fängt nicht einfach an einem Montagmorgen an, datengetrieben zu denken. Und an einem anderen Morgen schon mal gar nicht. Dazu braucht es flächendeckende Schulungen, Experimentiermöglichkeiten im eigenen Aufgabenbereich und den Austausch mit Datenprofis. Und ein Management, das hinter dem Thema steht und die Richtung vorgibt.
So abgedroschen es sich auch anhören mag – es wird nicht ohne Veränderungsmanagement funktionieren. Es geht nicht um das Umsetzen eines einzelnen Anwendungsfalls, egal welche Strahlkraft er hat. Es geht darum, das volle Potenzial von Daten insgesamt auszuschöpfen. Die Verantwortlichen müssen die fachlichen, organisatorischen und technischen Voraussetzungen dafür schaffen, dass Daten allen und überall zur Verfügung stehen – unabhängig davon, wo sie erhoben wurden. Dementsprechend müssen Unternehmen Daten als „grenzenlos“ verstehen: Grenzenlos nutzbar in der gesamten Organisation. In Anwendungsfällen, die sich ständig weiterentwickeln. Das Stichwort lautet „Boundless Data“.
Gleichzeitig verändert sich die Anwendungsentwicklung fundamental. Und der Begriff „fundamental“ passt hier im wahrsten Sinne des Wortes: Bis hin zur Hardware, der Basis jeder IT, gibt es Unterschiede zwischen klassischen und datengetriebenen Anwendungen. Der Infokasten gibt einen Eindruck vom Aufbau datengetriebener Anwendungen.
Datengetriebene Anwendungen
Datengetriebene Anwendungen zeichnen sich aus durch:
Services: Dienstleistungen bezüglich Spezialwissen zur Nutzung generativer KI
Applications: Anwendungen, die weitgehend unveränderte oder auf bestimmte Anwendungsfälle abgestimmte Grundmodelle verwenden
Model Hubs & Machine Learning OPs (MLOPs): Werkzeuge zum Kuratieren, Feinabstimmen oder Verwalten von Foundation Models
Foundation Models: Modelle, auf denen generative KI-Anwendungen aufgebaut werden können
Cloud Platforms: Plattformen, die den Zugang zur Hardware ermöglichen
Computer Hardware: Beschleunigerchips, die für das Training und die Ausführung der Modelle optimiert sind
In diesem Kontext spielen die schon erwähnten Microservices eine wichtige Rolle. Durch ihren modularen Aufbau ermöglichen sie einen flexiblen Umgang mit großen und heterogenen Datenmengen. So erleichtern die kleinen, unabhängigen Dienste die Integration neuer Datenquellen und Analysewerkzeuge, was für eine schnelle Informationsverarbeitung unerlässlich ist.
Aus den ersten Erfahrungen mit datengetriebenen Softwareprojekten lassen sich einige wesentliche Erkenntnisse ableiten, die für die Entwicklung und Implementierung solcher Systeme von Bedeutung sind.
Zunächst zeigt sich, dass der Datenbedarf von den Verantwortlichen häufig unterschätzt wird. In der Regel benötigen Unternehmen deutlich mehr Daten als zunächst angenommen.
Aber: Nicht alle gesammelten Daten enthalten tatsächlich relevante Informationen. Es kommt vor, dass Unternehmen große Datenmengen analysieren, die letztlich keine wertvollen Erkenntnisse liefern. Das lässt sich im Vorfeld kaum vorhersagen.
Schließlich sind die allermeisten Anwendungen in der Praxis unbedenklich. Der öffentliche Diskurs, insbesondere im Zusammenhang mit Generativer KI, dreht sich häufig um mögliche Risiken. Diese Befürchtungen treffen jedoch nur auf einen kleinen Teil der betrieblichen Anwendungen zu. Die überwiegende Mehrheit datengetriebener Softwareprojekte ist unbedenklich.
Fazit
Der Erfolg von gestern ist kein Garant für den Erfolg von morgen. Auf die Softwareentwicklung übertragen bedeutet das: Nur weil Verantwortliche und Teams seit Jahren erfolgreich arbeiten, heißt das nicht, dass sie mit ihren Werkzeugen und Skills auch in Zukunft ähnlich erfolgreich sind. Momentan ist auf dem Gebiet der Softwareentwicklung vieles im Umbruch. Niemand kann heute exakt absehen, wie genau die Paradigmen aussehen, unter denen die Fachleute in Zukunft Software bauen.
Es kristallisiert aber heraus, dass ein Zusammenhang auch in der Welt schwindender Sicherheiten von Bedeutung bleibt: Jetzt kommt es noch mehr auf beide Seiten – IT- und Fachabteilung – an. Im Schulterschluss dieser Kompetenzen liegt das Geheimnis erfolgreicher IT-Projekte.
Ohne Kenntnis der technologischen Möglichkeiten werden Innovationschancen übersehen. Und ohne Kenntnis der fachlichen Zusammenhänge werden die Einsatzchancen neuer Technologien überschätzt. Diese einfache Wahrheit sollte in jedem Workshop-Raum – ob real oder virtuell – in Großbuchstaben an der Wand stehen. Denn egal unter welchen Umständen Unternehmen in Zukunft Software entwickeln: Diese Aussage wird Bestand haben.
* Über den Autor Prof. Dr. Volker Gruhn gründete 1997 die adesso SE mit und ist heute Vorsitzender des Aufsichtsrats. Er ist Inhaber des Lehrstuhls für Software Engineering an der Universität Duisburg-Essen. Sein Forschungsschwerpunkt in diesem Bereich liegt auf der Auseinandersetzung mit den Auswirkungen der Digitalen Transformation. Er beschäftigt sich insbesondere mit der Entwicklung und dem Einsatz von Cyber-Physical Systems und datengetriebenen KI-Anwendungen. Prof. Dr. Gruhn ist Autor und Co-Autor von über 350 nationalen und internationalen Veröffentlichungen und Konferenzbeiträgen.