Generative KI wälzt die Welt der Software-Entwicklung gerade um, was neue Testing-Methoden erforderlich macht. Wie können Unternehmen die mit KI verbundenen Herausforderungen meistern und maximalen Nutzen aus ChatGPT und Co. ziehen?
Wer in der Entwicklung oder der eigenen Software generative KI einsetzen möchte, sollte auch diese kontiuierlich testen.
Generative KI hilft nicht nur dabei, E-Mails zu schreiben oder Bilder zu generieren – auch in der Software-Entwicklung nimmt die Bedeutung der Technologie stetig zu. Vom Programmieren bis zum Testing beschäftigen sich innovative Entwicklungsunternehmen gerade mit den Einsatzmöglichkeiten von KI.
Der große Vorteil von generativer KI besteht dabei darin, dass man in natürlicher Sprache mit ihr interagieren kann. Ähnlich wie beim Low-Code/No-Code-Ansatz wird auf diese Weise der Anwenderkreis durch die Senkung von Einstiegshürden erweitert. Mitarbeiter ohne Programmierkenntnisse können dann Entwicklungs- und Testaufgaben übernehmen – solange sie die KI richtig einsetzen.
Doch genau hier liegt die Schwierigkeit. Wie nutzt man künstliche Intelligenz in diesem Zusammenhang richtig? Der Umgang mit KI, so zeigt die stetig wachsende Erfahrung, will gelernt sein. Mitarbeiter müssen trainieren, mit der KI zu interagieren und sie so zu steuern, dass sie die gewünschten Ergebnisse liefert. Es gilt, die KI mit den richtigen Prompts zu füttern und regelmäßig durch Feedback zu korrigieren.
Gute Dokumentation ist alles
Je genauer die Entwickler die Prozesse beschreiben können, die beim Programmieren in ihrem Kopf ablaufen, desto besser können sie die KI anleiten. Das ist für viele Menschen zunächst ungewohnt. Sie müssen lernen, eine verständliche Dokumentation zu erstellen, ähnlich wie sie ihre Handlungen einer anderen Person erklären würden.
Das Gleiche gilt für die Testautomatisierung. Es ist wichtig, dass Qualitätsingenieure genau dokumentieren, was ein Test tun soll und welche Entscheidungen er trifft. Wenn die KI Zugriff auf eine gute Dokumentation hat, lernt sie schnell, worauf sie achten muss. Dann kann sie etwa Testfälle für eine bestimmte Anwendung vorschlagen und selbstständig Tests erstellen. Auch bei der Dokumentation selbst kann man von der neuen Technologie profitieren und sich Schreibarbeit sparen. So könnte ein Prompt lauten: „Fasse zusammen, was ich gerade gemacht habe.“
Wie testet man den Tester?
Während Entwicklung und Qualitätssicherung durch generative KI-Lösungen optimiert werden, benötigen Unternehmen eine neue Strategie, um auch diese Systeme zu testen. Denn generative KI ist zwar zunehmend in Produkte und Dienstleistungen integriert, doch die Frage, ob solche Anwendungen überhaupt korrekt funktionieren, ist nicht leicht zu klären.
Es liegt in der Natur selbstlernender Systeme, dass sie sich in Abhängigkeit von den Daten, mit denen sie trainiert werden, ständig verändern. ChatGPT wurde beispielsweise für die Interaktion mit Menschen optimiert. Laut einer Studie von https://arxiv.org/pdf/2307.09009.pdf Forschern der Stanford University hat sich die Coding-Fähigkeit des Systems jedoch mittlerweile verschlechtert.
Letztlich ist unsicher, ob sich eine KI im produktiven Einsatz wie erwartet verhält. Die Krux an diesem ganzen Konzept ist, dass wir die Technologie nutzen, um Aufgaben zu lösen, deren Antworten wir selbst nicht kennen. Woher wissen wir also, ob die KI-generierte Antwort richtig ist?
Continuous Testing und Monitoring
Die Lösung liegt in einer Änderung der Teststrategie. Wir brauchen einen „Das hat in der Vergangenheit funktioniert“-Ansatz. Es geht darum herauszufinden, ob die KI vom erwarteten Verhalten abweicht und ob diese Veränderung Auswirkungen auf die eigenen Anwendungen und Systeme hat.
Regelmäßige Tests, die einem Monitoring ähneln, sind zu diesem Zweck essenziell. Als erstes sollten Qualitätsingenieure dazu zwischen zwei verschiedenen Testkategorien unterscheiden: Kritische Szenarien, in denen es mit hoher Wahrscheinlichkeit zu signifikanten Störungen kommt, wenn sich die Ergebnisse der KI ändern, und signifikante Situationen, in denen möglicherweise Störungen anfallen.
Um ein Abdriften vom erwarteten Verhaltungsmuster aufzuspüren, muss ein Anker gesetzt werden, indem man die Ein- und Ausgaben protokolliert. Tools wie IRIS können den Datenverkehr passiv aufzeichnen, ohne die Codebasis zu aktualisieren. Mit API-Testwerkzeugen sind Qualitätssicherer in der Lage, die Szenarien kontinuierlich zu überwachen. Es ist dabei ratsam, alle Änderungen zu dokumentieren und regelmäßig von erfahrenen Anwendern überprüfen zu lassen.
Darüber hinaus ist es wichtig, den Ernstfall in kritischen Szenarien durchzuspielen. Was passiert etwa, wenn ChatGPT fehlerhafte Ausgaben oder Antworten gibt? Um dies herauszufinden, ist es notwendig, die KI-Umgebung zu simulieren. Vorstellbar wäre etwa, die aufgezeichneten IRIS-Szenarien in virtuelle Dienste umzuwandeln. Qualitätsingenieure verändern dann die Antworten der simulierten KI, um zu sehen, wie das nachgelagerte System reagiert.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Der richtige Umgang mit Daten
Generative KI wird die Arbeitswelt grundlegend verändern. Deshalb müssen wir alle lernen, mit dieser neuen Technologie umzugehen. Dabei geht es auch um ethische und rechtliche Fragen wie die Wahrung von Datenschutz und Urheberrechten. Generative KI kann nichts Neues erfinden, sondern nur nachahmen, was sie bereits kennt und gelernt hat.
Einmal in das Modell eingespeiste Daten lassen sich nicht mehr ohne weiteres extrahieren. Dies ist besonders problematisch, wenn die KI mit den Eingaben der Nutzerinnen und Nutzer trainiert wird. Wie wird in einer solchen Situation beispielsweise das Recht auf Vergessenwerden nach der DSGVO gewahrt und wie wird überprüft, wem die Daten gehören?
Unternehmen, die KI-Modelle in ihren Anwendungen einsetzen, sollten daher auf eine gute Datenhygiene achten. Im Geschäftsverkehr zwischen Unternehmen ist es ratsam, für jeden Kunden ein eigenes Modell zu verwenden, um zu vermeiden, dass das System mit den Daten verschiedener Kunden gefüttert wird. Dadurch verhindern Unternehmen, dass Unbefugte Informationen aus dem Modell ziehen und sie erhalten sich auf diese Weise die Möglichkeit, alle Daten bei Bedarf zu löschen.
Fazit
Der optimale Weg, generative KI Compliance-konform einzusetzen, liegt derzeit in einer „Ein-Modell-pro-Kunde“-Strategie. In den nächsten Jahren wird sich bei der Gesetzgebung allerdings sicher noch etwas tun – kein Land kann es sich leisten, dass innovative Unternehmen in andere Regionen mit liberaleren KI-Regulierungen abwandern.
Für die Zukunft der KI in Deutschland wird es von entscheidender Bedeutung sein, dass der Gesetzgeber eine gute Balance zwischen Innovation und Regulierung findet. Die Unternehmen auf der anderen Seite sollten bei der Nutzung der neuen Technologie auf eine gute Datenhygiene achten und ihre Teststrategie kontinuierlich anpassen. So gelingt es, ChatGPT und Co produktiv in die unternehmenseigenen Prozesse einzugliedern.
* Über den Autor David Colwell ist Vice President of Artificial Intelligence and Machine Learning bei Tricentis, einem Anbieter von Software für Testautomatisierung. Zuvor war er in den Bereichen Innovation, Solutions Architecture und Quality Assurance tätig.