ChatGPT & Co. – Software-Hersteller brauchen eine neue Strategie Generative KI Compliance-konform einsetzen

Ein Gastbeitrag von David Colwell * 5 min Lesedauer

Anbieter zum Thema

Generative KI wälzt die Welt der Software-Entwicklung gerade um, was neue Testing-Methoden erforderlich macht. Wie können Unternehmen die mit KI verbundenen Herausforderungen meistern und maximalen Nutzen aus ChatGPT und Co. ziehen?

Wer in der Entwicklung oder der eigenen Software generative KI einsetzen möchte, sollte auch diese kontiuierlich testen.(©  Blackdorian - stock.adobe.com)
Wer in der Entwicklung oder der eigenen Software generative KI einsetzen möchte, sollte auch diese kontiuierlich testen.
(© Blackdorian - stock.adobe.com)

Generative KI hilft nicht nur dabei, E-Mails zu schreiben oder Bilder zu generieren – auch in der Software-Entwicklung nimmt die Bedeutung der Technologie stetig zu. Vom Programmieren bis zum Testing beschäftigen sich innovative Entwicklungsunternehmen gerade mit den Einsatzmöglichkeiten von KI.

Der große Vorteil von generativer KI besteht dabei darin, dass man in natürlicher Sprache mit ihr interagieren kann. Ähnlich wie beim Low-Code/No-Code-Ansatz wird auf diese Weise der Anwenderkreis durch die Senkung von Einstiegshürden erweitert. Mitarbeiter ohne Programmierkenntnisse können dann Entwicklungs- und Testaufgaben übernehmen – solange sie die KI richtig einsetzen.

Doch genau hier liegt die Schwierigkeit. Wie nutzt man künstliche Intelligenz in diesem Zusammenhang richtig? Der Umgang mit KI, so zeigt die stetig wachsende Erfahrung, will gelernt sein. Mitarbeiter müssen trainieren, mit der KI zu interagieren und sie so zu steuern, dass sie die gewünschten Ergebnisse liefert. Es gilt, die KI mit den richtigen Prompts zu füttern und regelmäßig durch Feedback zu korrigieren.

Gute Dokumentation ist alles

Je genauer die Entwickler die Prozesse beschreiben können, die beim Programmieren in ihrem Kopf ablaufen, desto besser können sie die KI anleiten. Das ist für viele Menschen zunächst ungewohnt. Sie müssen lernen, eine verständliche Dokumentation zu erstellen, ähnlich wie sie ihre Handlungen einer anderen Person erklären würden.

Das Gleiche gilt für die Testautomatisierung. Es ist wichtig, dass Qualitätsingenieure genau dokumentieren, was ein Test tun soll und welche Entscheidungen er trifft. Wenn die KI Zugriff auf eine gute Dokumentation hat, lernt sie schnell, worauf sie achten muss. Dann kann sie etwa Testfälle für eine bestimmte Anwendung vorschlagen und selbstständig Tests erstellen. Auch bei der Dokumentation selbst kann man von der neuen Technologie profitieren und sich Schreibarbeit sparen. So könnte ein Prompt lauten: „Fasse zusammen, was ich gerade gemacht habe.“

Wie testet man den Tester?

Während Entwicklung und Qualitätssicherung durch generative KI-Lösungen optimiert werden, benötigen Unternehmen eine neue Strategie, um auch diese Systeme zu testen. Denn generative KI ist zwar zunehmend in Produkte und Dienstleistungen integriert, doch die Frage, ob solche Anwendungen überhaupt korrekt funktionieren, ist nicht leicht zu klären.

Es liegt in der Natur selbstlernender Systeme, dass sie sich in Abhängigkeit von den Daten, mit denen sie trainiert werden, ständig verändern. ChatGPT wurde beispielsweise für die Interaktion mit Menschen optimiert. Laut einer Studie von https://arxiv.org/pdf/2307.09009.pdf Forschern der Stanford University hat sich die Coding-Fähigkeit des Systems jedoch mittlerweile verschlechtert.

Letztlich ist unsicher, ob sich eine KI im produktiven Einsatz wie erwartet verhält. Die Krux an diesem ganzen Konzept ist, dass wir die Technologie nutzen, um Aufgaben zu lösen, deren Antworten wir selbst nicht kennen. Woher wissen wir also, ob die KI-generierte Antwort richtig ist?

Continuous Testing und Monitoring

Die Lösung liegt in einer Änderung der Teststrategie. Wir brauchen einen „Das hat in der Vergangenheit funktioniert“-Ansatz. Es geht darum herauszufinden, ob die KI vom erwarteten Verhalten abweicht und ob diese Veränderung Auswirkungen auf die eigenen Anwendungen und Systeme hat.

Regelmäßige Tests, die einem Monitoring ähneln, sind zu diesem Zweck essenziell. Als erstes sollten Qualitätsingenieure dazu zwischen zwei verschiedenen Testkategorien unterscheiden: Kritische Szenarien, in denen es mit hoher Wahrscheinlichkeit zu signifikanten Störungen kommt, wenn sich die Ergebnisse der KI ändern, und signifikante Situationen, in denen möglicherweise Störungen anfallen.

Um ein Abdriften vom erwarteten Verhaltungsmuster aufzuspüren, muss ein Anker gesetzt werden, indem man die Ein- und Ausgaben protokolliert. Tools wie IRIS können den Datenverkehr passiv aufzeichnen, ohne die Codebasis zu aktualisieren. Mit API-Testwerkzeugen sind Qualitätssicherer in der Lage, die Szenarien kontinuierlich zu überwachen. Es ist dabei ratsam, alle Änderungen zu dokumentieren und regelmäßig von erfahrenen Anwendern überprüfen zu lassen.

Darüber hinaus ist es wichtig, den Ernstfall in kritischen Szenarien durchzuspielen. Was passiert etwa, wenn ChatGPT fehlerhafte Ausgaben oder Antworten gibt? Um dies herauszufinden, ist es notwendig, die KI-Umgebung zu simulieren. Vorstellbar wäre etwa, die aufgezeichneten IRIS-Szenarien in virtuelle Dienste umzuwandeln. Qualitätsingenieure verändern dann die Antworten der simulierten KI, um zu sehen, wie das nachgelagerte System reagiert.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Der richtige Umgang mit Daten

Generative KI wird die Arbeitswelt grundlegend verändern. Deshalb müssen wir alle lernen, mit dieser neuen Technologie umzugehen. Dabei geht es auch um ethische und rechtliche Fragen wie die Wahrung von Datenschutz und Urheberrechten. Generative KI kann nichts Neues erfinden, sondern nur nachahmen, was sie bereits kennt und gelernt hat.

Einmal in das Modell eingespeiste Daten lassen sich nicht mehr ohne weiteres extrahieren. Dies ist besonders problematisch, wenn die KI mit den Eingaben der Nutzerinnen und Nutzer trainiert wird. Wie wird in einer solchen Situation beispielsweise das Recht auf Vergessenwerden nach der DSGVO gewahrt und wie wird überprüft, wem die Daten gehören?

Unternehmen, die KI-Modelle in ihren Anwendungen einsetzen, sollten daher auf eine gute Datenhygiene achten. Im Geschäftsverkehr zwischen Unternehmen ist es ratsam, für jeden Kunden ein eigenes Modell zu verwenden, um zu vermeiden, dass das System mit den Daten verschiedener Kunden gefüttert wird. Dadurch verhindern Unternehmen, dass Unbefugte Informationen aus dem Modell ziehen und sie erhalten sich auf diese Weise die Möglichkeit, alle Daten bei Bedarf zu löschen.

Fazit

Der optimale Weg, generative KI Compliance-konform einzusetzen, liegt derzeit in einer „Ein-Modell-pro-Kunde“-Strategie. In den nächsten Jahren wird sich bei der Gesetzgebung allerdings sicher noch etwas tun – kein Land kann es sich leisten, dass innovative Unternehmen in andere Regionen mit liberaleren KI-Regulierungen abwandern.

Für die Zukunft der KI in Deutschland wird es von entscheidender Bedeutung sein, dass der Gesetzgeber eine gute Balance zwischen Innovation und Regulierung findet. Die Unternehmen auf der anderen Seite sollten bei der Nutzung der neuen Technologie auf eine gute Datenhygiene achten und ihre Teststrategie kontinuierlich anpassen. So gelingt es, ChatGPT und Co produktiv in die unternehmenseigenen Prozesse einzugliedern.

* Über den Autor
David Colwell ist Vice President of Artificial Intelligence and Machine Learning bei Tricentis, einem Anbieter von Software für Testautomatisierung. Zuvor war er in den Bereichen Innovation, Solutions Architecture und Quality Assurance tätig.

Bildquelle: @chiefmonkeyherder

(ID:49806345)