Mensch oder Maschine? ChatGPT-Erfinder starten Erkennungs-Tool

Quelle: dpa Lesedauer: 2 min |

Anbieter zum Thema

Die Macher der schreibenden Software „ChatGPT“ versuchen, die Folgen ihrer Erfindung in den Griff zu bekommen. Die Entwicklerfirma OpenAI veröffentlichte ein Programm, das unterscheiden soll, ob ein Text von einem Menschen oder einem Computer geschrieben wurde.

Wer hat den Text geschrieben? Ein Mensch oder die KI? Und wie kann man es überprüfen?
Wer hat den Text geschrieben? Ein Mensch oder die KI? Und wie kann man es überprüfen?
(Bild: sdecoret - stock.adobe.com)

ChatGPT kann menschliche Sprache so gut nachahmen, dass es unter anderem Sorgen gibt, damit könnte bei Schul- und Studienarbeiten geschummelt oder im großen Stil Desinformationskampagnen erstellt werden. Deshalb werden Stimmen lauter, die nach eindeutiger Kenntlichmachung und Tools für die Erkennung des KI-Ursprungs rufen.

Noch funktioniert die Erkennung der ChatGPT-Texte allerdings schlecht, wie OpenAI in einem Blog-Eintrag einräumt. In Testläufen habe die Software in 26 Prozent der Fälle korrekt von einem Computer geschriebene Texte identifiziert.

Zugleich seien aber auch neun Prozent der von Menschen formulierten Texte fälschlicherweise einer Maschine zugeordnet worden. Deshalb empfehle man vorerst, sich bei der Bewertung der Texte nicht hauptsächlich auf die Einschätzung des „Classifiers“ zu verlassen.

Die Ursache des Problems

ChatGPT ist eine Software auf Basis Künstlicher Intelligenz (KI), die auf gewaltigen Mengen von Texten und Daten trainiert wurde, menschliche Sprache nachzuahmen. OpenAI machte ChatGPT im vergangenen Jahr öffentlich zugänglich und löste damit Bewunderung für die Fähigkeiten der Software und die Sorge vor Betrug aus.

Das System überzeugt vor allen durch die sprachliche Qualität seiner Antworten. Zugleich können sich die Nutzer aber nicht darauf verlassen, das ChatGPT auch tatsächlich wahrheitsgetreu antwortet und die Fakten richtig auf die Reihe bekommt. Kritiker des Systems stören sich außerdem daran, dass das KI-System keine Quellen für seine Aussagen nennen kann.

Vor allem im Bildungsbereich wird diskutiert, wie Inhalte eines Text-Roboters entlarvt werden können. Mit einem klassischen Plagiat-Scanner, mit dem man die Authentizität von Texten wirksam überprüfen kann, kommt man nicht weiter. Diese Scanner überprüfen nur, ob der Text oder Teile davon bereits in anderen Quellen vorkommen. Der KI-Schreiber von ChatGPT produziert aber einzigartige Texte, die exakt so noch nie formuliert wurden.

Die "Wasserzeichen"

Bei OpenAI ist auch der Einsatz von einer Art digitalem Wasserzeichen für ChatGPT im Gespräch, das für menschliche Augen nicht erkennbar wäre. Eine spezielle Überprüfungsoftware würde dann aber signalisieren, ob es sich um einen KI-Text handelt oder nicht.

Der Hype um ChatGPT schreckt auch die Konkurrenz auf. Vor allem der Google Konzern Alphabet sieht darin eine ernsthafte Gefahr für das eigene Geschäftsmodell.

Google entwickelt zwar ebenfalls seit Jahren Software, die wie ein Mensch schreiben und sprechen kann, sah bisher aber vor einer Veröffentlichung ab. Nun lasse der Internet-Konzern aber Mitarbeiter einen Chatbot testen, der ähnlich wie ChatGPT funktioniere, berichtete der Sender CNBC in der Nacht zum Mittwoch. In einer internen E-Mail heiße es, dass eine Antwort auf ChatGPT Priorität habe. Google experimentiere auch mit einer Version seiner Internet-Suchmaschine, die mit Fragen und Antworten arbeite.

Artikelfiles und Artikellinks

(ID:49045534)

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung