Wird Künstliche Intelligenz eingesetzt, um Menschen bei der Kommunikation zu helfen, ist es wichtig, die ursprüngliche Absicht einer Nachricht zu respektieren. Ein Kommentar zur Bereitstellung verantwortungsvoller Schreibassistenz.
Je nach „Betätigungsfeld“ muss ein passendes Sprachmodell zum Einsatz kommen, das außerdem gewissen Spielregeln folgt.
Die Möglichkeiten der künstlichen Intelligenz zur Erstellung von Inhalten sind im vergangenen Jahr rasant gestiegen. Während der Akt des Schreibens nach wie vor sehr persönlich ist, haben die jüngsten Innovationen – insbesondere im Bereich der generativen KI – jedoch bestehende Ansätze zur Bereitstellung verantwortungsvoller Schreibassistenz weit hinter sich gelassen.
Wenn über Sicherheit und Fairness im Zusammenhang mit KI-Schreibassistenten nachgedacht wird, konzentrieren sich Forscher und Branchenexperten in der Regel darauf, toxische Sprache wie abwertende oder obszöne Ausdrücke zu erkennen und zu verhindern, dass sie den Nutzern angezeigt wird. Dies ist ein wichtiger Schritt, um die Modelle sicherer zu machen und sicherzustellen, dass sie nicht die denkbar schlechtesten Inhalte produzieren.
Dies allein reicht jedoch nicht aus, um ein Modell sicher zu machen. Was passiert, wenn ein Model Inhalte produziert, die an sich völlig harmlos sind, aber in bestimmten Kontexten anstößig werden? Ein Satz wie „Look on the bright side“ auf Englisch („Sieh es positiv“) kann im Zusammenhang mit einer kleinen Unannehmlichkeit positiv sein, aber im Zusammenhang mit einem Krieg äußerst beleidigend.
Als KI-Entwickler reicht es nicht aus, toxische Sprache zu blockieren, um zu behaupten, dass das Modell sicher ist. Um wirklich verantwortungsvolle KI-Produkte anbieten zu können, muss man verstehen, wie die Modelle funktionieren, welche Schwachstellen sie haben und in welchen Kontexten sie eingesetzt werden könnten. Kontrollen müssen zudem eingeführt werden, um schädliche Interaktionen zwischen KI-Systemen und Nutzern zu verhindern.
Das Problem und seine Bedeutung
Laut einer Forrester-Studie verwenden sieben von zehn Erwerbstätigen generative KI für die meisten oder gar alle ihre Schreib- und Textbearbeitungsaufgaben. Mit diesem Anstieg der Nutzung generativer KI-Tools interagieren mehr Inhalte als je zuvor regelmäßig mit KI, maschinellem Lernen (ML) und großen Sprachmodellen (LLMs).
KI macht bekanntlich Fehler. Laut einer Studie kontrollieren 67 Prozent der Erwerbstätigen, die textbasierte generative KI schon beruflich genutzt haben, die Resultate auf Korrektheit. 66 Prozent geben an, zu wissen, dass generative KI falsche Ergebnisse erzeugen kann. Wenn ein KI-Modell einen Vorschlag macht, der die Bedeutung eines Satzes verändert, ist das in der Regel ein harmloser Fehler und kann abgelehnt werden. Dies wird jedoch umso komplizierter, je weiter die Technologie voranschreitet und je mehr Entwickler sich auf LLMs verlassen.
Neigte zum Beispiel ein LLM zu politischer Voreingenommenheit, könnte es unverantwortlich sein, es politische Berichte erstellen zu lassen. Wenn die Tendenz zu Fehlinformationen und Halluzinationen besteht, kann es gefährlich und unethisch sein, es medizinische Ratschläge und Diagnosen generieren zu lassen. Diese unangemessenen Ergebnisse können also nicht nur harmlose Fehler sein, sondern weit schlimmer ausfallen und somit tiefgreifendere Folgen haben.
Ein Weg in die Zukunft
Die Branche muss neue Taktiken für Sicherheitsbemühungen entwickeln, um mit den Fähigkeiten – und Schwächen – der neuesten KI-Modelle Schritt zu halten. Einige der genannten Beispiele verdeutlichen, dass das Blockieren unerwünschter Ausdrücke meist nicht ausreicht, um gefährliche Interaktionen zwischen KI-Systemen und Nutzern im heutigen Ökosystem zu verhindern.
Erforscht man die Funktionsweise und Schwächen der Modelle und die Kontexte, in denen sie eingesetzt werden, kann man verantwortungsvolle Unterstützung für bereits genannte und weitere Fallbeispiele liefern:
1. Ein generativer KI-Schreibassistent kann eine Zusammenfassung einer medizinischen Diagnose erstellen. In einer Situation, in der viel auf dem Spiel steht, besteht jedoch ein großes Risiko, dass irreführende oder aus dem Zusammenhang gerissene Informationen eingefügt werden. Durch die Verwendung des richtigen ML-Modells als Leitplanke kann verhindert werden, dass das LLM ungenaue Informationen liefert.
2. Politische Meinungen sind nuanciert, sodass der Vorschlag oder die Ausgabe eines KI-Produkts leicht die Integrität eines Punktes fehldeuten kann, da es die Absicht oder den Kontext nicht versteht. Ein sorgfältig ausgearbeitetes Modell kann ein LLM davon abhalten, sich mit einigen politischen Themen zu befassen, bei denen die Gefahr von Fehlinformationen oder Voreingenommenheit besteht.
3. Soll im Trauerfall eine Beileidsbekundung für einen Kollegen verfasst werden, kann ein Modell verhindern, dass ein KI-Schreibassistent einen unpassenden Vorschlag macht, der „positiv“ oder ironisch klingt.
Schutzmechanismen erkennen „Sprach-Erdbeben“ durch Kontext
Ein Beispiel für einen solchen Schutz-Mechanismus ist Seismograph. Es ist das erste System seiner Art, das auf große Sprachmodelle und proprietäre maschinelle Lernmodelle aufgesetzt werden kann, um heikle Ausgaben zu reduzieren: So wie ein Seismometer Erdbebenwellen misst, erkennt und misst die Seismograph-Technologie, wie sensibel ein Text ist, sodass die Modelle rechtzeitig angemessen eingreifen können, um die negativen Auswirkungen auf Nutzende zu minimieren.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Die Entwicklung von Seismograph ist nur ein Beispiel dafür, wie ein hybrider Ansatz, bei dem LLM, ML und KI-Modelle zusammenarbeiten, zu vertrauenswürdigeren und zuverlässigeren KI-Produkten führt. Durch die Verringerung der Wahrscheinlichkeit, dass KI unerwünschte Inhalte ohne angemessenen Kontext liefert, kann die Branche KI-Schreibassistenz aus einer Position der Empathie und Verantwortung heraus anbieten.
Die Zukunft der verantwortungsvollen KI
Als sich KI-Kommunikationswerkzeuge in erster Linie auf die grundlegenden Mechanismen des Schreibens beschränkten, war der potenzielle Schaden, den ein Schreibvorschlag anrichten konnte, unabhängig vom Kontext minimal. Mit dem Fortschreiten der Technologie und dem zunehmenden Einsatz von KI bei komplexeren Schreibaufgaben, bei denen der Kontext eine Rolle spielt, wächst auch die Verantwortung solcher KI-Anbieter, dafür zu sorgen, dass ihre Lösungen keine unbeabsichtigten Folgen haben. Produktentwickler können diese drei Grundsätze befolgen, um sich selbst zur Verantwortung zu ziehen:
1. Die Suche nach Schwachstellen im Produkt durch Red Teaming, Bias- und Fairness-Evaluierungen sowie andere Drucktests können Schwachstellen aufdecken, bevor sie sich erheblich auf Kundinnen und Kunden auswirken.
2. Die Ermittlung branchenweiter Lösungen macht die Entwicklung verantwortungsvoller KI einfacher und zugänglicher. Die Entwicklung in verantwortungsvollen Ansätzen hilft, die Qualität der Produkte zu verbessern und das Vertrauen der Verbraucher in die KI-Technologie zu stärken.
3. Die Einbindung von Teams für “Responsible AI” in die gesamte Produktentwicklung ist wichtig, denn wenn niemand ausdrücklich dafür verantwortlich ist, dass die Modelle sicher sind, geht das schnell unter. Unternehmen müssen diesen Teams entsprechend Priorität einräumen und sie befähigen, eine zentrale Rolle bei der Entwicklung neuer und der Pflege bestehender Funktionen zu spielen.
Diese Grundsätze leiten so beispielsweise die Arbeit von Grammarly und bilden die Grundlage für das Engagement bei der Entwicklung öffentlich zugänglicher Modelle wie Seismograph. Auf diese Weise zeigt das Unternehmen, dass die Branche den Risiken voraus ist und den Menschen komplexere Vorschläge und generierte Ergebnisse bieten kann – ohne Schaden anzurichten.
* Über die Autorin Knar Hovakimyan leitet das Responsible AI Team von Grammarly, das sich auf die Entwicklung und Verbesserung von KI-Systemen fokussiert, die Vorurteile (Bias) abbauen und Fairness fördern. Knars Team aus analytischen Linguisten und Ingenieuren für maschinelles Lernen setzt sich dafür ein, dass die Vorschläge und Outputs von Grammarly für die über 30 Millionen Menschen und 70.000 Business-Teams, die das Produkt nutzen, inklusiv, unvoreingenommen und fair sind