Voreingenommenheit ist im Bereich der Künstlichen Intelligenz (KI) ein komplexes Thema und kann schnell negative Folgen nach sich ziehen. Der Datenspezialist Panasas zeigt, wie sich voreingenommene Daten entkräften lassen und beleuchtet, ob KI künftig sogar selbst Stereotype beseitigen kann.
Vorurteilsbehaftete Daten sind für KI-Anwendungen ein großes Problem.
Wer im Technologie-Sektor unterwegs ist, beobachtet die Fortschritte der künstlichen Intelligenz (KI) in der Regel mit Spannung. Von der Aufdeckung betrügerischer Transaktionen bis hin zur Prognose eines Krankheitsverlaufs ist KI in der Lage, Automatisierungsprozesse zu optimieren und Forschung zu unterstützen. Eine Umfrage des Pew Research Centers aus dem Jahr 2021 hat allerdings ergeben, dass die zunehmende Dominanz von KI „eher mit Sorge als mit Begeisterung“ von vielen Menschen wahrgenommen wird. Weshalb ist das so?
Ethische Bedenken
Von der häufig zitierten Furcht, den eigenen Arbeitsplatz zu verlieren (und gar der Angst vor einem generellen Aufstand aller Roboter) einmal ganz abgesehen, geht es beim öffentlichen Misstrauen gegenüber Künstlicher Intelligenz vorrangig um die Themenfelder Datenschutz, Vertrauen und Ethik.
Professor Frank Rudzicz von der University of Toronto skizziert die aktuell größten ethischen Bedenken zu KI:
Der tatsächliche Einsatz von KI entspricht oft nicht der eigentlichen in den Vordergrund gestellten Absicht
Nicht alle Menschen steht der Zugang offen zu KI sowie KI-beeinflussten Bereichen
Es kann sehr leicht passieren, dass unbewusste menschliche Voreingenommenheit in unserer Gesellschaft über Daten ihren Weg in die Künstliche Intelligenz findet und dort dann noch verstärkt wird
Mit Blick auf den letztgenannten Punkt fordert Professor Rudzicz Experten der Industrie zum Handeln auf: „Wir müssen Wege finden, diesen Effekt zu minimieren. Daten, die wir der KI zur Verfügung stellen, müssen so vorurteilsfrei wie möglich sein“.
Da KI eine immer wichtigere Rolle bei wesentlichen Entscheidungen spielt, die sich direkt auf uns alle auswirken – insbesondere in heiklen Bereichen wie etwa dem Finanzsektor und dem Gesundheitswesen – wird die Forderung nach Beseitigung von Voreingenommenheit immer dringlicher.
Da sich in jeder Phase der KI-Pipeline Voreingenommenheit einschleichen und in extrem schädlichen Ergebnissen resultieren kann, müssen weitreichende Strategien zur Eindämmung her. Ergänzend dazu können wir uns der Technologie selbst zuwenden. Wir müssen KI so entwickeln, dass sie in der Lage ist, Voreingenommenheit zu erkennen, die uns entgeht, beziehungsweise sie sogar ganz zu verhindern.
So ernst wie ein Herzinfarkt
Hier ein hypothetisches, aber leider sehr plausibles Szenario: Ein Mann und eine Frau, beide in den späten Vierzigern, bewegen sich ähnlich viel, ernähren sich ähnlich und haben eine ähnliche Familienanamnese. Beide werden außerdem in den nächsten 72 Stunden einen Herzinfarkt erleiden.
Sie nutzen beide eine medizinische App auf ihren Smartphones, die mit ihren Smartwatches synchronisiert sind, um ihre Gesundheit zu überwachen. Sowohl der Mann als auch die Frau kreuzen Symptomkästchen für Druck in der Brust, Müdigkeit, Atembeschwerden und übermäßiges Schwitzen an. Die App zeigt der Frau folgende Nachricht an: „Sie leiden möglicherweise unter Angstzuständen. Sprechen Sie mit Ihrem Arzt“. Dem Mann zeigt die App folgende Warnung an: „Sie haben möglicherweise ein hohes Risiko für einen Herzinfarkt. Wenn Sie außerdem eines der folgenden Symptome aufweisen, rufen Sie sofort den Notarzt“. So sieht Voreingenommenheit in der KI oft aus.
Verzerrte Datensätze führen zu Fehlprognosen
Vielleicht überrascht es Sie, dass es nicht unbedingt „falsche“ Daten waren, die zu der falschen Prognose für die Frau geführt haben, sondern eher historisch verzerrte Datensätze. Es existiert eine tief verwurzelte, geschlechtsspezifische Diskrepanz in den Forschungsdaten der Kardiologie, die seit langem zu grundlegenden Mängeln in der medizinischen Versorgung von Frauen mit Herzerkrankungen führt. Die App in unserem Beispiel war also von Anfang an durch die geschlechtsspezifische Verzerrung in den Datensätzen zum Trainieren ihrer Modelle eingeschränkt.
Dies ist zwar eine der bekanntesten Quellen für KI-Verzerrungen, aber nicht alle sind in den Trainingsdatensätzen begründet – dann wäre die Situation ja viel einfacher zu beheben. In Wirklichkeit gibt es viel mehr Ansatzpunkte, die berücksichtigt werden müssen, und nicht alle sind so leicht zu erkennen. In der Studie „A Survey on Bias and Fairness in Machine Learning“ wurden 19 verschiedene Arten definiert, die in drei verschiedenen Interaktionsschleifen auftreten: Daten zu Algorithmus, Algorithmus zu Benutzer und Benutzer zu Daten.
Die Entwicklung der KI steht noch am Anfang, aber die Wirtschaft und die Gesellschaft sind von diesem Sachverhalt gleichermaßen beunruhigt. Tatsächlich hat Gartner vorausgesagt, dass 2022 85 Prozent aller KI-Projekte fehlerhafte Ergebnisse liefern werden, die auf implizierte Voreingenommenheit zurückzuführen sind.
Die Technologie existiert bereits
Zum Glück stellen viele Experten sogenannte Game Plans bereit, mit denen Unternehmen KI-Voreingenommenheit reduzieren können. Zu den bereits vorgeschlagenen Strategien zur Eindämmung gehören die Erweiterung von Datenerfassungspools, die Einführung synthetischer Datensätze, die Investition in Audits durch Dritte sowie die Erhöhung der Diversität von KI-Teams.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Dies alles sind solide Schritte auf dem Weg zu einer ethischen KI. Aber wir können noch einen Schritt weiter gehen, indem wir genau die Technologie, die wir als Problem diagnostizieren, dazu nutzen, neue Lösungen zu finden.
2019 beschrieb Karen Hao im MIT Technology Review-Artikel „This is how AI bias really happens — and why it’s so hard to fix“ einen der komplexeren Fälle von Voreingenommenheit als „unbekannte Unbekannte“: „Die Integration der Voreingenommenheit ist nicht immer offensichtlich […] die Auswirkungen der Daten und Entscheidungen werden möglicherweise erst viel später erkannt. In diesem Fall ist es schwierig, rückwirkend festzustellen, woher die Verzerrung kommt und wie man sie beheben kann“.
Wie können wir ein Problem beheben, von dem wir nicht wissen, dass es existiert? Im Fall der „unbekannten Unbekannten“ müssen wir über die oben beschriebenen Verfahren hinausgehen.
Und genau hier kann KI helfen. Hao verweist auf die Entwicklung von „Algorithmen, die dabei helfen, versteckte Verzerrungen in den Trainingsdaten zu erkennen und abzuschwächen, oder aber die vom Modell erlernten Verzerrungen unabhängig von der Datenqualität abzuschwächen“.
Tools und Lösungen
Forscher an der Penn State und der Columbia University, die diesen Weg verfolgen, haben ein KI-Tool zu Erkennung von Voreingenommenheit entwickelt, das sowohl bei menschlichen Entscheidungsträgern als auch bei KI-Systemen versteckte Diskriminierung in Bezug auf „geschützte Merkmale“ erkennen kann.
Self-Supervised Learning (SSL) könnte eine weitere Lösung darstellen - diesmal in Form von Prävention statt Erkennung. SSL ist ein Ansatz für das maschinelle Lernen, bei dem riesige Mengen unmarkierter Daten zum Trainieren von Modellen verwendet werden, um die oft mit Verzerrungen behafteten Markierungen zu umgehen. Es mag noch zu früh sein, um das Entschärfungspotenzial von SSL zu beurteilen, aber Yann LeCunn und Ishan Misra beschrieben die Methode auf ihrem Blog als „eine der vielversprechendsten Wege, ... sich einer Form von gesundem Menschenverstand in KI-Systemen anzunähern“.
Es ist ermutigend, dass der Weg zu einer ethischen KI mehrere Strategien zur Verringerung von Voreingenommenheit aufweisen kann. Je mehr wir über diese aufkommenden Ansätze erfahren, die den Einsatz von KI selbst zur Beseitigung von Voreingenommenheit beinhalten, desto klarer wird, dass die Technologie-Community als Ganzes die Verantwortung trägt, mit Forschern zusammenzuarbeiten und Verbesserungen bei Software- und Hardware-Lösungen zu ermöglichen.
Über den Autor
Richio Aikawa ist Senior Director of Strategic Marketing bei Panasas. Er startete seine Karriere mit der Entwicklung und Analyse von Modellen für Trägheitsnavigationssysteme unter Verwendung von Kalman-Filtern. Heute konzentriert er sich auf die Zusammenarbeit mit technischen und geschäftlichen Führungskräften bei kosteneffizienten, leistungsfähigen und sicheren HPC- und KI/ML-Datenspeicherlösungen.