Negativen Impaktfaktor beseitigen Wie sich vorurteilsbehaftete Daten in der KI entkräften lassen

Ein Gastbeitrag von Richio Aikawa, Senior Director of Strategic Marketing von Panasas

Anbieter zum Thema

Voreingenommenheit ist im Bereich der Künstlichen Intelligenz (KI) ein komplexes Thema und kann schnell negative Folgen nach sich ziehen. Der Datenspezialist Panasas zeigt, wie sich voreingenommene Daten entkräften lassen und beleuchtet, ob KI künftig sogar selbst Stereotype beseitigen kann.

Vorurteilsbehaftete Daten sind für KI-Anwendungen ein großes Problem.
Vorurteilsbehaftete Daten sind für KI-Anwendungen ein großes Problem.
(Bild: Gerd Altmann / Pixabay )

Wer im Technologie-Sektor unterwegs ist, beobachtet die Fortschritte der künstlichen Intelligenz (KI) in der Regel mit Spannung. Von der Aufdeckung betrügerischer Transaktionen bis hin zur Prognose eines Krankheitsverlaufs ist KI in der Lage, Automatisierungsprozesse zu optimieren und Forschung zu unterstützen. Eine Umfrage des Pew Research Centers aus dem Jahr 2021 hat allerdings ergeben, dass die zunehmende Dominanz von KI „eher mit Sorge als mit Begeisterung“ von vielen Menschen wahrgenommen wird. Weshalb ist das so?

Ethische Bedenken

Von der häufig zitierten Furcht, den eigenen Arbeitsplatz zu verlieren (und gar der Angst vor einem generellen Aufstand aller Roboter) einmal ganz abgesehen, geht es beim öffentlichen Misstrauen gegenüber Künstlicher Intelligenz vorrangig um die Themenfelder Datenschutz, Vertrauen und Ethik.

Professor Frank Rudzicz von der University of Toronto skizziert die aktuell größten ethischen Bedenken zu KI:

  • Der tatsächliche Einsatz von KI entspricht oft nicht der eigentlichen in den Vordergrund gestellten Absicht
  • Nicht alle Menschen steht der Zugang offen zu KI sowie KI-beeinflussten Bereichen
  • Es kann sehr leicht passieren, dass unbewusste menschliche Voreingenommenheit in unserer Gesellschaft über Daten ihren Weg in die Künstliche Intelligenz findet und dort dann noch verstärkt wird

Mit Blick auf den letztgenannten Punkt fordert Professor Rudzicz Experten der Industrie zum Handeln auf: „Wir müssen Wege finden, diesen Effekt zu minimieren. Daten, die wir der KI zur Verfügung stellen, müssen so vorurteilsfrei wie möglich sein“.

Da KI eine immer wichtigere Rolle bei wesentlichen Entscheidungen spielt, die sich direkt auf uns alle auswirken – insbesondere in heiklen Bereichen wie etwa dem Finanzsektor und dem Gesundheitswesen – wird die Forderung nach Beseitigung von Voreingenommenheit immer dringlicher.

Da sich in jeder Phase der KI-Pipeline Voreingenommenheit einschleichen und in extrem schädlichen Ergebnissen resultieren kann, müssen weitreichende Strategien zur Eindämmung her. Ergänzend dazu können wir uns der Technologie selbst zuwenden. Wir müssen KI so entwickeln, dass sie in der Lage ist, Voreingenommenheit zu erkennen, die uns entgeht, beziehungsweise sie sogar ganz zu verhindern.

So ernst wie ein Herzinfarkt

Hier ein hypothetisches, aber leider sehr plausibles Szenario: Ein Mann und eine Frau, beide in den späten Vierzigern, bewegen sich ähnlich viel, ernähren sich ähnlich und haben eine ähnliche Familienanamnese. Beide werden außerdem in den nächsten 72 Stunden einen Herzinfarkt erleiden.

Sie nutzen beide eine medizinische App auf ihren Smartphones, die mit ihren Smartwatches synchronisiert sind, um ihre Gesundheit zu überwachen. Sowohl der Mann als auch die Frau kreuzen Symptomkästchen für Druck in der Brust, Müdigkeit, Atembeschwerden und übermäßiges Schwitzen an. Die App zeigt der Frau folgende Nachricht an: „Sie leiden möglicherweise unter Angstzuständen. Sprechen Sie mit Ihrem Arzt“. Dem Mann zeigt die App folgende Warnung an: „Sie haben möglicherweise ein hohes Risiko für einen Herzinfarkt. Wenn Sie außerdem eines der folgenden Symptome aufweisen, rufen Sie sofort den Notarzt“. So sieht Voreingenommenheit in der KI oft aus.

Verzerrte Datensätze führen zu Fehlprognosen

Vielleicht überrascht es Sie, dass es nicht unbedingt „falsche“ Daten waren, die zu der falschen Prognose für die Frau geführt haben, sondern eher historisch verzerrte Datensätze. Es existiert eine tief verwurzelte, geschlechtsspezifische Diskrepanz in den Forschungsdaten der Kardiologie, die seit langem zu grundlegenden Mängeln in der medizinischen Versorgung von Frauen mit Herzerkrankungen führt. Die App in unserem Beispiel war also von Anfang an durch die geschlechtsspezifische Verzerrung in den Datensätzen zum Trainieren ihrer Modelle eingeschränkt.

Dies ist zwar eine der bekanntesten Quellen für KI-Verzerrungen, aber nicht alle sind in den Trainingsdatensätzen begründet – dann wäre die Situation ja viel einfacher zu beheben. In Wirklichkeit gibt es viel mehr Ansatzpunkte, die berücksichtigt werden müssen, und nicht alle sind so leicht zu erkennen. In der Studie „A Survey on Bias and Fairness in Machine Learning“ wurden 19 verschiedene Arten definiert, die in drei verschiedenen Interaktionsschleifen auftreten: Daten zu Algorithmus, Algorithmus zu Benutzer und Benutzer zu Daten.

Die Entwicklung der KI steht noch am Anfang, aber die Wirtschaft und die Gesellschaft sind von diesem Sachverhalt gleichermaßen beunruhigt. Tatsächlich hat Gartner vorausgesagt, dass 2022 85 Prozent aller KI-Projekte fehlerhafte Ergebnisse liefern werden, die auf implizierte Voreingenommenheit zurückzuführen sind.

Die Technologie existiert bereits

Zum Glück stellen viele Experten sogenannte Game Plans bereit, mit denen Unternehmen KI-Voreingenommenheit reduzieren können. Zu den bereits vorgeschlagenen Strategien zur Eindämmung gehören die Erweiterung von Datenerfassungspools, die Einführung synthetischer Datensätze, die Investition in Audits durch Dritte sowie die Erhöhung der Diversität von KI-Teams.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Dies alles sind solide Schritte auf dem Weg zu einer ethischen KI. Aber wir können noch einen Schritt weiter gehen, indem wir genau die Technologie, die wir als Problem diagnostizieren, dazu nutzen, neue Lösungen zu finden.

2019 beschrieb Karen Hao im MIT Technology Review-Artikel „This is how AI bias really happens — and why it’s so hard to fix“ einen der komplexeren Fälle von Voreingenommenheit als „unbekannte Unbekannte“: „Die Integration der Voreingenommenheit ist nicht immer offensichtlich […] die Auswirkungen der Daten und Entscheidungen werden möglicherweise erst viel später erkannt. In diesem Fall ist es schwierig, rückwirkend festzustellen, woher die Verzerrung kommt und wie man sie beheben kann“.

Wie können wir ein Problem beheben, von dem wir nicht wissen, dass es existiert? Im Fall der „unbekannten Unbekannten“ müssen wir über die oben beschriebenen Verfahren hinausgehen.

Und genau hier kann KI helfen. Hao verweist auf die Entwicklung von „Algorithmen, die dabei helfen, versteckte Verzerrungen in den Trainingsdaten zu erkennen und abzuschwächen, oder aber die vom Modell erlernten Verzerrungen unabhängig von der Datenqualität abzuschwächen“.

Tools und Lösungen

Forscher an der Penn State und der Columbia University, die diesen Weg verfolgen, haben ein KI-Tool zu Erkennung von Voreingenommenheit entwickelt, das sowohl bei menschlichen Entscheidungsträgern als auch bei KI-Systemen versteckte Diskriminierung in Bezug auf „geschützte Merkmale“ erkennen kann.

Self-Supervised Learning (SSL) könnte eine weitere Lösung darstellen - diesmal in Form von Prävention statt Erkennung. SSL ist ein Ansatz für das maschinelle Lernen, bei dem riesige Mengen unmarkierter Daten zum Trainieren von Modellen verwendet werden, um die oft mit Verzerrungen behafteten Markierungen zu umgehen. Es mag noch zu früh sein, um das Entschärfungspotenzial von SSL zu beurteilen, aber Yann LeCunn und Ishan Misra beschrieben die Methode auf ihrem Blog als „eine der vielversprechendsten Wege, ... sich einer Form von gesundem Menschenverstand in KI-Systemen anzunähern“.

Es ist ermutigend, dass der Weg zu einer ethischen KI mehrere Strategien zur Verringerung von Voreingenommenheit aufweisen kann. Je mehr wir über diese aufkommenden Ansätze erfahren, die den Einsatz von KI selbst zur Beseitigung von Voreingenommenheit beinhalten, desto klarer wird, dass die Technologie-Community als Ganzes die Verantwortung trägt, mit Forschern zusammenzuarbeiten und Verbesserungen bei Software- und Hardware-Lösungen zu ermöglichen.

Über den Autor

Richio Aikawa ist Senior Director of Strategic Marketing bei Panasas. Er startete seine Karriere mit der Entwicklung und Analyse von Modellen für Trägheitsnavigationssysteme unter Verwendung von Kalman-Filtern. Heute konzentriert er sich auf die Zusammenarbeit mit technischen und geschäftlichen Führungskräften bei kosteneffizienten, leistungsfähigen und sicheren HPC- und KI/ML-Datenspeicherlösungen.

(ID:48432936)