Herausforderungen verantwortungsvoller KI Google will Künstliche Intelligenz transparent machen
Künstliche Intelligenz, kurz KI, kann die Welt etwas einfacher machen. Doch unter die aktuelle Euphorie mischen sich auch Unsicherheit und Unbehagen. Google stellt dazu Untersuchungen an.
Anbieter zum Thema

Die Einsatzzwecke für KI-Algorithmen sind vielfältig. Sie sollen die Arbeitsbelastung von Ärzten reduzieren, Bilderkennung und Sprachübersetzungen optimieren oder auch die Wartezeit im Kundenservice reduzieren. Google selbst hat sich aus einem militärischen KI-Projekt zurückgezogen, nachdem es öffentliche Gegenreaktion erhalten hatte.
Die Kritik hat sich Google zum Anlass genommen, den verantwortungsvollen Umgang mit KI zu eruieren. Im Juni stellte Google seine KI-Prinzipien vor. Eine Diskussion über die Bedenken der Kunden wurde ebenfalls eröffnet.
Die Bedenken werden in vier Bereiche unterteilt: Unlautere Vorurteile, Interpretierbarkeit, Veränderung der Arbeitskräfte und Gutes tun. Im Folgenden stellen wir die Denkanstöße vor, die Rajen Sheth, Director of Product Management für Cloud AI bei Google, in einem Blog-Eintrag geteilt hat.
Ungerechte Verzerrung
Modelle des maschinellen Lernens sind nur so zuverlässig wie die Daten, auf denen sie trainiert wurden. Da der Mensch diese Daten vorbereitet, kann die Verzerrung einen messbaren Unterschied in den Ergebnissen machen. Aufgrund der Geschwindigkeit, mit der Algorithmen arbeiten, wird die ungerechte Verzerrung verstärkt, erklärt Google.
Unfaire Verzerrung ist heute immer das Ergebnis bewusster Vorurteile – wir ziehen natürlich Menschen und Ideen an, die unsere Überzeugungen bestätigen, während wir diejenigen ablehnen, die sie herausfordern. Um Probleme der Verzerrung zu lösen, hat Google in seinem Machine-Learning-Crash-Kurs Bildungsressourcen wie empfohlene Praktiken zur Fairness und das Fairness-Modul geschaffen. Es konzentriert sich auch auf Dokumentation und Öffentlichkeitsarbeit, so das Unternehmen.
„Ich glaube, dass das Wissen und die Werkzeuge, die wir entwickeln, einen großen Beitrag dazu leisten werden, die KI gerechter zu gestalten“, schreibt Rajen Sheth. Aber kein einziges Unternehmen könne ein derart komplexes Problem allein lösen. „Der Kampf gegen unfaire Verzerrungen wird eine kollektive Anstrengung sein, die durch die Beiträge einer Reihe von Interessengruppen geprägt ist, und wir haben uns verpflichtet zuzuhören.“
Interpretierbarkeit
Um KI-Systemen vertrauen zu können, müssen wir verstehen, warum sie die Entscheidungen trifft, die sie treffen. Die Logik traditioneller Software kann durch die Untersuchung des Quellcodes ausgelegt werden.
Das ist mit neuronalen Netzen nicht möglich, heißt es aus dem Unternehmen. Laut Google werden Fortschritte durch die Etablierung von Best Practices, einen wachsenden Satz von Tools, und gemeinsame Anstrengungen zur Erreichung interpretierbarer Ergebnisse erzielt.
Veränderung der Arbeitskräfte
Unser Verhältnis zur Arbeit verändert sich, und viele Unternehmen versuchen das Potenzial der Automatisierung und den Wert ihrer Mitarbeiter in Einklang zu bringen, so Google. Obwohl nicht alle Aufträge automatisiert werden können, muss etwas getan werden, um den Übergang für diejenigen zu erleichtern, die es können.
Google hat einen 50-Millionen-Dollar-Fonds für gemeinnützige Organisationen eingerichtet, die sich auf diese Zeit vorbereiten, indem sie Aus- und Weiterbildung anbieten, potenzielle Mitarbeiter mit idealen Beschäftigungsmöglichkeiten auf der Grundlage von Fähigkeiten und Erfahrungen verbinden, und Arbeitnehmer in Niedriglohnarbeitsplätzen unterstützen.
Gutes tun
Die letzte Facette besteht darin, sicherzustellen, dass die KI einen positiven Effekt hat. Es gibt eine enorme Grauzone, insbesondere in Bezug auf Bereiche, wie die KI für Waffen. „Unsere Kunden befinden sich an verschiedenen Orten entlang des Spektrums der Möglichkeiten für kontroverse Anwendungsfälle und erwarten von uns, dass wir ihnen helfen zu verstehen, was KI für ihr Unternehmen bedeutet“, schreibt Sheth.
Google arbeitet mit Kunden und Produktteams zusammen, um diese Grauzonen zu überwinden. „Eine sorgfältige ethische Analyse kann uns helfen zu verstehen, welche potenziellen Einsatzmöglichkeiten unangemessen oder schädlich sind. Ethische Entscheidungspraktiken können uns helfen“, äußert Sheth.
*Der Autor:
Thomas Joos schreibt auf DataCenter-Insider seinen eigenen Blog: „Toms Admin-Blog“
(ID:45618186)