Künstliche Intelligenzen ermöglichen ein Leben ohne Diskriminierung – oder doch nicht?

Künstliche Intelligenz

Wir Menschen entscheiden nie neutral, wir vermischen Halbwissen, Vorlieben und Vorurteile, ohne dass es uns oft bewusst ist. Wie gut, dass Algorithmen uns jetzt die Entscheidungen abnehmen, denn diese sind immer objektiv und würden nie diskriminieren. Eine schöne neue Welt. Oder doch nicht?

Wie viel ist ethisch vertretbar?

So groß die Begeisterung auch vielerorts darüber ist, was Künstliche Intelligenz schon heute zu können vermag, werfen die Entwicklungen doch zahlreiche ethische Fragen auf: Welche kritischen Entscheidungen darf eine KI selbstständig und autonom treffen, wer haftet bei Fehlschlägen und Unfällen, wie ist es um die Datensicherheit bestellt und dürfen Roboter und Drohnen menschliches Leben vernichten? Gerade im Bereich autonomes Fahren werden ethische Fragen in Bezug auf Künstliche Intelligenzen heftig diskutiert. Andere Branchen und Bereiche fangen im besten Fall gerade erst an, sich mit ethischen Fragen zu beschäftigen.

Matrix, Terminator und Co. zeigen nicht die eigentliche Gefahr, die von KI ausgeht

Gerade im Kundenservice sind autonome Systeme eine große Unterstützung. Sie entlasten die Mitarbeiter und übernehmen immer mehr Tätigkeiten. Die Angst ist daher groß, von Algorithmen ersetzt zu werden. Und nicht nur das, viele fürchten sich vor der Übermacht Künstlicher Intelligenz, die in zahlreichen Filmen über KI wie Terminator und Matrix aufgezeigt wird. Googles KI-Chef John Giannandrea erklärte kürzlich jedoch, dass wir vor einer ganz anderen Gefahr stehen: Dem blinden Vertrauen in Daten und Algorithmen. Denn diese sind anders als oft vermutet nicht neutral und ohne Vorurteile. Das Analyseergebnis kann durch schlechte Daten verfälscht werden und Diskriminierung und Rassismus reproduzieren, anstatt uns davon zu befreien.

So rassistisch können Künstliche Intelligenzen sein

Spätestens seit Microsofts Blamage mit dem Chatbot Tay war klar, dass sich auch Algorithmen zu rassistischen und antisemitischen Äußerungen verleiten lassen. Doch jetzt werden immer weitere Beispiele von KI Diskriminierungen publik:

1

Die Bildsoftware von Google beschriftet Bilder von Afroamerikanerinnen mit „Gorilla“.

2

Beim Suchen von professionellen Frisuren erscheinen auf Google nur Bilder von blonden Flechtfrisuren.

3

Bei einem Schönheitswettbewerb, der maschinell entschieden wurde, gewannen nur weiße Kandidatinnen.

4

Asiatische Pässe wurden in der neuseeländischen Passbehörde verweigert, da die Software die Augen für geschlossen hielt.

5

Ein Algorithmus, der Richter unterstützte, assoziierte eine dunkle Hautfarbe mit einer höheren Rückfallwahrscheinlichkeit für Straftaten.

Schlechter Input, rassistischer Output

Der Grund dafür ist nicht etwa, dass die KI sich selbstständig zu einem Rassisten entwickelt, sondern dass die Entwickler sie mit schlechten, mit Vorurteil-behafteten Daten versorgen. KI Algorithmen lernen auf der Grundlage von ausgewählten Trainingsdaten. Wenn diese nicht sorgfältig ausgesucht wurden, reproduzieren sie die Probleme, anstatt sie zu beheben. Die KI an sich ist demnach nicht rassistisch, sie bringt aber diskriminierende Ergebnisse hervor.

Das Problem bei den Trainingsdaten liegt oft darin, dass Minderheiten nicht miteinbezogen werden. Dabei wurde schon häufig kritisiert, dass es in großen Tech-Konzernen an Diversität fehlt und vor allem weiße Mitarbeiter aufzufinden sind. Denn das hat auch große Auswirkungen auf die Software-Lösungen und die Produkte, die produziert werden.

Zwei Arten von Computer-Rassismus

Latente Vorurteile

Der Algorithmus verknüpft Ideen mit sozialen und äußerlichen Merkmalen wie Geschlecht oder Rasse. Versuchen Sie einer KI beispielsweise beizubringen, Wissenschaftler zu erkennen und nutzen dabei nur Bilder historischer Wissenschaftler, so wird der Algorithmus den Beruf des Wissenschaftlers eher mit dem männlichen als mit dem weiblichen Geschlecht in Verbindung bringen.

Stichprobenverzerrung

Die Stichprobenverzerrung ist eine weitere Ursache für diskriminierende Künstliche Intelligenzen. Das Wort „Straftäter“ könnte häufiger mit Menschen mit dunkler Hautfarbe assoziiert werden, da in Datenbanken mehr entsprechend verschlagwortete Bilder vorliegen.

Mehr Transparenz für Künstliche Intelligenzen und deren Trainingsdaten

Die Lösung für dieses Problem ist einfacher gesagt als getan: Mehr Diversität und Transparenz schaffen. So wünschen sich manche Experten rigorose Tests wie vor einer Medikamenten-Zulassung. Das soll sicherstellen, dass die Algorithmen nicht einseitig oder diskriminierend sind. Auch nach der Veröffentlichung soll der autonome Vorgang immer noch beobachtet werden, mit größter Transparenz und in Einbezug der Gruppen, die im jeweiligen Bereich häufig vernachlässigt oder gar diskriminiert werden.

Es ist an der Zeit, sich über Ethik Gedanken zu machen

Bis jetzt hat sich im Bereich Künstliche Intelligenz alles und jeder auf die technische Umsetzung konzentriert. Es ist an der Zeit, dass auch der ethische Gesichtspunkt stärker beleuchtet wird, bevor es zu spät ist. Dabei geht es aber nicht darum, die Algorithmen zu regulieren, sondern zu reflektieren, dass auch Algorithmen nicht neutral sind und wir diesen nicht blind vertrauen können. Schließlich sind wir Menschen uns unserer Unzulänglichkeit meist bewusst, bilden Gremien und stellen Gleichstellungs- und Antidiskriminierungsbeauftrage ein. Für Künstliche Intelligenzen gibt es so etwas noch nicht. Es wäre aber eine Überlegung wert…

So gelingt Ihnen die Digitalisierung im Kundenservice

Wer im Wettbewerb bestehen will, kommt an der Digitalisierung nicht vorbei. Trotzdem scheint es vielen Unternehmen schwerzufallen, digitale Kanäle für ihren Kundendialog zu nutzen. Wie Sie sich zukunftssicher aufstellen und die Digitalisierung nicht dem Zufall überlassen, lesen Sie in diesem Whitepaper.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.