Künstliche Intelligenz und Diskriminierung

Auf den ersten Blick scheint künstliche Intelligenz das perfekte Mittel gegen Diskriminierung zu sein: Künstliche Intelligenz kennt keine Sympathie und kein Bauchgefühl, die Entscheidungen der Software müssten demnach Objektiv sein, oder nicht?

Ganz so einfach ist es leider nicht. In Abgrenzung zu starren Algorithmen, die Sachverhalte nach festen Kriterien bewerten, basieren Entscheidungen künstlicher Intelligenz auf ‚erlerntem‘ Wissen. Künstliche Intelligenzen sind durch ihre Lernfähigkeit flexibler einsetzbar und können ihre Funktion im Betrieb durch neu erworbenes Wissen selbst optimieren.

Das Programm der künstlichen Intelligenz nutzt eine Vielzahl von Daten, um Zusammenhänge zu erlernen. Die Herausforderung dabei ist, dass das zur Verfügung gestellte Lernmaterial frei von Diskriminierung sein muss. Gesichtserkennungssoftware wurde beispielsweise häufig vorwiegend mit den Gesichtern weißer männlicher Europäer oder Amerikaner trainiert. Das Resultat: die Software hat Probleme dabei, People of Color oder indigene Bevölkerungsgruppen zu unterscheiden, ganz besonders wenn es sich dabei um Frauen handelt. Natürlich diskriminiert der Algorithmus diese Bevölkerungsgruppen nicht absichtlich, Intentionen sind bei den aktuellen künstlichen Intelligenzen grundsätzlich nicht zu unterstellen, da die Programme über keinerlei Bewusstsein verfügen. Aber aufgrund fehlenden Trainingsmaterials können bestimmte Personengruppen die damit verbundenen Dienste nur eingeschränkt nutzen.

Auch künstliche Intelligenz kann diskriminieren

Dramatischer wird es, wenn von den Empfehlungen einer künstlichen Intelligenz Entscheidungen über Kreditvergabe, Personaleinstellung oder Bewährungschancen abhängen. In diesen Bereichen werden bereits erste künstliche Intelligenzen eingesetzt. Bei der Überprüfung einiger Projekte, konnte anhand der Ergebnisse festgestellt werden, dass eine Diskriminierung bestimmter Gruppen durch die Künstliche Intelligenz stattfand. In einem Pilotprojekt mit einer Künstlichen Intelligenz für die Personalabteilung Amazon wurde beispielsweise festgestellt, dass weibliche Bewerber von der KI diskriminiert wurden.

Künstliche Intelligenz Diskriminierung
Gerd Altmann / Pixabay

Denn selbst wenn sichergestellt wird, dass die Trainingsdaten die Realität korrekt abbilden, bilden viele der Datensätze bereits existente strukturelle Diskriminierung ab. Die Chance auf eine Einstellung sank durch die Angabe des weiblichen Geschlechts, eben weil bereits vor der Einführung der künstlichen Intelligenz weibliche Bewerber bewusst oder unbewusst durch die Personalchefs benachteiligt wurden.

Ähnlich verhält es sich mit dem System COMPAS, das in den USA eingesetzt wird, um Richter bei der Entscheidung für oder gegen eine Bewährungsstrafe zu unterstützen. Die KI benachteiligt People of Color. Zwar kennt das System die Hautfarbe des Straftäters nicht, dennoch neigt das System bei People of Color zu einer starken Überschätzung und bei weißen Straftätern hingegen zu einer starken Unterschätzung des Rückfallrisikos. Die Software verarbeitet insgesamt 137 Parameter und scheint so eine fehlerhafte Korrelation zwischen den Lebensumständen vieler People of Color und einem gesteigerten Rückfallrisiko herzustellen. Die Erfolgsquote der Software liegt mit 61% in Florida gerade mal 11% über einem Münzwurf. Bei Gewalttätern waren die Vorhersagen der KI nur zu 20% korrekt.

Auch interessant: Beflügelt Corona die Digitalisierung?

Quellen: MDR, Deutschlandfunk Nova, Büro für Technikfolgenabschätzung beim Deutschen Bundestag
Bildquelle: Gerd Altmann, Pixabay

Avatar-Foto

Simon Crins

Simon ist ausgebildeter Mediengestalter und absolvierte bereits sein Bachelorstudium an der Mobile University. Währenddessen war er für die ProSiebenSat.1 Gruppe unter anderem als Projektleiter tätig. Seit Ende 2018 arbeitet Simon im Raum Wolfsburg als Test- und Entwicklungsingenieur und hat im September 2020 sein Masterstudium in Medien- und Kommunikationsmanagement an der Mobile University begonnen.