/Big Data

Deshalb können Algorithmen nie gerecht sein

WIRED Editorial 29.09.2017 Lesezeit 2 Min

Künstliche Intelligenzen diskriminieren, können rassistisch und homophob sein. Warum das so ist und wie sich die Berechenbarkeit auf die Gesellschaft auswirkt, erklärt Lorena Jaume-Palasí von AlgorithmWatch im WIRED-Interview.

WIRED: Frau Jaume-Palasí, es wird immer wieder davon berichtet, dass Algorithmen bestimmte Gesellschaftsgruppen diskriminieren. Warum kann die Mathematik nicht vorurteilsfrei entscheiden? 
Lorena Jaume-Palasí: Weil Algorithmen von Menschen entwickelt werden, die bestimmte Vorstellungen oder Vorurteile haben.

WIRED: Das heißt: Wenn der Coder ein Rassist ist, spiegelt sich das auch in den vom ihm verfassten Algorithmen wider?
Jaume-Palasí: Ja, der Programmierer schreibt seine Weltsicht in den Code mit hinein.

WIRED: Wenn das so ist, dann könnte man doch einfach diese Befangenheit aus den Codes entfernen – damit Algorithmen fortan niemanden mehr benachteiligen?
Jaume-Palasí: Algorithmen diskriminieren immer, weil es ihre Aufgabe ist, zu kategorisieren und zu sortieren. Natürlich könnte der Coder versuchen, bestimmte Einteilungen zu vermeiden. Das würde aber nicht für den kompletten algorithmischen Prozess funktionieren. Es gibt keine algorithmische Formulierung, die allen Gerechtigkeitsansprüchen genügt. Das wäre auch gar nicht wünschenswert. 

 Algorithmen diskriminieren immer, weil es ihre Aufgabe ist, zu kategorisieren und zu sortieren

Lorena Jaume-Palasí

WIRED: Warum nicht?
Jaume-Palasí: Ein Algorithmus kann in verschiedenen Bereichen angewendet werden. Es gibt zum Beispiel einen Algorithmus, der voraussagen kann, welche Bewertungen bestimmte Filme auf Internetportalen erhalten werden. Der gleiche Algorithmus wird mittlerweile auch in der Krebsforschung eingesetzt. Stellen Sie sich vor, Sie schlössen von vorneherein aus, dass dabei zwischen den Geschlechtern unterschieden würde. Dann könnten Sie den Algorithmus in der Medizin nicht mehr anwenden, wo es unter Umständen sehr wichtig ist, Kategorien wie weiblich oder männlich zu berücksichtigen.

WIRED: Das heißt, man kann gar nicht vorhersagen, wie sich ein Algorithmus auswirkt? Hat dann die Forderung von Justizminister Heiko Maas nach einem Transparenzgebot für Algorithmen überhaupt Sinn?
Jaume-Palasí: Nein. Algorithmen müssen immer im Kontext betrachtet werden. So wie das heute auch schon der Fall ist: So kontrollieren heute bereits Behörden zum Beispiel die Algorithmen, die in der Finanzbranche benutzt werden. Algorithmen ohne eine gezielte Fragestellung zu überprüfen, macht keinen Sinn. Technologie sollte nicht nur um des Regulierens willen reguliert werden. Man muss sie im Sinne der Gesellschaft regulieren.

WIRED: Wie sollen wir dann damit umgehen, dass Algorithmen Entscheidungen treffen, die diskriminieren?
Jaume-Palasí: Diskriminierung ist ein soziales Problem. Dieses muss dort gelöst werden, wo es entsteht: in der Gesellschaft. Wenn die Gesellschaft das schafft, dann werden die Menschen die Technik dafür auch nicht mehr missbrauchen.