Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Ein Algorithmus enttarnt die Vorurteile von anderen Algorithmen

von Moritz Geier
Lernende Algorithmen sind nicht nur superschlau, sondern auch — ähnlich wie der Mensch, der sie programmiert — voreingenommen. Computerwissenschaftler haben jetzt einen Weg gefunden, die Vorurteile von solchen Algorithmen zu erkennen, die bei der Analyse von Lebensläufen in der Jobsuche eingesetzt werden. Die Forscher entwickelten dafür: einen Algorithmus.

Algorithmen gelten als Lernmaschinen, die immer besser, genauer und schlauer werden. Unfehlbar sind sie aber sicher nicht: Eine Studie zeigte erst kürzlich, wie Google-Algorithmen bei der Werbeplatzierung im Internet Frauen diskriminieren. Das Projekt „World White Web“ warf der Suchmaschine Diskriminierung bei der Hautfarbe vor. Forscher haben jetzt einen Weg gefunden, Vorurteile von Algorithmen zu erkennen und zu beheben.

Die Lösung des Problems ist — wie sollte es anders sein — selbst ein Algorithmus. Das Forscherteam um Suresh Venkatasubramanian von der Utah University hat eine Lernmaschine entwickelt, die den Grad der Voreingenommenheit eines bestimmten Algorithmus bestimmen kann. Dazu reicht der Zugang zu den Daten, die der zu untersuchende Algorithmus verwertet hat.

Bewerbungsunterlagen zum Beispiel: Viele Firmen nutzen mittlerweile Algorithmen, die eine Vorauswahl der Kandidaten treffen — etwa basierend auf bestimmten Daten aus den Lebensläufen, auf deren Erkennung sie programmiert sind. Je mehr Daten sie analysieren, desto mehr lernen die Algorithmen, Folgen vorherzusagen — ähnlich wie der Mensch auch. Dabei können die an sich völlig neutralen und moralfreien Maschinen mit der Zeit diskriminierende Züge annehmen.

Das Prinzip hinter Venkatasubramanians Lösung ist ein Test: Wenn die entwickelte Lernmaschine anhand der analysierten Daten (in diesem Fall Bewerbungsunterlagen und Auswahlergebnisse) die Hautfarbe oder das Geschlecht einer Person treffsicher vorhersagen kann, obwohl Auskünfte darüber in dem Datensatz fehlen, dann schlägt sie Alarm: Denn der Algorithmus würde Gefahr laufen, vorurteilsbehaftete Entscheidungen zu treffen. „Ich sage nicht, dass der Algorithmus es schon tut, sondern nur, dass aber zumindest die Möglichkeit eines Problems vorliegt“, erklärt Venkatasubramanian dazu. Um Diskriminierung aufzustöbern, machen sich die Forscher in ihrer Studie eine Definition aus dem amerikanischen Strafrecht zunutze.

Im US-Antidiskriminierungsrecht gilt die Theorie des „ungleichen Effekts“ (auf Englisch „disparate impact“). Demnach können Praktiken als diskriminierend und illegal angesehen werden, wenn sie sich unverhältnismäßig auf Personen einer bestimmten Gruppe (etwa nach Hautfarbe, Sexualität, Geschlecht oder Religion) auswirken, selbst wenn die Praktiken einen neutralen Anschein haben. Diese Auswirkungen seien allerdings schwerer zu erkennen, wenn Computer bestimmte Prozesse übernehmen, schreiben die Forscher in ihrer kürzlich überarbeiteten Studie.

Wenn die Computerwissenschaftler mit ihrem Test ein Problem bei einem Algorithmus erkennen, sei es hingegen einfach zu beheben, sagt Venkatasubramanian. Es genüge, die zu analysierenden Daten so umzuverteilen, dass der Algorithmus diejenigen Informationen nicht mehr sehen kann, die ihn dazu gebracht haben, voreingenommen zu sein. 

GQ Empfiehlt