/Life

Rassismus? Beim KI-Schönheitswettbewerb gewinnen fast nur Weiße

Cindy Michel 09.09.2016

Sind Computer Rassisten? Dieses Vorurteil scheint ein Schönheitswettbewerb zu bestätigen, bei dem Künstliche Intelligenzen die Gewinner kürten. Das Ergebnis fiel blass aus: Unter den 44 Siegern gab es nur eine Person mit dunkler Hautfarbe.

Es ist schon eine seltsame Zeit. Maschinen bewerten, wie schön Menschen sind und – man kann es fast nicht anders sagen – outen sich dabei als Rassisten. Künstlich intelligente Programme, die keine Haut, geschweige denn Hautfarbe haben, diskriminieren nämlich paradoxerweise genau auf dieser Basis.

Zumindest die KI-Jury beim Schönheitswettbewerb Beauty.AI: Über 6000 Selfies von Menschen aus mehr als 100 Ländern wählten die Maschinen 44 Gewinner, unterteilt nach Alter und Geschlecht. Das Resultat ist erschreckend: Nur sechs Asiaten schafften es auf das breite Siegertreppchen und lediglich eine Person mit dunkler Hautfarbe.

Viel zu blass: Fast alle Gewinner des KI-Schönheitswettbewerbs sind weiß

Beauty.AI ist eine Initiative der Youth Laboratories, eine russisch-chinesische Forschungseinrichtung. Das Institut in Hong-Kong hat sich auf Deep Learning spezialisiert, sein Fokus liegt auf Vitalität und Schönheit, die wichtigsten Märkte sind Anti-Aging-Produkte und das Gesundheitswesen.

Teilnehmer des Schönheitswettbewerbs sollten Selfiefotos mit einer eigens dafür kreierten App ohne Make-up, Bärte sowie Sonnenbrillen aufnehmen und hochladen. Eine KI-Jury kürte dann Schönheitskönige und -königinnen, laut Motherboard basierend auf Gesichtssymetrie, Anzahl der Falten oder auch augenscheinlicher Vitalität.

Logisch betrachtet sind Roboter von der ersten Stromzufuhr bis zur letzten soweit vom Rassismus entfernt wie nur irgend möglich, denn Künstliche Intelligenzen besitzen keine ethnische Zugehörigkeit. Sie sind künstlich erschaffen, gebaut aus Kabeln, Chips und Bits von Menschenhand. Und genau da liegt das Problem: Ein Algorithmus ist nur so gut wie sein Datensatz. Nur so fortschrittlich entwickelt wie sein menschlicher Lehrer.

Während die Gründe für eine rassistisch agierende KI mannigfaltig sein können, ist das Phänomen alles andere als neu. Erst vor Kurzem machte der lernfähige Chatbot TAY von Microsoft mit rassistischen Parolen auf sich aufmerksam. Auf einen lückenhaften Datensatz verweisen die Wissenschaftler der Youth Laboratories. Die Algorithmen wurden mit einer enormen Anzahl von Portraits gefüttert, auf deren Basis sie Merkmale von menschlicher Schönheit evaluieren sollen. Und die waren anscheinend zu weiß.

„Wenn man in einem Datensatz nicht genügend Menschen mit dunkler Hautfarbe hat, dann kann das die Resultate verfälschen“, erläutert Alex Zhavoronkov, leitender Wissenschaftler bei Beauty.AI, gegenüber dem Guardian. Weiterhin meint er, der sich selbst überrascht ob der Ergebnisse zeigte, helle Hautfarbe sei kein Kriterium für Schönheit bei Beauty.AI.

Außerdem könne auch die hohe Beteiligung von Weißen aus Europa (75 Prozent) und die dafür geringe Zahl von Menschen aus Ländern wie Afrika (1 Prozent) oder Indien (7 Prozent) für das Ergebnis verantwortlich sein, wie Konstantin Kiselev, Chef-Technologe bei Youth Laboratories, sagt. Ein ähnliches Problem habe sein Team auch schon bei einer Evaluation ihres Falten-Datensatzes festgestellt, in dem weit mehr Menschen mit heller, als mit dunkler Hautfarbe archiviert seien.

Die Ergebnisse des Beauty.AI hätten uns wieder einmal den Spiegel vorgehalten, sagt der Jurist Bernard Harcourt von der Columbia University, der sich mit dem Thema der vorausschauenden Überwachung beschäftigt. „Die Idee, dass man ein kulturell wie ethnisch unabhängiges Schönheitsideal kreieren kann ist irrsinnig“, sagte er dem Guardian. Dieser Fall mahne zur Vorsicht, denn „wir Menschen sind es, die denken, auch wenn es Algorithmen für uns ausdrücken und wir daher glauben, dass ihre Antworten neutral wie wissenschaftlich sind“.

Denn nicht nur bei so etwas Banalem wie einem Schönheitswettbewerb sind in der Vergangenheit rassistische Tendenzen von Computern (hört sich komisch an, ist aber so) aufgefallen, sondern auch bei etwa einer Software, die die Rückfallgefahr bei Straftätern berechnen soll. Denn diese soll Afroamerikaner systematisch benachteiligen – ihnen wird fälschlicherweise fast doppelt so häufig ein Rückfallrisiko bescheinigt wie Weißen.

Im Herbst will Youth Laboratories einen neuen Versuch starten und die nächste Runde ihres Beauty.AI beginnen, mit überarbeiteten Algorithmen wie Zhavoronkov sagt. Vielleicht überarbeiten sie dafür auch ihre Homepage Beauty.AI, denn die Gesichter auf den Beispielbildern für Teilnehmer sind genau so weiß und ohne Diversität wie die aktuellen Gewinner.

+++ Mehr von WIRED regelmäßig ins Postfach? Hier für den Newsletter anmelden +++

Jetzt WIRED Member werden und mit uns in die Zukunft starten!

Mit im Paket: 4 Magazin-Ausgaben im Jahr und der Member-Zugang zu exklusiven Inhalten auf WIRED.de sowie weitere Vorteile nur für Member.

Member werden