Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Die Auto-Tag-Funktion von Flickr spuckt rassistische Schlagwörter aus

von Max Biederbeck
Nachdem die neue Auto-Tag-Funktion bei Flickr rassistische und anstößige Schlagwörter produziert hat, gerät das Unternehmen in Erklärungszwang.

Eigentlich war die Idee gut, Bilder automatisch auszuwerten und dann zu benennen. Anfang Mai führte die Foto-Plattform Flickr ihr neues System ein. Ist auf einem Bild etwa ein Comic zu sehen, erkennt der Algorithmus des sozialen Foto-Netzwerks automatisch: Aha, da handelt es sich um einen Comic. Danach fügt es etwa im Fall des Bilds Camera Comics No. 4 - 1944 die Schlagworte: „Camera Comics“, „Comic book“, „Golden Age“ und „History of Photography“ hinzu. Das Comic-Pic lässt sich dadurch leicht über die Suche wiederfinden. Die Software funktionierte aber von Anfang an nicht richtig und jetzt ist bei Flickr der Gau passiert. 

Schon seit Anfang des Monats gab es immer mehr Beschwerden über falsche Tags bei der Plattform, im eigenen Forum gibt es mittlerweile über 2500 Kommentare zu diesem Thema — vor allem Beschwerden über falsche oder ungenaue Tags. Damit aber nicht genug: Offenbar hat die Auto-Tagging-Funktion auch noch vermehrt dunkelhäutige Menschen automatisch mit beleidigenden Attributen wie „Affe“ oder „Tier“ versehen. Fotos von Konzentrationslagern wie Dachau und Auschwitz bekamen die Tags „Sport“ und „Jungle Gym“.

Wir sind uns der ungenauen Auto-Tags bewusst und arbeiten an einer Lösung.

Flickr

Gegenüber dem Guardian sagte ein Flickr-Sprecher: „Wir sind uns der ungenauen Auto-Tags bewusst und arbeiten an einer Lösung.“ Besonders beleidigende Tags hat das Unternehmen bereits aus dem Netz genommen.

Unter dem Foto „William“ des Fotographen Corey Deshon, das die Rassismusprobleme der Software offenlegte, findet sich  das Wort „Ape“ nicht mehr. Der deutschsprachige Tag: „Tier“ steht da allerdings noch immer. Wie der Guardian berichtet, wurde auch das Wort „Sport“ in Verbindung mit dem Eingang von Ausschwitz entfernt. „Der Algorithmus wird nach der Löschung eines Fehlers lernen und besser werden“, versprach der Flickr-Sprecher.

Immer wieder tauchen in letzter Zeit Probleme in Bezug auf „rassistischen Code“ bei großen Web-Anbietern auf. So stand auch Google in der Kritik, weil die Suche nach einem rassistischen Wort in Verbindung mit dem Wort „House“ einen User direkt zur Seite des weißen Hauses führte, bekanntlich dem von US Präsident Barak Obama.

Die Schuld dabei allein auf einen autonom rechnenden Algorithmus zu schieben, erscheint vorschnell. In einem Interview auf der re:publica 15 mit WIRED Germany sagte der Software-Ethiker Kave Salamatian: „Algorithmen werden immer von Menschen programmiert und können nur in dem von ihnen erdachten Rahmen funktionieren.“ Die Rechen- und Einschätzungsfehler der Software müssen demnach auch irgendwo herkommen. Sie sind mehr als reiner Zufall.

Im Fall Flickrs gab es immerhin auch Beispiele von weißen Personen, die mit dem Tag „Affe“ versehen wurden. Einen bösen Willen zu unterstellen, wäre also ebenso vorschnell.  

GQ Empfiehlt
So funktioniert Putins Troll-Armee!

So funktioniert Putins Troll-Armee!

von Michael Förtsch