Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Die neue KI von Twitter spürt pornografische und gewalttätige Inhalte auf

von Benedikt Plass-Fleßenkämper
Twitter automatisiert seinen Kampf gegen gewaltverherrlichende und sexuell explizite Inhalte: Die neue Künstliche Intelligenz des Kurznachrichtendienstes erkennt 99 Prozent aller anstößigen Bilder, markiert aber auch sieben Prozent von den Richtlinien nach akzeptablen Inhalten als problematisch.

Im Juli 2014 übernahm Twitter das Startup Madbits, das sich auf die Erkennung und Verarbeitung von Bilddaten spezialisiert hat. Twitters Entwicklungschef Alex Roetter erklärte im Interview mit WIRED US: „Wenn du eine Akquisition tätigst, dann musst du den neuen Kollegen auch eine ganz spezifische Aufgabe geben. So lernt man einander kennen und stellt sicher, dass das Geld gut investiert ist.“ Die nun von Madbits für Twitter entwickelten KI-Moderatoren erkennen und entfernen künftig anstößige Bilder. 

Die Künstliche Intelligenz lernt im Verlauf der Zeit dazu und versteht Zusammenhänge und Muster.

Diese Aufgabe wurde bislang von tausenden Mitarbeitern übernommen, die sich tagtäglich durch Bilder von Gewalt, sexuellen Übergriffen und anderen Grausamkeiten quälen mussten. In der Regel verdienten die in Asien ansässigen Moderatoren nicht mehr als 300 US-Dollar im Monat. 

In Folge der Erweiterung der Suchintelligenz könnten diese nun zwar ihren Job verlieren, im Gegenzug aber schützt Twitter damit auch die Psyche der Menschen, indem die Moderation zunehmend automatisiert passiert. Die von Madbits entwickelte Künstliche Intelligenz lernt im Verlauf der Zeit dazu und versteht Zusammenhänge und Muster, die sie dann bei kommenden Aufgaben anwenden kann. Insofern könnte auch die Fehlerquote von sieben Prozent in naher Zukunft der Vergangenheit angehören. 

GQ Empfiehlt