/Life

Ein Algorithmus soll Extremismus in sozialen Netzwerken stoppen

Joely Ketterer 08.09.2016

Bei seinem Facebook-Besuch kürzlich rief Bundesinnenminister Thomas De Maizière das soziale Netzwerk auf, verstärkt extremistische Inhalte von der Plattform zu nehmen. Weltweit verbreiten sich islamistische Propaganda und rechtsradikale Volksverhetzung rasend schnell auf Social Media. Ein Algorithmus soll sie jetzt löschen – ob die Meinungsfreiheit darunter leidet, bleibt umstritten.

Mit dem Algorithmus eGLYPH soll es möglich sein, bedenkliche Texte, Bilder und Videos automatisch zu finden und zu entfernen. Die Technologie ist eine App des Counter Extremism Project (CEP), einer gemeinnützigen Organisation aus New York. Facebook, Twitter und Google sollen mit ihrer Hilfe zum Beispiel Terroristen Einflussmöglichkeiten nehmen. „Innovative Softwarelösungen“ beim „Kampf gegen Terrorismus und gegen Hass und Gewalt im Internet“ hat auch Bundesinnenminister Thomas de Maizière im Sinn.

eGLYPH ist eine Hash-Code-Anwendung: Inhalte, die als extremistisch bewertet wurden, erhalten eine Art Fingerabdruck – durch Vergleiche werden Varianten davon im Netz aufgespürt und sofort gelöscht. Entwickler der Technologie ist Hany Farid, Informatikprofessor am Dartmouth College. Er entwickelte 2008 mit Microsoft auch den PhotoDNA-Algorithmus zur Bekämpfung von Kinderpornographie im Netz.

+++ Mehr von WIRED regelmäßig ins Postfach? Hier für den Newsletter anmelden +++

Farids neue Technologie ist in der letzten Testphase und soll Social Media Plattformen demnächst frei zur Verfügung gestellt werden. Zusätzlich zur Eliminierung von extremistischen Inhalten möchte das CEP diese auch sammeln: Die Daten könnten eine nützliche Informationsquelle für Wissenschaftler und soziale Netzwerke sein.

Neben der Frage, ob die automatisierte Methode Radikalisierung tatsächlich und effektiv bekämpfen kann, taucht eine alte Frage auf: Wird durch diese Art der Aussortierung die Meinungsfreiheit verletzt? Organisationen für digitale Bürgerrechte fürchten, dass automatisierte Systeme Zensur begünstigen.

Im Zuge des Filterns könnte außerdem wichtiges Material gelöscht werden, das berichtenswert ist. Der Algorithmus müsste fähig sein, Nachrichten über den sogenannten Islamischen Staat von IS-Propaganda zu unterscheiden. Farid sagt, Nachrichtenorganisationen könnten auf eine „weiße Liste“ gesetzt werden, um zumindest dieses Problem zu lösen.

Dass extremistische Gruppen neue Wege finden werden, um seine Entwicklung zu umgehen und ihre Online-Präsenz zu behalten, ist dem Professor bewusst. Er möchte seine Technologie deswegen ständig weiterentwickeln.

Jetzt WIRED Member werden und mit uns in die Zukunft starten!

Mit im Paket: 4 Magazin-Ausgaben im Jahr und der Member-Zugang zu exklusiven Inhalten auf WIRED.de sowie weitere Vorteile nur für Member.

Member werden