/Tech

Mit KI gegen den IS: So sieht Facebooks Anti-Terror-Konzept aus

Cindy Michel 16.06.2017

Facebook hat neue Details seines Anti-Terrorismus-Konzepts bekanntgegeben: Künstliche Intelligenzen und geschultes Personal sollen in Zukunft entsprechende Inhalte schneller und präziser identifizieren sowie eliminieren.     

„Wir wollen zur feindlichen Umgebung für Terroristen werden“, schreibt Monika Bickert, Leiterin des Bereichs Global Policy Management bei Facebook in einem Blogpost. In dem Artikel mit dem Titel Schwierige Fragen: Was wir dem Terrorismus entgegensetzen gibt das Social-Media-Unternehmen Details zu seinem Anti-Terrorismus-Konzept bekannt. Die Herausforderung für Online-Communities sei die gleiche wie in der realen Welt: „Die ersten Signale erkennen, bevor es zu spät ist“, so Bickert.

Um Facebook in eine Terror-Content-freie Zone zu verwandeln, so das hehre Ziel, setzt das Unternehmen vor allem auf drei Dinge: Künstliche Intelligenz, menschliche Expertise und Partnerschaften mit anderen Tech-Firmen und Organisationen. Letztere bestätigte Facebook bereits Ende vergangenen Jahres, als CEO Mark Zuckerberg bekanntgab, gemeinsam mit Microsoft, Twitter und YouTube eine Strategie gegen Content mit Terrorismusbezug entwickeln zu wollen.  

Obwohl der Einsatz von KI noch relativ neu sei, heißt es in der Mitteilung weiter, habe er schon jetzt die Art und Weise verändert, wie potenziell terroristische Propaganda oder Accounts von Facebook fern gehalten werden. Aktuell werde die Technologie gegen terroristische Inhalte mit Bezug zum IS, Al-Qaida und deren Verbündeten eingesetzt. „Wir planen aber, schon bald auch auf andere terroristische Organisationen ausweiten zu können“, so Bickert.

Erfolge konnte die KI etwa beim Bildabgleich (Image Matching) verbuchen. Wenn bestimmte Bilder oder Videos markiert werden, erkenne die KI das und verhindere ihr erneutes Hochladen. Außerdem arbeite Facebook an einem Spracherkennungs-Algorithmus. Dieser soll geschriebene Texte analysieren und nach Terror-Lingo durchforsten. Extremistische Cluster aus Facebook-Profilen soll die KI ebenso erkennen können wie Fake-Accounts, vor allem von Wiederholungstätern.

Auch wenn die KI viel Zeit sparen kann, scheint Facebook doch zu wissen, dass sie Menschen (noch) nicht komplett ersetzen kann: „Zu filtern, welcher Content tatsächlich Terrorismus unterstützt und welcher nicht, ist nicht immer eindeutig – und Algorithmen können Kontexte einfach noch nicht so gut lesen wie Menschen das tun“, heißt es im Blog. Ein Foto auf dem etwa ein bewaffneter Mann eine IS-Flagge schwinge, könne sowohl Propaganda-Material sein, als auch das Aufmacherbild einer Nachricht. „Um solche undurchsichtigeren Fälle zu durchschauen, brauchen wir menschliche Expertise“, so Facebook. 

Aktuell arbeiten laut dem Blogpost 150 Personen bei Facebook, „die ausschließlich oder hauptsächlich damit beschäftigt sind, Terrorismus zu bekämpfen“. Diese seien akademisch geschulte Experten, ehemalige Staatsanwälte und Polizeikräfte sowie Analytiker und Ingenieure. „Die Spezialisten dieses Teams sprechen insgesamt über 30 verschiedene Sprachen“, heißt es weiter. Auch sein Community-Operations-Team will Facebook aufstocken, das versprach Mark Zuckerberg bereist Anfang Mai, und zwar von 4500 auf 7500 Mitarbeiter. Die Abteilung prüft von der Community gemeldeten Content und entfernt unangebrachte Inhalte. 

„Wir verpflichten uns dazu, Terrorismus von unserer Plattform fernzuhalten“, heißt es in dem Blogpost. Mit dem Schreiben reagiert Facebook auch auf die gemeinsame Anti-Terror-Kampagne Frankreichs und Großbritanniens. Anfang dieser Woche hatten Theresa May und  Emmanuel Macron bekanntgegeben, Bußgeld von Tech-Firmen fordern zu wollen, die sich nicht am Kampf gegen terroristische Propaganda beteiligen.

Jetzt WIRED Member werden und mit uns in die Zukunft starten!

Mit im Paket: 4 Magazin-Ausgaben im Jahr und der Member-Zugang zu exklusiven Inhalten auf WIRED.de sowie weitere Vorteile nur für Member.

Member werden