/Life

Facebook und die Fake-News: Rebellieren die Mitarbeiter?

Benedikt Plass-Fleßenkämper 15.11.2016

Nach dem Wahlsieg von Donald Trump wird die Kritik an Facebooks Umgang mit Falschmeldungen immer lauter. Nach außen reagiert das Unternehmen nur zaghaft, intern sollen Mitarbeiter hingegen längst eine inoffizielle Taskforce gegründet haben. Währenddessen demonstriert eine Handvoll Studenten, wie leicht das Problem mit Fake-News zu bekämpfen wäre. Ein Überblick.

Facebook ist für den Wahlsieg von Donald Trump mit verantwortlich – das konnte man in den vergangenen Tagen bei vielen Medien lesen. Die Annahme: Geschickt gestreute Falschmeldungen, sogenannte Fake-News, die Trumps Rivalin Hillary Clinton diffamierten, brachten dem Republikaner mehr Popularität ein. Durch den Facebook-Algorithmus entstand eine Filterblase, die solchen gefälschten und oft geteilten Inhalten einen Auftrieb gab. Und so verbreiteten sie sich über das Social Network wie Lauffeuer. Wie Studien zeigen, glauben viele Menschen den Posts auf Facebook ohne weiteres– und somit auch den Fake-News.

Facebook-Gründer Mark Zuckerberg widersprach diesen Anschuldigungen, bezeichnete sie gar als „ziemlich verrückt“. Zudem unterstrich er erneut, dass Facebook kein Medienhaus sei, sondern ein Tech-Unternehmen. Das sehen wir von WIRED Germany anders, was wir unter anderem in einem offenen Brief an Zuckerberg zum Ausdruck gebracht haben. Auch aus anderen Richtungen bekam der Facebook-Chef Gegenwind, was ihn dazu veranlasste, ein Statement auf seiner Profilseite zu veröffentlichen. Darin kündigte er unter anderem Maßnahmen gegen gefälschte Meldungen an.

Parallel dazu äußerte sich Donald Trump. In einem TV-Interview sagte er, dass die sozialen Medien auf jeden Fall zu seinem Sieg beigetragen hätten. Zudem ist der künftige Präsident der USA der Überzeugung, dass Posts auf Twitter und Facebook mehr Macht haben als andere Wahlkampfinstrumente.

+++ Mehr von WIRED regelmäßig ins Postfach? Hier für den Newsletter anmelden +++

Neben Zuckerberg und Trump reagierte nun auch Google. Das Unternehmen kündigte an, Websites, die vorrangig Propaganda und Falschmeldungen verbreiten, aus dem Google-Werbenetzwerk zu verbannen. Damit verlieren die Betreiber eine wichtige Einnahmequelle zur Monetarisierung ihrer Fake-Seiten. Auch Facebook will nun plötzlich in die gleiche Richtung gehen und sein Advertising-Tool für derartige Angebote sperren. Einen Einfluss auf die Sichtbarkeit der falschen Beiträge hätte dies Reuters zufolge aber nicht.

Facebook reagiert also auf die Anschuldigungen, wenn auch nur halbherzig. Doch es gibt auch handfestere Bestrebungen im Unternehmen – allerdings nicht auf offiziellem Weg. Wie BuzzFeed berichtet hat sich bei Facebook mittlerweile eine inoffizielle interne Taskforce aus mehr als einem Dutzend Mitarbeitern gebildet. Diese träfen sich im Geheimen, um Ideen zur Verbesserung des News-Feeds zu erarbeiten, die sie demnächst dem oberen Facebook-Management unterbreiten möchten. Denn für die Mitglieder der Taskforce, die von ihren Vorgesetzten eingeschüchtert würden, sei die Lage klar: Während des US-Wahlkampfes ist das Problem mit den Fake-News aus dem Ruder gelaufen. Doch das Unternehmen habe dagegen nichts unternommen, obwohl dafür durchaus Möglichkeiten vorhanden wären.

Ein Facebook-Techniker sagte gegenüber BuzzFeed, dass das soziale Netzwerk schon Tools einsetze, um beispielsweise Nacktheit oder Gewaltinhalte herauszufiltern. Doch es gebe bei Facebook keine klaren Richtlinien, ob auch Fake-News gelöscht werden müssen. Und das, obwohl manche beispielsweise zu Gewalttaten gegen Einwanderer führen könnten – was ja wiederum gegen die Community-Richtlinien verstoße.

Mit der Browser-Erweiterung FiB sollen Falschmeldungen auf Facebook automatisch enttarnt werden

Gegen Falschmeldungen vorzugehen, sollte für Facebook eigentlich kein großes Problem sein. Das meinen nicht nur die eigenen rebellischen Mitarbeiter, sondern auch vier Studenten der Princeton University. In einem Hackathon an ihrer Hochschule entwickelten sie in nur 36 Stunden eine Chrome-Erweiterung namens FiB: Let’s stop living a lie. Das kostenlose Browser-Plugin analysiert in Echtzeit den Wahrheitsgehalt von Facebook-Posts. Dazu checkt eine Künstliche Intelligenz unter anderem die Quelle und nutzt Bilderkennungs-Algorithmen, um den Wahrheitsgehalt herauszufinden. Daraufhin werden die Posts mit „verified“ oder „not verified“ markiert. Letzteres kommt einer Brandmarkung als Fake-News gleich.

Falschmeldungen und Propaganda aus dem Newsfeed zu verbannen, scheint also kein Problem der technischen Machbarkeit zu sein, sondern eher eine Sache des Willens. In einem aktuellen Artikel von Gizmodo heißt es, dass das Facebook-Management das Problem schon lange vor der US-Wahl erkannt habe, aber keine Gegenmaßnahmen ergriff, weil es harsche Reaktionen aus dem konservativem Lager befürchtete.

Bobby Goodlatte, ehemaliger Produktdesigner bei Facebook, äußerte sich ebenfalls nicht gerade freundlich zum Thema. Er postete auf Facebook und Medium, dass er von seinem Ex-Arbeitgeber sehr enttäuscht sei. Der Newsfeed sei für Interaktionen optimiert, schreibt er, und der Wahlkampf habe gezeigt, dass „Bullshit“ eben die meisten User-Interaktionen hervorrufe. Das sollte ein Weckruf sein, um etwas zu verbessern, so Goodlatte.

Jetzt WIRED Member werden und mit uns in die Zukunft starten!

Mit im Paket: 4 Magazin-Ausgaben im Jahr und der Member-Zugang zu exklusiven Inhalten auf WIRED.de sowie weitere Vorteile nur für Member.

Member werden