Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Doch, lieber Mark, Facebook ist für Trumps Wahl mit verantwortlich

von WIRED Editorial
Seit der US-Wahl wehrt sich Facebook gegen Vorwürfe, erfundene Nachrichten, die über das soziale Netzwerk verbreitet wurden, hätten mit zum Sieg von Donald Trump beigetragen. In einem offenen Brief an Firmengründer Mark Zuckerberg erklären wir (auf Deutsch und Englisch), warum wir glauben, dass Facebook sich seiner Verantwortung stellen muss, statt sich vor ihr zu drücken: Mark, it’s time to face the challenge of fake news and take action!

Hallo Mark,

wahrscheinlich hast Du jetzt schon ziemlich die Nase voll von all den Diskussionen darüber, dass Facebook bei der Wahl von Donald Trump zum 45. US-Präsidenten eine wesentliche Rolle gespielt haben soll. Geht uns genauso: Eine lange Woche voller Trump, Trump, Trump geht zu Ende und wir würden auch gern einfach abschalten.

Nur leider: So einfach ist das nicht. Diese Debatte ist zu wichtig, als dass wir einfach weitermachen könnten, als wäre nichts gewesen. Trumps Wahl war ja nur der Anfang. Viele andere, nicht weniger wichtige Wahlen werden folgen, nächstes Jahr zum Beispiel in Frankreich und hier in Deutschland.

In beiden Fällen werden wir wahrscheinlich genauso verbissene Kämpfe sehen, voller ähnlich schmutziger Tricks, überall im Social Web, ganz besonders aber auch bei Facebook. Auf Deiner Plattform wimmelte es in den vergangenen Monaten von Fake News – falschen Nachrichten: Komplette Lügen, erfundene Geschichten, alles, was dem Gegner schaden konnte, wurde als echt ausgegeben. Und Facebook ließ es im Wesentlichen einfach durchgehen.

Natürlich hast Du recht, wenn Du betonst, dass „Wähler ihre Entscheidungen auf Basis gelebter Erfahrungen treffen“, nicht einfach nur, weil sie irgendwo im Netz etwas aufgeschnappt haben.

Aber Teil dieser Erfahrungen ist eben auch Facebook: all das, was Menschen in ihrem Newsfeed hören, sehen, lesen. Also haben erfundene News auf Facebook selbstverständlich einen Einfluss auf das, was Menschen denken – egal, wie klein der Anteil der erfundenen Nachrichten absolut gesehen sein mag. Und natürlich beeinflusst Facebook dadurch auch Wahlergebnisse – in dieser Woche, aber auch bei vielen anderen Abstimmungen, die noch in der Zukunft liegen.

Wie könnte es auch anders sein? Du hast es geschafft, Facebook zur größten Nachrichten-Plattform der Welt zu machen. Glückwunsch dazu! Doch jetzt übernimm bitte auch die Verantwortung, statt zu behaupten, es sei „ein ziemlich verrückter Gedanke“, dass Facebook den Wahlausgang am vergangenen Dienstag beeinflusst haben könnte.

Mithilfe von Künstlicher Intelligenz und der Zauberkunst deiner Software-Ingenieure sollte es doch möglich sein, Facebook-Nutzern automatisch zu signalisieren, welche Geschichten glaubwürdig sind und welche nicht, gleich auf den ersten Blick.

Wie wäre es mit einem Algorithmus, der etablierten Nachrichtenquellen Vertrauenspunkte anrechnet?

Klar, so ein System muss beliebig wachsen können. Also sollte es auch ohne Menschen funktionieren (selbst wenn die Ergebnisse, wie wir schon sehen, anfangs ziemlich danebengehen können). Aber wie wäre es zumindest mit einem Algorithmus, der etablierten Nachrichtenquellen Vertrauenspunkte anrechnet? Das könnten traditionelle Medien wie die New York Times oder CNN sein, aber auch digitale Durchstarter wie Buzzfeed und Mic.com oder auch Blogs von Wissenschaftlern und Institutionen wie der Weltbank oder Unicef. Vielleicht ließen sich die Daten noch anreichern mit Informationen von Websites wie snopes.com, die regelmäßig falsche Nachrichten entlarven?

Und sobald deine Software loslegt und vielleicht obendrein noch mit einbezieht, wer auf wen verlinkt, so à la Google, dann sollte es doch möglich sein, für einen wesentlichen Teil der Inhalte grünes Licht zu geben und bei anderen, die vermutlich erfunden sind, zumindest eine rote Flagge zu zeigen oder einen roten Punkt oder sonst etwas, das sagt: „Halt, stopp!“

Das soll kein Aufruf zur Zensur sein. Und natürlich kann Facebook niemanden zwingen, nur glaubwürdige Nachrichten zu lesen und Müll zu ignorieren. Aber in einer Welt, die von Inhalten überschwemmt wird, brauchen Menschen Orientierung, und die meisten deiner Nutzer wären wahrscheinlich dankbar für etwas, das ihnen schon beim schnellen Hinsehen signalisiert: „Dieser Nachricht kannst du trauen – und bei dieser hier sei lieber vorsichtig und prüf es noch mal nach.“

Das ist jetzt nicht mehr als eine erste Idee von ein paar Reportern aus Berlin. Du hast Yann LeCun zu Facebook geholt, einen der angesehensten Experten für Künstliche Intelligenz weltweit, um euer Team aus KI-Entwicklern zu leiten. Sicher fällt denen noch eine Fülle anderer, weit besserer Wege ein, um das Problem zu lösen.

Was auch immer du am Ende tust: Bitte tu etwas, und zwar schnell. Denn wir reden hier von einem Problem, das 1,7 Milliarden Menschen in aller Welt betrifft, die sich auf Facebook verlassen, um auf dem neuesten Stand zu bleiben und sich eine Meinung zu bilden – darüber, wie süß die Babys ihrer Freunde aussehen, aber auch, wo sie bei der nächsten Wahl ihr Kreuzchen machen sollen. Also tu der Welt bitte den Gefallen, dich nicht einfach nur zurückzulehnen und das Problem zu ignorieren. Denn es wird nicht von allein verschwinden.

Mit besten Grüßen aus Berlin,
das Team von WIRED Germany

The English version of this open letter to Mark Zuckerberg follows below.

Hi Mark,

At this point, you’re probably sick of all this talk about Facebook having played a major role in making Donald Trump the future 45th President of the United States, mostly due to fake news. We’re with you: it’s been a long week of nothing but Trump, Trump, Trump and we would love to tune out for a bit as well.

Here’s the thing, though: this debate will not, cannot, must not go away. Because Trump’s election was only the beginning and there are other, equally important elections just around the corner – for example next year in France and here in Germany.

In both cases, we are likely to see vicious fights and nasty tactics play out all over the Social Web, but especially on Facebook. We saw a ton of fake news floating around on your platform in the past few months – complete lies, invented stories, anything that could hurt the opponent – and Facebook elected, for the most part, to simply let it happen.

Yes, you’re certainly right to point out that “voters make decisions based on their lived experience,” not just on what they read somewhere online.

But part of that experience is Facebook: all the things people hear and see in their newsfeed. So of course they are influenced by fake news on Facebook, no matter how small an amount of content fake news may be in absolute terms – and of course Facebook has an influence on the outcome of elections, the one this week and many others to come as well.

How else could it be? You’ve managed to turn Facebook into the biggest news platform in the world. Congratulations on that achievement – now please take some responsibility, instead of calling it “a pretty crazy idea” that fake news on Facebook impacted the voting on Tuesday.

What about an algorithm that assigns a trustworthiness score to established news sources?

Surely, with a little bit of artificial-intelligence wizardry, your team could at least come up with an automated way to give users a signal, at first glance, whether a news story can be believed or not?

The system needs to scale, we get it, so human editors are out (no matter the negative short-term consequences). But what about an algorithm that assigns a trustworthiness score to established news sources? That could be anything from old-school media like the New York Times and CNN to digital natives like Buzzfeed and Mic.com, and even blogs by university researches or official institutions like the World Bank and Unicef. In addition, why not tap into resources such as snopes.com – sites that regularly debunk urban myths and fake news?

Once you let your algorithms loose and do a little bit of Google-style computing on who links to whom, you could presumably greenlight a large amount of content and – at the very least – put a red flag, dot, whatever next to stories that have a high likelihood of being invented.

We’re not asking you to censor anything, obviously. And of course you cannot force anybody to read real news and ignore the junk. But in a world drowning in content, people need guidance, and most of your users would probably be grateful for a quick signal that says: “You can trust this story right here – but as for that other one, be careful and better double-check.”

And that’s just a simple idea from a bunch of reporters in Berlin. You brought in Yann LeCun, one of the best AI researchers in the world, to lead your team of artificial-intelligence engineers. There must be many more, vastly better ways to solve the problem.

Whatever you ultimately do – please do something. Quickly. Because this is a real problem and 1.7 billion people all around the world rely on you to stay up-to-date and make up their minds – on how cute their friends’ babies are but also where they should put a cross next time they cast a vote. So do the world a favor and don’t just lean back and try to ignore the problem, OK? It’s not going to go away on its own.

Best from Berlin,
the WIRED Germany team

GQ Empfiehlt