Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Diese Forscher wollen den Facebook-Algorithmus entziffern

von Leonie Czycykowski
Das Forschungsprojekt Facebook Algorithmic Factory will einen Blick in eine algorithmische Blackbox werfen. Auf einer großen Karte, die die Forscher des Share Lab auf der re:publica 2017 präsentieren, sollen die unsichtbaren Strukturen hinter dem größten sozialen Netzwerk der Welt sichtbar werden.

Er ist ein Mysterium, das unzählige Menschen nur zu gerne knacken würden: Der Algorithmus, mit dem Facebook die Inhalte in unseren News Feeds sortiert, ist das wohl bestgehütete Geheimnis des Unternehmens. Und das hat Gründe. Ein Forscherteam aus Novi Sad in Serbien arbeitet nun jedoch daran, dieses Geheimnis zu entschlüsseln.


Wenn Vladan Joler über seine Arbeit spricht, merkt man ihm die Faszination für die unsichtbaren Dinge an, die uns umgeben. Das Share Lab, dem er als Direktor vorsteht, soll sie sichtbar und damit verständlich machen. Die Idee zu der Forschungseinrichtung entstand im Kosovo, wo Joler mit einem Freund nach Überresten von radioaktiver Strahlung suchte. Auf einem Trümmerfeld wurde ihm klar, was er künftig tun wollte.


„Wir hatten ein Gerät dabei, das kleine radioaktive Partikel sichtbar machen kann. Du stehst mitten auf einem Feld und alles sieht in Ordnung aus, aber dank dieses Geräts merkst du, dass du umgeben bist von unsichtbaren Dingen. In diesem Moment merkte ich: Das ist es, was ich tun will – unsichtbare Dinge und Strukturen aufdecken“, erzählt Joler. „Und das unsichtbarste in unserem Leben ist das Internet, denn es ist überall um uns herum, wir nutzen es jeden Tag und doch haben wir keine Ahnung was hinter den Bildschirmen eigentlich abläuft.“

Es lässt sich nicht abstreiten, dass die schiere Masse an Inhalten, die unseren News-Stream bevölkern, irgendeine Form von Sortierung brauchen, um für die Nutzer noch ein Mindestmaß an Relevanz zu behalten. Allerdings vermischt sich im Fall von Facebook dieses Interesse mit den wirtschaftlichen Zielen eines Großkonzerns. Und so vermutet auch Vladan Joler, dass hinter den menschengemachten Algorithmen eine Gefahr für Missbrauch, Menschenrechtsverletzungen und neue Formen von Ausbeutung entsteht.


Genau an dieser Stelle möchte Share Lab einen Beitrag leisten. „Mit jeder Minute, die wir auf Facebook verbringen, arbeiten wir im Grunde für das Unternehmen. Wir spenden Arbeitsstunden an eine Blackbox.“ Diese wollen die Forscher dechiffrieren, wozu sie einen ungewöhnlichen Ansatz wählen mussten: Um überhaupt verstehen zu können, wie der Facebook-Algorithmus funktioniert, mussten sie zuerst verstehen, was überhaupt an Input von Nutzerseite einfließt, das dann vom Algorithmus verarbeitet wird.


Wir fanden rund 7000 Patterns und jedes davon ist ein kleines Puzzlestück, um zu erklären, wie Facebook unser Verhalten in Gewinne umwandelt

Vladan Joler

Deshalb suchten Joler und sein Team nach Verhaltensmustern, Patterns wie er sie nennt, die öffentlich zu sehen sind und die sie dann in einer großen Karte anordnen konnten. Diese Muster beschreiben im Grunde alle Aktionen, die wir tagtäglich auf Facebook durchführen: Likes, Shares, Kommentare und so weiter.

„Wir versuchen Input und Output in einer Karte miteinander zu verbinden: Unser Verhalten auf der einen Seite und den Profit, den Facebook auf der anderen Seite aus unserem Verhalten schlägt. Wir fanden rund 7000 oder 8000 dieser Patterns und jedes davon ist ein kleines Puzzlestück bei dem Versuch zu erklären, wie Facebook unser Verhalten letztlich in Gewinne umwandelt.“ Diese Forschung sei, das betont Joler, nur ein erster Ansatz, um sich dem Algorithmus von Facebook zu nähern. Ihm geht es vor allem darum, im ersten Schritt ein Bewusstsein für das Thema zu schaffen. Seine Kollegen und er werden das Projekt am Montag auf der re:publica in Berlin präsentieren (8. Mai, 12:15-13:15 Uhr).


Dabei sieht er die Intransparenz in der Verwendung von Algorithmen nicht nur negativ. Letztlich schütze uns das Netzwerk damit indirekt auch vor dem Missbrauch unserer Informationen durch Marketing-Leute. Schließlich seien 99 Prozent der Google-Suchergebnisse für „facebook algorithmus“ seiner Meinung nach Seiten, die von Marketing-Agenturen betrieben werden. Auch deren Ziel ist die Umwandlung von Wissen in Geld.

Klar ist aber, dass wir ein Modell brauchen, das die Funktionsweise von Algorithmen nachvollziehbarer macht, wie es auch re:publica-Mitgründer Markus Beckedahl fordert. Zumindest bestimmte Experten sollten Joler zufolge Einblick in die Funktionsweise dieser Mechanismen erhalten, damit es überhaupt zu irgendeiner Form von Kontrolle kommen kann.


Joler macht das Prinzip am Beispiel der Fake News deutlich: „Die Ideen, die zur Lösung des Fake-News-Problems vorgebracht werden, sind teilweise völlig verrückt. Zum Beispiel die, Facebook und Google noch mehr Macht zu geben, indem sie entscheiden sollen, was wahr ist und was nicht. Das ist extrem gefährlich, denn ein Unternehmen ist kein Gericht, die Entscheider dort sind keine Experten. Nicht mal wir Menschen können uns darauf einigen, was wahr und was fake ist — wie sollen es dann Algorithmen für uns können? Wir sollten stattdessen Algorithmus-Beauftragte der Regierungen haben, die Zugriff auf die Daten erhalten und qua ihrer Expertise möglichen Missbrauch überprüfen können.“

In seiner Forschung fand das Share-Lab-Team dann auch eine ganze Reihe von möglichen Missbrauchsszenarien. Wobei Joler glaubt, dass nicht einmal Facebook selbst ein komplettes Bild davon hat, was jeder einzelne Teil seiner Algorithmen genau tut. Ein Grund mehr, sich ihren Einfluss genauer anzusehen.

WIRED ist Medienpartner der re:publica 2017 und berichtet hier vom 8. bis 10. Mai live von der Konferenz in Berlin.


GQ Empfiehlt