Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Machines of Loving Grace / Der falsche Kult um Algorithmen

von Jürgen Geuter
Algorithmen sind überall. Jeder hat ständig mit ihnen zu tun, viele fürchten sie, doch die wenigsten verstehen tatsächlich, wie sie funktionieren. In seiner WIRED-Kolumne durchleuchtet Jürgen Geuter die mathematischen Problemlöser, die unsere Welt zu lenken scheinen. Diesmal: Warum es ein Problem ist, wenn wir Algorithmen quasi-religiös betrachten.

Für Themen, die halbwegs gesellschaftlich relevant sind, bilden sich üblicherweise bestimmte Arten heraus, über sie zu reden: Wir reden über Politik als zielgerichtete Aktionen einzelner Spitzenpolitiker und Spitzenpolitikerinnen oder über das Wetter als diffuses „Es“, das uns irgendwie zufällig und vor allem unkontrolliert irgendwelchen nervigen Phänomenen (hier in Oldenburg: Regen) aussetzt.

Die Art, wie über Themen gesprochen wird, drückt immer ein etabliertes Konzept und ein Verständnis dafür aus, wie man auf etwas einwirken kann: Wenn Politik von einzelnen Menschen zielgerichtet gesteuert wird, dann kann man durch ein Gespräch mit der richtigen Person ziemlich direkt einwirken und hinter allem steht eine Logik. Das fühlt sich besser an als sich einzugestehen, dass manchmal einfach Dinge entschieden werden, ohne dass man den Grund versteht.

Wenn wir über die Softwaresysteme und Algorithmen reden, die unseren Alltag und unsere Realität zunehmend formen und steuern, dann bezeichnen wir sie oft als Akteure: Der Facebook-Algorithmus stellt uns einen möglichst relevanten Feed aus Informationen zusammen oder versteckt Inhalte vor uns (je nachdem, wen man fragt) — und VWs Motorsteuerung schummelt bei Tests.

Um die Handlungen dieser Akteuere zu verstehen, versuchen wir ihre innere Struktur, ihre Essenz, ihren wahren Charakter zu erkennen. In diese Kerbe schlägt beispielsweise die Forderung, möglichst alle Algorithmen, die mit Menschen interagieren, offenzulegen. Wenn wir nur den Code haben und gegebenenfalls ein paar Experten hinzuziehen, dann wissen wir genau was passiert, was die Software „will“ und was das mit uns als den Objekten des Handelns von Algorithmen macht.

Die Analyse von Algorithmen ist natürlich spannend und oft auch (siehe VW) zwingend notwendig. Auch das Verhalten, das die Entwickelnden der Algorithmen hervorrufen wollen, muss immer wieder untersucht und reflektiert werden. Aber neben dem beabsichtigten Verhalten gibt es noch eine weitere spannende Dimension: den Cargo-Kult.

Darunter versteht man Verhalten, das auf einem fundamentalen Nicht-Verstehen eines Systems basiert. Der Begriff wurde populär durch die Beschreibung des Verhaltens von Melanesiern, die während des 2. Weltkriegs mit US Streitkräften in Kontakt kamen: Durch die umfangreiche Versorgung der pazifischen Stützpunkte kam die indigene Bevölkerung plötzlich in Kontakt mit zuvor unbekannten Mengen an Material und Produkten, was ihren Lebensstil gravierend veränderte.

Unter Cargo-Kult versteht man Verhalten, das auf dem Nicht-Verstehen eines Systems basiert.

Als nach dem 2. Weltkrieg die US Truppen abzogen und der Nachschub ausblieb, etablierten sich lokale religiöse Kulte, die versuchten, durch die Nachahmung von Artefakten, Architektur und beobachtetem Verhalten der Truppen die Götter zu überzeugen, weiterhin das Füllhorn zu öffnen. Die Kulte bauten zum Beispiel „Startbahnen“ oder schnitzten „Kopfhörer“. Die wirkliche Funktion dieser Dinge war den Melanesiern unklar, besonders auch das natur- und ingenieurswissenschaftliche Modell dahinter.

Das mag aus westlich-überheblicher Perspektive lächerlich wirken, unterscheidet sich aber oft gar nicht so stark von der Art, wie wir mit Softwaresystemen interagieren, um sie uns wohlgesonnen zu stimmen. Wir nutzen möglicherweise keine Stöckchen und Schnitzereien, aber zum Beispiel Hashtags, Likes oder was auch immer die Plattformen unseres digitalen Lebens uns zur Verfügung stellen.

Viele erfolgreiche Instagramer und Instagramerinnen haben die Art, wie Inhalte dort Reichweite generieren, perfekt verstanden. Sie nutzen eine manchmal absurd wirkende Anzahl von Hashtags, um ihre Posts in bestimmte Zusammenstellungen zu bringen. Bei weniger erfolgreichen Nutzenden sieht man es dann durchaus häufiger, dass gesamte Hashtag-Listen erfolgreicher Posts unter die eigenen Fotos kopiert werden — auch wenn #food vielleicht keine gute Charakterisierung eines Bildes des eigenen Hundes ist.

Ebenso beliebt ist das Selbst-Like auf Facebook: Um den eigenen Post möglichst vielen Kontakten in die Feeds zu schicken, liked man ihn erst mal selbst, um den Facebook-Algorithmus anzuschieben. Was nicht wirklich funktioniert, denn dass man selbst die eigenen Inhalte mag ist kein Signal, das Facebook irgendwie sinnvoll einsetzen kann, um ihre Relevanz für andere Menschen einzuschätzen.

Algorithmen werden behandelt wie mächtige Personen, die uns Wohltaten zukommen lassen.

Wir könnten hier seitenweise solches Verhalten auflisten: Irgendwelche zufälligen, verrückten Suchen in Google zu stecken, um dessen Personalisierungssysteme zu verwirren etwa. Oder den Browsercache leeren um eine nicht-reagierende Website zu überzeugen, wieder zu antworten. Viel spannender ist aber doch, was diese Arten des Umgangs mit den Softwaresystemen um uns herum über unser etabliertes gesellschaftliches Verständnis solcher Systeme aussagt.

Algorithmen werden behandelt wie mächtige Personen: Sie können uns Wohltaten zukommen lassen wie Reichweite, Information, vielleicht sogar Geld. Aber dazu müssen sie den Bittenden gewogen sein, müssen mit quasi-magischen Formeln und Gesten überzeugt werden. Und dieses Verhalten ist nicht von manipulativen Ingenieuren oder Unternehmen geplant und wird in uns heraufbeschworen. Dieses Verhalten generiert unsere Gesellschaft aus sich selbst heraus.

Die unweigerliche Forderung, alle müssten programmieren lernen, es müsse gar ein Schulfach Programmieren geben, können wir glücklicherweise mit einem einfachen Hinweis aushebeln: Wir fordern auch nicht von allen Menschen in einem Flugzeug, Luftfahrtingenieur oder -ingenieurin zu werden. Natürlich ist es notwendig, darüber zu reden, welches technische Modell von IT-Prozessen wir gesellschaftlich etablieren wollen, um auf einer halbwegs fairen Basis miteinander über Technologie reden zu können. Aber diese Diskussion reicht viel weiter, bis hinein in soziale Schichten, die die Technologie inhaltlich eigentlich verstanden haben.

Wir können nicht damit zufrieden sein, uns nur als Empfänger teilweise willkürlicher Effekte von Maschinen zu sehen.

In unseren Interaktionen mit Softwaresystemen zeigt sich auch ein soziales Modell einer Beziehung. Und ich bezweifle, dass wir als Individuen damit zufrieden sein können, uns nur als Empfänger teilweise willkürlicher Effekte von Maschinen zu sehen. Anstatt sich dem Problem der Vermittlung technischer Zusammenhänge nur aus technischer Sicht zu nähern ist es ebenso notwendig, zu überlegen, wie die Beziehungen zwischen Menschen und den Services, die sie nutzen wollen, auszusehen haben.

Es existieren schon Modelle für kommerzielle Beziehungen zwischen Menschen und Unternehmen und ihren Diensten, aber reicht uns das? Rechtlich betrachten wir Online-Dienste weitgehend wie Brötchen oder Duftbäume, aber sie sind mehr als nur Produkte, die wir konsumieren. Jeder Dienst, den wir nutzen trägt zu unserem Selbst bei, formt unseren Handlungsspielraum und die Art, wie wir über die Welt nachdenken. Und unsere bestehenden Regelsysteme sind schlicht nicht in der Lage, das einzuordnen.

Über all dem Klein-Klein zwischen Safe-Harbor-Debatte, Datenschutz-Hü-oder-Hott und Vorratsdatenspeicherung wird zunehmend deutlich, dass wir ohne ein gesellschaftlich akzeptiertes, über eine reine Produktperspektive hinausgehendes, Verständnis digitaler Dienste nicht nur an der regulativen Front komplett versagen. Das wäre doch eigentlich mal ein schönes Projekt für eine europäische digitale Gesetzgebung: ein neues, angemessenes Modell einer digitalen Welt.

In seiner letzten Kolumne erklärte Jürgen Geuter, warum der VW-Skandal unser Vetrauensproblem mit Software zeigt. 

GQ Empfiehlt
Vom ewigen Kampf gegen die Newsletter-Flut

Vom ewigen Kampf gegen die Newsletter-Flut

von Johnny Haeusler