Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Machines Of Loving Grace / Algorithmen sind oft simpler, als man denkt

von Jürgen Geuter
Algorithmen sind überall. Jeder hat ständig mit ihnen zu tun, viele fürchten sie, doch die wenigsten verstehen tatsächlich, wie sie funktionieren. In seiner WIRED-Kolumne durchleuchtet Jürgen Geuter die mathematischen Problemlöser, die unsere Welt zu lenken scheinen. Diesmal: Warum wir Algorithmen zu undurchdringlichen Alleskönnern verklären.

Wenige Filme haben die digitale Welt um uns herum visuell (und auch konzeptionell) so geprägt wie „Matrix“. Darin erfährt Neo, Protagonist und Hacker, dass die Welt gar nicht so ist, wie er immer dachte, und dass alle Menschen in Wahrheit in einer virtuellen Simulation leben. Nach einiger Zeit gewinnt Neo mehr Kontrolle über das Sein in der digitalen Welt und beginnt, ihre wahre Wirklichkeit zu erkennen: Sein Blickfeld zerfließt und gerinnt in einer Darstellung aus grünem Code, der die Objekte der Welt umreißt. Neo sieht plötzlich die interne Struktur der digitalen Artefakte um sich herum.

Wie schon bei „Zurück in die Zukunft“ versprechen Filme hier mal wieder mehr, als die Realität halten kann (Wo ist mein Hoverboard?!): Selbst für Experten und erfahrene Programmierende erschließen sich die Algorithmen des Alltags nicht immer direkt und ohne Probleme. Wer den ganzen Tag Buchhaltungssoftware entwickelt, muss nicht zwingend ein Verständnis dafür haben, wie automatische Gesichtserkennung in Fotos funktioniert. Trotzdem hilft eine gewisse Programmiererfahrung natürlich dabei, bei Algorithmen zumindest konzeptionell den Durchblick zu haben.

Wir projizieren unseren Wunsch, besonders zu sein, auf Algorithmen und ihre Komplexität.

Die Fähigkeiten moderner Softwaresysteme sind beeindruckend. Sie erkennen nicht nur einigermaßen zuverlässig Katzen auf zufälligen Fotos oder Spam in E-Mails, sondern neuerdings sogar Kommentartrolle. Wie wahnsinnig komplex, wie lang und verschachtelt, wie kompliziert zu verstehen müssen diese Algorithmen sein, die Aufgaben bewältigen, die noch vor wenigen Jahren nur von Menschen zu schaffen waren? Ist die künstliche Intelligenz zum Greifen nah (so wie uns das seit 50 Jahren versprochen wird)?

Wohl eher nicht. Es liegt nahe, von den besonderen Leistungen elektronischer Systeme auf eine hohe innere Komplexität zu schließen: Wie unangenehm ist doch für Menschen der Gedanke, dass kognitive Prozesse mit verhältnismäßig einfachen Vorgangsbeschreibungen ziemlich brauchbar abgebildet werden können? Es kann doch nicht sein, dass die Addition einiger Zahlenwerte Probleme lösen kann, für die wir mit unseren Gehirnsupercomputern lange nachdenken müssen. So projizieren wir unseren Wunsch, besonders zu sein, auf Algorithmen und ihre Komplexität und bauen sie dabei zu undurchdringlichen, überkomplexen und dadurch oft bedrohlichen Monstern auf. Dabei sind sehr viele Algorithmen äußerst einfach. Weil sie auf guten Datenstrukturen basieren.

Datenstrukturen sind die Modelle der Welt, auf denen Algorithmen arbeiten. Dabei ist die Umwelt eines Algorithmus oft nur ein kleiner Ausschnitt der Welt, in der wir Menschen leben. Für die Algorithmen in einem handelsüblichen Taschenrechner besteht die Welt zum Beispiel nur aus einem kleinen Teil der Mathematik: Zahlen und eine Auswahl nützlicher Verarbeitungsvorschriften. Was ich damit tue, wozu diese Mathematik gut sein soll, das kommt in der Welt des Taschenrechners nicht vor.

Soll sich meine Software mit konkreteren Problemen beschäftigen, muss ich ihr zuerst die Welt soweit erklären, wie es zur Lösung der Aufgabe nötig ist. Wenn ich aus einer Liste die Namen aller Menschen filtern möchte, die älter als 37 sind, reicht es, Menschen als Paar aus Name und Alter zu definieren. Der Algorithmus betrachtet dann einfach jede Person und gibt den Namen aus, wenn die Zahl im Feld „Alter“ größer als 37 ist. Nach dem ersten Geburtstag eines oder einer 36-Jährigen zeigen sich allerdings die Schwächen des Datenmodells: Also ersetzen wir die Alterszahl durch das Geburtsdatum.

Der Algorithmus selbst versteht die Kommentare nicht und versucht das auch gar nicht.

Diese permanente Weiterentwicklung des Datenmodells ist typisch. Durch Anforderungen, die sich erst während der Entwicklung ergeben, werden andere Datenstrukturen notwendig. Manchmal werden einfach mehr Daten erfasst oder modelliert, manchmal wird die Modellierung der Welt mehrfach stark verändert. Denn erst gute Datenstrukturen erlauben es, die leistungsfähigen Algorithmen unserer Zeit umzusetzen. Je besser die Datenstruktur ist, desto einfacher sind häufig die Algorithmen, die man mit ihnen umsetzen kann.

Betrachten wir den Trollfinder-Algorithmus, auf den ich zu Beginn verwiesen habe. Kommentartrolle zu finden, also Menschen, die in Online-Kommentaren aggressiv oder beleidigend werden, klingt nach einer ziemlich schwierigen Aufgabe. Man müsste ja eigentlich alle Kommentare lesen und wirklich verstehen, um einzuschätzen, ob jemand ein Troll ist. Vielleicht war ein Kommentar ja nur ironisch gemeint?

Der Algorithmus geht allerdings anders vor. Aus den vorliegenden Datensätzen mehrerer populärer Websites ermittelten die Wissenschaftler eine kleine Menge von Charakteristika, die die Posts von Kommentartrollen gemeinsam haben: So ist zum Beispiel die Wahrscheinlichkeit, dass Schimpfworte vorkommen, sehr hoch. Außerdem konzentrieren sich Trolle in den vorliegenden Daten eher auf wenige Gesprächsfäden anstelle ihre Aktiviät über die Plattform zu verteilen. Zur Ermittlung von Trollen werden diese einfachen Metriken (Anzahl Schimpfwörter, Konzentration der Posts) aufaddiert und ab einer gewissen Summe stuft der Algorithmus die betrachteten Kommentierenden als Trolle ein. Der Algorithmus selbst ist also weitgehend eine einfache Addition von Zahlen.

Das Datenmodell reduziert Texte auf einfache Statistiken. Der Algorithmus selbst arbeitet also gar nicht mehr mit den Kommentaren, versteht sie nicht und versucht das auch gar nicht. Durch das perfekt auf das vorliegende Problem ausgerichtete Datenmodell kann ein ganz einfacher Algorithmus so sehr komplexe Probleme lösen.

Ein Algorithmus, der Terroristen suchen soll, ist vielleicht genauso einfach konstruiert wie einer, der Online-Trolle aufspürt.

Der allgegenwärtige und oft sehr diffuse Begriff des Algorithmus und die mediale Darstellung von Softwareentwicklern als Genies, die ultrakomplexe Zeichenketten in Tastaturen hacken, lässt uns in der gesellschaftlichen Debatte den Fokus auf die falsche Stelle setzen: die Datenverarbeitungsvorschriften, also die Art, wie Daten miteinander in Zusammenhang gesetzt und weiterverarbeitet werden. Dabei sind die Datenmodelle mindestens genau so wichtig: Ein Algorithmus, der automatisch Terrorverdächtige suchen soll, ist möglicherweise ähnlich einfach konstruiert wie der Trollfinder-Algorithmus. Aber auf welchen Daten setzt er auf? Welche Beschreibung von Menschen liegen ihm zugrunde?

Es ist wichtig, beide Aspekte der Datenverarbeitung zu betrachten, wenn wir uns ein Bild von den digitalen Zusammenhängen machen wollen. Denn eine diskriminierende Datenstruktur-Algorithmus-Kombination kann schon durch Änderung des Datenmodells fairer werden (und natürlich umgekehrt). Zum Beispiel, wenn wir einen automatisierten Bewerbungsauswertungsalgorithmus entwickeln, der entscheidet, welche Bewerbenden am besten für eine Stelle geeignet sind. Hier macht es einen großen Unterschied, ob wir beispielsweise das Geschlecht oder die Nationalität der Bewerbenden in unser Datenmodell und damit potentiell auch in die Auswertung einbeziehen.

Algorithmen leben in einer Welt aus Datenstrukturen. Datenstrukturen, die Softwareentwickler entwerfen, um die Welt zu beschreiben. Sind wir eigentlich mit der Struktur, die uns vorgegeben wird, zufrieden? Sind die Auswahlmöglichkeiten, die uns zum Beispiel Facebook bietet, um uns selbst abzubilden, passend? Wie viele unserer Probleme mit Algorithmen und ihren Konsequenzen entstehen aus in die Datenstrukturen und Modelle eingepflanzten Vorurteile der Entwickelnden? Wie viele Datenstrukturen haben wohl schon den Ruf ganz unbescholtener Algorithmen ruiniert?

In der letzten Folge von „Machines Of Loving Grace“ erklärte Jürgen Geuter, wie die Algorithmen von Dating-Apps funktionieren. 

GQ Empfiehlt