Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Machines Of Loving Grace / Brauchen wir einen Leinenzwang für Algorithmen?

von Jürgen Geuter
Algorithmen sind überall. Jeder hat ständig mit ihnen zu tun, viele fürchten sie, doch die wenigsten verstehen tatsächlich, wie sie funktionieren. In seiner WIRED-Kolumne durchleuchtet Jürgen Geuter die mathematischen Problemlöser, die unsere Welt zu lenken scheinen. Diesmal: Warum Algorithmen Verantwortung erfordern.

In der letzten Folge dieser Kolumne sprachen wir über lernende Algorithmen. Diesen programmiert man nicht die Lösung einer Aufgabe direkt und in allen Schritten ein, sondern füttert sie mit einer großen Menge an Trainingsdaten, aus denen sie quasi selbstständig lernen, wie das vorgegebene Problem zu lösen ist. Die Leistungsfähigkeit solcher Systeme ist beeindruckend, leider sind die Ergebnisse aber oft nicht mehr so richtig nachzuvollziehen: Der Algorithmus funktioniert, aber warum genau, können nicht mal mehr Experten aus der Datenbasis herauslesen. Das macht natürlich Vorraussagen sehr schwierig, wie ein solcher Algorithmus auf neue, unbekannte und unerwartete Eingaben reagieren wird, wenn nicht sogar unmöglich.

Lernende Algorithmen werden heute auf vielen Internetplattformen eingesetzt. So nutzt beispielsweise Google Photos sie, um die Bilder, die Menschen auf die Plattform hochladen, zu kategorisieren. Das sieht dann zum Beispiel so aus:

Google Photos ist ziemlich gut darin, selbstständig Objekte zu erkennen und Fotos zu gruppieren: Katzenbilder, Bilder von Essen, Bilder von Bergen. Das System kann sie sogar hübsch zusammenstellen: Kollagen und Mosaike aus irgendwie passenden Bildern werden vollautomatisch generiert, es überprüft, welche dieser Kollagen den Menschen gefallen — zum Beispiel, indem es sich ansieht, welche dieser Kollagen geshared werden — und passt sich darauf an, um in Zukunft noch bessere zu bauen. Aber wie das Bild zeigt sind die Ergebnisse keineswegs perfekt: Manchmal wird eben auch eine Katze als Hund erkannt.

Auch der immer noch recht populäre Bilderdienst Flickr hat lernende Algorithmen in seine Plattform integriert, die Bildern automatisch Tags — also Schlagworte — zuordnen. Das ist nicht nur Selbstzweck sondern hilft den Nutzenden auch, neue, interessante Bilder einfacher zu finden. Denn nicht alle von den Fotografen eingetragenen Titel sind aussagekräftig und das manuelle Hinzufügen von Tags ist lästig. Warum also nicht automatisieren?

Es ist wie mit mit einem Haustier: Wohin führe ich es aus? Was muss ich tun, um andere nicht zu belästigen oder zu gefährden?

Vor einigen Wochen zeigte sich dann ein großes Problem solcher Algorithmensysteme. Flickrs automatisierter Tagging-Algorithmus fiel durch äußerst geschmacklose Verschlagwortung auf: People of Color wurden als „Tier“ oder „Affe“ getaggt, Bilder von Konzentrationslagern mit den Worten „Klettergerüst“ und „Sport“. Und sehr zu recht waren Menschen empört: Irgendjemand hat es verbockt — aber wer und wie? Das Team, das den lernenden Algorithmus entwickelt und trainiert hat? Die Menschen, die den Algorithmus auf öffentlicher Seite scharf geschaltet haben? Oder die, die Fotos hochladen und die automatisch generierten Tags nicht überprüfen?

Selbstlernende Algorithmen sind in ihrem Verhalten nicht so richtig vorhersehbar, aber sie wurden auf bestimmtes „Verhalten“, also den Umgang mit abgegrenzten Problemen trainiert. Das erinnert ein wenig an Haustiere, denen Menschen auch gewisse Regeln beibringen, um das Zusammenleben angenehmer zu gestalten (bei Katzen ist das natürlich eher umgekehrt). Doch neben dem Training muss ich mich bei meinem Haustier immer wieder dem Einzelfall entsprechend entscheiden: Wohin führe ich es aus und was muss ich tun, um andere Menschen oder Tiere nicht zu belästigen oder zu gefährden? Wie reagiert zum Beispiel mein Hund auf andere Hunde? Auf Joggende im Park? Was sind die Regeln für bestimmte öffentliche Bereiche und wie kommt mein Hund (um im Beispiel zu bleiben) damit klar? Um die Entscheidungen einfacher zu machen und anderen eine gewisse Sicherheit zu geben, gibt es deshalb auch verbindliche Regeln wie den Leinenzwang. Wie ließe sich sowas auf selbstlernende Algorithmen übertragen?

Ein Entwicklungsteam weiß möglicherweise nicht immer hundertprozentig, wie ein Produkt später einmal eingesetzt werden wird. Vielleicht ist die Software ein Open Source Projekt, das andere Menschen dann in ihre eigenen Webplattformen integrieren? Doch ganz freisprechen von Verantwortung können wir Entwickler nicht: Im Open-Source-Fall müssen sie potentielle Nutzende natürlich vorwarnen, sie müssen mögliche Testfälle erarbeiten oder bereitstellen, um User für die Gefahren und Konsequenzen des Einsatzes zu sensibilisieren. Küchenmaschinen kommen ja auch inklusive Handbuch mit Warnhinweisen.

Einen Foto-Algorithmus nicht mit Menschen aller Hautfarben zu testen, ist fahrlässig bis bösartig.

Und diejenigen, die entscheiden, einen solchen autonomen Algorithmus öffentlich einzusetzen, haben ebenfalls eine besondere Verantwortung für das Verhalten ihres Softwaresystems: Auch wenn sie vielleicht selbst nicht in der Lage sind, die Ergebnisse des Algorithmus zu testen, müssen sie sich doch vergewissern, welche Tests durchgeführt wurden, müssen garantieren, dass die für den Einsatzzweck relevanten Fälle wirklich überprüft worden sind. Denn mal ehrlich: Einen Algorithmus, der auf Fotos arbeitet, nicht mit Menschen aller Hautfarben zu testen, liegt irgendwo zwischen fahrlässig und bösartig.

Die Nutzenden hingegen, die beispielsweise Bilder hochladen, haben oft nur wenig Möglichkeiten zum Eingreifen, vor allem können sie in den allermeisten Fällen nur auf die Ergebnisse der Algorithmen reagieren. Trotzdem werden Profile auf Internetplattformen stark mit der Person assoziiert, so dass auch dort eine gewisse Sorgfalt angeraten ist. Und so gehört auch das Kümmern um automatisierte Tags zum digitalen Leben — wie das Händewaschen zum analogen.

Wer Algorithmen auf die Welt loslässt, muss Verantwortung übernehmen. Dabei ist das Herstellen von Transparenz nicht immer möglich, entweder um Geschäftsgeheimnisse zu schützen, oder weil ein Algorithmensystem in seinen Ergebnissen nicht so recht vorhersehrbar ist. Besonders in solchen Fällen ist es daher wichtig, gute und umfassende Testfälle zu definieren (und möglichst sogar zu dokumentieren), die nicht nur den üblichen Vorurteilen der Entwickelnden oder Plattformbetreiber entsprechen. Und auch eine Möglichkeit, Probleme schnell und direkt zu melden, ist kein schmückendes Beiwerk, sondern notwendiges Feature.

So etwas wie Sicherheits- oder Biosiegel könnte es auch für Algorithmen geben.

Hier könnte ein neuer Berufsstand sehr wichtig werden: der des Algorithmikers. Das sind Menschen, die Algorithmen unabhängig testen, bevor sie auf die Welt losgelassen werden. Sie können damit einen gewissen Verhaltensstandard garantieren, selbst ohne den Code des Algorithmus selbst zu kennen: Denn mit zunehmender Häufigkeit von Algorithmentests wächst nicht nur die Erfahrung der Algorithmiker, sondern auch die Bibliothek relevanter Testfälle. Wie die Sicherheitssiegel auf Elektrogeräten oder die Biosiegel auf Nahrungsmitteln könnten unabhängige, standardisierte Algorithmensiegel die Produkte eines Unternehmens in ihrer Wirkung auf die Menschen und die Welt einschätzbar und verständlich machen.

Algorithmen sind nicht mehr wegzudenkende Akteure unserer digitalen Realität. Und das sollen sie auch sein, weil sie unser aller Leben bereichern können. Doch wer Algorithmen in die Öffentlichkeit, in das Internet hinein deployed, muss Verantwortung für das Verhalten dieser Systeme übernehmen. Wer einen E-Mail-Server betreibt, muss sicherstellen, dass über diesen kein Spam verschickt wird. Wer einen der beliebten autonomen Twitter Bots live schaltet, muss sicherstellen, dass dieser nicht anfängt, andere Twitternde gegen ihren Willen mit Nachrichten zu fluten. Wer Automatisierung in die Welt einbringt, die autonom mit dieser interagiert, muss sich überlegen, wie das Verhalten dieses Systems anderen gegenüber aussieht und im schlimmsten Fall aussehen kann. Oder Menschen fragen, die sich damit auskennen. Und manchmal bedeutet das eben: eine digitale Leinenpflicht. 

GQ Empfiehlt