/Code

Algorithmen haben eine Moral – die ihrer Programmierer

Dominik Schönleben 07.03.2018 Lesezeit 4 Min

Ein Computer hat keine Moral. Aber eine Software kann einer Ideologie oder einem Weltbild folgen. Sie kann etwa rassistisch oder frauenfeindlich sein. Dafür sind heute nicht nur ihre Programmierer verantwortlich, sondern Datenbanken, aus denen Künstliche Intelligenzen lernen. Ein Kommentar von Dominik Schönleben.

Im amerikanischen Bundestaat Wisconsin werden Richter von Maschinen beraten. Erst muss ein Straftäter einige Fragen über sich selbst beantworten, dann schätzt der Algorithmus, ob die Person rückfällig werden wird. Der Richter muss also nicht mehr nach bestem Wissen und Gewissen entscheiden, wenn er die Länge einer Haftstrafe bestimmt, sondern kann sich auf eine Maschine verlassen.

Der Computer folgt natürlich nicht seinem eigenen Verständnis von Strafe oder Moral. Er befolgt Regeln, die ein Programmierer ihm gegeben hat. Faktoren, die für den Algorithmus eine Rolle spielen sind Alter, Wohnort, familiäre Umstände und Persönlichkeitsmerkmale des Angeklagten. Früher wäre jede dieser Variablen, jede Codezeile, von einem Programmierer getippt worden. Eine Wenn-Dann-Folge war also stets irgendwann von einem Menschen erdacht. Die Verantwortung für den Algorithmus und seine moralischen Entscheidungen konnten also auf eine Person oder eine Gruppe zuruückgeführt werden. Die Maschine folgte im Zweifelsfall der Weltanschauung ihres Programmierers – oder war zumindest von ihr beeinflusst.

Diese eindeutige Kette der Verantwortung hat sich durch Machine-Learning-Algorithmen und Künstliche Intelligenz verändert. Längst schreiben nicht mehr Programmierer den Code, sondern die Algorithmen schreiben sich selbst. Und das wird zum Problem. Weil niemand direkt für eine rassistische oder frauenfeindliche Maschine verantwortlich ist.

Die meisten KIs funktionieren heute so: Das Programm versucht sich selbst anhand von Datenbeispielen oder Trainingseinheiten eine Aufgabe beizubringen. Was die Programmierer dabei vorgeben: das Ziel. So lernte etwa die KI Alpha Go von Google das Brettspiel Go. Mit den Grundregeln ausgestattet, spielte der Computer immer wieder gegen sich selbst. Anfangs stuümperhaft, denn er probierte einfach nur zufällige Spielzuüge aus. Aber nach monatelangem Training war der Computer so gut, dass er den besten Go-Meister Lee Sedol schlug. Und das zum Teil mit den Experten völlig unbekannten Strategien. Spielzüge, die kein Mensch dem Algorithmus beigebracht, sondern die er selbst erfunden hatte.

Das Verhalten einer Kuünstlichen Intelligenz ist also selten absehbar. Weshalb es auch schwierig geworden ist, zu sagen, wessen Moral sie verfolgt. Forscher des Massachusetts Institute of Technology und der Stanford University haben herausgefunden, dass viele Machine-Learning-Algorithmen befangen gegenuüber Frauen und Schwarzen sind. Im konkreten Fall ging es zwar nur um Programme, die Fotos analysieren. Ähnliches wurde jedoch auch bei KIs beobachtet, die Straftäter bewerten. Und spätestens hier muss die Gesellschaft sich die moralische Frage stellen, ob ein Computer wirklich zum Einsatz kommen sollte.

Der Grund für die Befangenheit der Computer: Die Datenbanken aus denen sie lernen, spiegeln oft nur die Realität wieder. In der wird ein Schwarzer zwar vielleicht öfter im Zusammenhang mit Straftaten erfasst – verantwortlich ist dafuür jedoch nicht seine Hautfarbe oder seine kriminelle Energie. Sondern einfach der in der Gesellschaft vorhandene Rassismus, der dafür sorgt, dass Schwarze öfter von der Polizei kontrolliert werden als andere Personen.

Ein eigentlich gut gemeinter Algorithmus machte Mark Zuckerberg zum Fake-News-Mogul.

Einfach zu lösen ist dieses Problem nicht. Denn die Algorithmen sind selbst für ihre Programmierer schwarze Boxen, in die Daten reingehen und Ergebnisse rauskommen. Selbst Experten können also nicht mehr garantieren, welcher Moral ihr Algorithmus folgt.

Wie schnell ein mit guter Intention programmierter Computer sich irren kann, musste Facebook 2017 lernen. Der Algorithmus des Unternehmens geriet ährend der amerikanischen Wahl außer Kontrolle. Und das, obwohl seine grundlegenden Aufgaben eigentlich vernünftig klangen: Er sollte neutral sein, jede Nachricht und jeden Beitrag gleich behandeln, egal aus welcher Quelle sie stammen. Ob ein Post dann vielen Menschen gezeigt wurde, hing davon ab, wie beliebt er war – also wie viele Likes und Kommentare er bekam.

Ein Beitrag, der Hass oder Emotionen schürt, regt Menschen zum Kommentieren und Teilen an. Ein ausgewogener Bericht hingegen, der ein komplexes Thema beleuchtet, wird vielleicht von seinen Lesern geschätzt – zur Interaktion verleitet er selten. Die logische Folge: Trotz seiner eigentlich recht vernünftigen Regeln machte der Facebook-Algorithmus Mark Zuckerberg zum Fake-News-Mogul.

Diese Beispiele zeigen, wie gefährlich Algorithmen sein können. Sie haben zwar kein eigenes Weltbild, können aber schnell ein Eigenleben entwickeln, das wie moralisches Handeln wirkt. Genau hier muss die Gesellschaft ansetzen und die Programmierer und CEOs in die Verantwortung nehmen. Es darf nicht als Ausrede gelten, dass ein Algorithmus sich selbst beigebracht hat, ein Fan rassistischer Fake-News zu sein.