Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Machines Of Loving Grace / Wen überfährt das selbstfahrende Auto?

von Jürgen Geuter
Algorithmen sind überall. Jeder hat ständig mit ihnen zu tun, viele fürchten sie, doch die wenigsten verstehen tatsächlich, wie sie funktionieren. In seiner WIRED-Kolumne durchleuchtet Jürgen Geuter die mathematischen Problemlöser, die unsere Welt zu lenken scheinen. Diesmal: Algorithmen, die Autos ganze ohne Menschen fahren lassen.

Ich bin auf dem Land aufgewachsen. Da war der Erwerb des eigenen Führerscheins eine ziemlich wichtige Sache: Ohne Fahrerlaubnis saß ich weitgehend fest in einem kleinen Nest irgendwo in Niedersachsen. Und das kann man nun wirklich niemandem zumuten.

Also investierte ich einige Abende in Theorieunterricht, lernte erlaubte Abstände, obskure Verkehrsschilder und Vorfahrtsregeln anhand von Fotos aus den 80gern. Doch spannender als die reine Theorie war die Praxis. Denn neben dem grundsätzlichen Umgang mit einem Auto kamen dort immer wieder Faustregeln vor, die komplexe Entscheidungen in Gefahrensituationen erleichtern sollten.

Eine dieser Regeln lautete beispielsweise: „Wenn du auf der Strasse ein Reh stehen siehst und nicht mehr bremsen kannst, weiche nicht aus, sondern halte das Steuer fest und fahre weiter geradeaus.“ Das klingt kaltherzig und die Rehe sind sicher der Meinung, dass man diese Handlungsanweisung unbedingt überarbeiten sollte, trotzdem ergibt sie durchaus Sinn: Menschliches Leben im Straßenverkehr zu schützen, ist oberste Direktive. Beim Versuch, dem Tier auszuweichen, besteht die große Wahrscheinlichkeit, die Kontrolle über das Fahrzeug zu verlieren. Das Auto kann von der Straße abkommen und dort mit einem Baum kollidieren, oder auf der falschen Straßenseite landen und in den Gegenverkehr schießen. Die Gefahr für das Leben eines oder mehrerer Menschen wird gegen das Wohl des Tieres abgewogen — und es wird zu seinen Lasten entschieden.

Sollte sich mein Auto nicht vor allem um MEINE Sicherheit kümmern?

Wir Menschen brauchen besonders für Stresssituationen, in denen binnen Sekunden Entscheidungen getroffen werden müssen, die potentiell gravierende Konsequenzen haben, feste Regeln und Handlungsanweisungen. Nur so sind wir in der Lage, mit Gefahrensituationen in der gebotenen Geschwindigkeit fertigzuwerden. Das bewusste Nachdenken über die Gesamtsituation und die Abwägung aller Informationen können wir einfach nicht schnell genug leisten, also bauen wir uns einen Algorithmus, um die Entscheidung quasi zu „automatisieren“.

 

Aber nicht nur wir Menschen brauchen solche Entscheidungswerkzeuge. Irgendwo sitzen in Labors, Büros und Werkstätten gerade in diesem Moment irgendwelche Entwicklungsteams daran, weitere solcher Algorithmen zu entwerfen. Für selbstfahrende Autos.

Die Idee des autonomen PKW ist schon lange populär. Ende der 60er feierte Disney mit den „Herbie“-Filmen große Erfolge. Auch die 80er Serie „Knight Rider“ wird einigen noch in (möglicherweise etwas peinlicher) Erinnerung sein. David Hasselhoff alias Michael Knight lebte darin schon damals das, was heute der heiße Scheiß ist: selbstfahrendes Auto und Smartwatch.

Algorithmen unseren Wertvorstellungen anpassen, was bedeutet das konkret?

Autos autonom herumfahren lassen, ist schon technisch nicht ganz einfach: Das Fahrzeug muss aus Kamerabildern und anderen Sensordaten Straße, Schilder, andere Autos, Menschen und sonstige Hindernisse erkennen. Es muss den Straßenzustand ein- und den eigenen Bremsweg abschätzen. Muss das Fahrtziel nicht nur kennen und auf einer Karte anzeigen, sondern es auch passgenau anfahren und an der richtigen Stelle zum stehen kommen. Gegebenenfalls sogar einparken. Das Betriebssystem des Autos muss besonders stabil laufen denn ein „Blue Screen of Death“ mitten auf der Autobahn würde seinem Namen nur allzu gerecht werden. Und vorm Losfahren eine Stunde lang Updates installieren zu müssen, wäre auch keine sonderlich attraktive Vorstellung.

Aber alle diese Probleme sind vergleichsweise simpel in Anbetracht der ethischen Fragen, mit denen ein selbstfahrendes Auto konfrontiert ist. Nehmen wir eine beliebte denkaufgabe aus der Philosophie:

Du sitzt alleine im Auto und fährst einen Hügel hinuter als du merkst, dass deine Bremse versagt. Am Fuße des Hügels überquert eine Gruppe von Menschen die Straße auf einem Zebrastreifen. Du kannst nicht bremsen, nur durch das Verlassen der Straße der Gruppe ausweichen, würdest dabei aber mehrere Passanten überfahren, die noch vorm Zebrastreifen warten. Was tust Du?

Es gibt keine „korrekte“ Antwort auf diese Frage. Egal wie sich eine Person in dieser Situation entscheidet: Menschen sterben. Die Kriterien, die Menschen für die Lösung dieser Frage heranziehen, sind allerdings oft sehr spannend: Einige würden schnell die Größen der beiden Gruppen ermitteln und die kleinere anvisieren. Andere würden versuchen zu vermeiden, Kinder zu überfahren. Wieder andere würden sich fragen, was sie selbst am wenigsten gefährdet. Und manche hätten noch andere Daten, die sie in die Entscheidung einfließen lassen würden. Aber allen ist klar: Die Frage ist nur theoretisch, ein Gedankenspiel. Hoffen wir, dass wir sie uns niemals wirklich stellen müssen.

Alles Automatisierbare wird über kurz oder lang automatisiert.

Für die Entwickler von selbstfahrenden Autos ist die Frage allerdings nicht abstrakt und theoretisch, sondern sehr konkret: Wenn unser Fahrzeug in diese oder eine ähnliche Situation kommt, was soll es tun? Wessen Leben soll es aufs Spiel setzen? Unser Luxus von „Das überlegen wir uns, wenn es so weit ist“ bleibt ihnen versagt.

An dieser Stelle werden oft „ethischen Algorithmen“ gefordert. Das richtige Verhalten müsse in Maschinen hineinprogrammiert werden. Aber nach welchen Kriterien wird das richtige Verhalten ermittelt? Schon unser kleines Gedankenspiel oben hatte keine eindeutige Lösung. Sollen einfach nur die Zahlen der potentiellen Opfer verglichen werden? Habe ich als Besitzer eines Autos nicht das Recht, dass sich mein Fahrzeug vor allem um meine Sicherheit kümmert?

Die Antwort auf die Frage, wie ein selbstfahrendes Auto sich in dieser Situation verhalten müsste, ist Ausdruck unserer gesellschaftlichen Wertvorstellungen. Und es ist völlig richtig, zu fordern, Algorithmen müssten sich ethisch, unseren Normen und Wertvorstellungen entsprechend, verhalten. Aber was bedeutet das konkret? Was soll das Auto tun? Wer beantwortet die Frage? Ich bezweifle, dass sich die Ingenieure und Ingenieurinnen in diversen Laboren auf diesem Planeten darum reißen, diese Frage selbst beantworten zu müssen.

Algorithmen sind plötzlich nicht mehr irgendwelcher Code, den irgendwelche Programmierer in Kellern schreiben.

Die Automatisierung der Welt bringt uns an vielen Stellen in die unkomfortable Situation, unsere Werte plötzlich in harte, kalte Fakten überführen zu müssen — um sie in maschinenverarbeitbare Form übersetzen zu können. Oder eben zu entscheiden, einen bestimmten Lebensbereich nicht zu automatisieren, was zunehmend unwahrscheinlicher wird: Alles Automatisierbare wird über kurz oder lang automatisiert werden.

Das ist der Preis, den wir als Gesellschaft für unsere Science-Fiction-Zukunft der selbstfahrenden Autos, der Haushaltsroboter und der smarten medizinischen Maschinen zahlen. Algorithmen sind plötzlich nicht mehr irgendwelcher Code, den irgendwelche Programmierer in Kellern schreiben und über deren Ergebnisse wir in Foren schimpfen. Wir, das heißt wir alle, müssen gemeinsam entscheiden, welche Anforderungen wir haben. Wir müssen entscheiden, wessen Leben das selbstfahrende Auto im Zweifel riskieren soll. Erst dann können wir „ethische Algorithmen“ erwarten.

Bleibt am Ende also die Frage: Wen soll das selbstfahrende Auto denn nun überfahren?

In der letzten Folge von „Machines Of Loving Grace“ beschäftigte sich Jürgen Geuter mit den Algorithmen von Suchmaschinen.

GQ Empfiehlt
Make Social Media social again!

Make Social Media social again!

von Johnny Haeusler