Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Autonomes Fahren: „Verantwortung trägt immer der Mensch“

von Christina zur Nedden
Motor an, Augen zu und zurücklehnen: Das Auto der Zukunft kommt ohne aktiven Fahrer aus, Unfälle soll es nicht mehr geben. Und wenn es doch mal kracht? Die Verantwortung liege immer noch beim Menschen und nicht bei der Maschine, sagt die Technikphilosophin Janina Loh.

Nicht selbst zu fahren, hat viele Vorteile. Schlafen, im Internet surfen, arbeiten – all das soll in Zukunft im autonomen Auto möglich sein. Um Zusammenstöße mit anderen Fahrzeugen müssen sich Insassen nicht sorgen. Das besagt zumindest die Vision-Zero-Theorie, denn wenn alle Autos vernetzt und wissen wie weit sie voneinander entfernt sind, könne es auch keine Unfälle mehr geben.

Die Technologie für autonomes Fahren ist jedoch noch nicht voll ausgereift. Dass Systeme teilweise ausfallen oder Komponenten nicht richtig funktionieren ist nach wie vor nicht auszuschließen. Was passiert also, wenn es gefährlich wird? Wie entscheidet sich das autonome Fahrzeug, wenn es entweder in eine Betonwand, einen Abhang hinunter oder in eine Menschengruppe hineinfahren müsste? Und wer trägt die Verantwortung für einen Unfall, wenn der Fahrer nicht mehr eingreifen kann?

Die Debatte um autonomes Fahren ist nicht nur eine wirtschaftliche, sondern auch eine ethisch-philosophische. Auch Janina Loh wird nun immer öfter zu Veranstaltungen eingeladen, die auf den ersten Blick wenig mit Philosophie zu tun haben. Loh ist Technikphilosophin an der Universität Wien und forscht zu Trans- und Posthumanismus sowie Roboterethik. WIRED traf sie auf der OPELxWIRED future.mobility Conference in Rüsselsheim zum Interview. 

WIRED: Frau Loh, Sie forschen seit Jahren zum Thema Verantwortung, philosophisch aber auch technisch gesehen. Wenn ein autonomes Auto einen Unfall baut, wer trägt dann die Verantwortung?
Janina Loh: Ganz klar: der Mensch. Nur er erfüllt die Bedingungen, Verantwortung zu tragen: Diese sind zum Beispiel Urteilskraft, die Fähigkeit, autonom handeln zu können und sich über die Folgen bewusst zu sein, und ein Verständnis von Geschichtlichkeit – das heißt, zu wissen, dass man in einen Kontext eingebettet ist, in dem man handelt. Man muss kommunizieren können, man muss eine Person sein.

WIRED: Aber Maschinen können doch mittlerweile auch kommunizieren?
Loh: Stimmt, aber alle anderen Fähigkeiten sind selbst bei den modernsten Maschinen noch nicht in dem nötigen Ausmaß vorhanden. Sie können daher – noch – keine Verantwortung tragen. Autonome Fahrassistenzsysteme sind zwar mit vielen Daten aus ihrer Umgebung ausgestattet, vielleicht „entscheiden“ sie auf dieser Grundlage auch nach bestimmten Parametern, hinreichend Urteilskraft haben sie dadurch aber nicht. Die Verantwortung liegt weiterhin bei den menschlichen Parteien, bei den Herstellern, den Fahrzeuginsassen, den Informatikern, die die Algorithmen gebaut haben, und den Juristen, die Verkehrsgesetze festgelegt haben.

Technik hat immer Moral, ganz gleich, ob ich einen Algorithmus, einen Hammer oder ein Maschinengewehr baue

Janina Loh

WIRED: Das geht so lange gut, bis der Mensch vollautonom fährt und bei einem Unfall gar nicht mehr eingreifen kann.
Loh: Nein, auch dann trägt der Mensch weiterhin die Verantwortung. Er hat das Fahrzeug gekauft und hat sich an dem Tag entschieden, es aus der Garage zu lassen oder es zu buchen und einzusteigen. Es ist ja auch jetzt so, dass Menschen bei einem Unfall immer eine Teilschuld tragen, weil sie über die moralischen und rechtlichen Herausforderungen in der Teilnahme am Straßenverkehr Bescheid wissen.

WIRED: Aber irgendwie muss das vollautonome Auto in einer Gefahrensituation ja handeln. Wie passen Technik und Moral zusammen?
Loh: Technik hat immer Moral, ganz gleich, ob ich einen Algorithmus, einen Hammer oder ein Maschinengewehr baue, sie ist menschengemacht. Die moralischen, aber auch ästhetischen oder religiösen Ansichten des Menschen, der sie baut fließen immer in das Produkt mit ein. Das heißt nicht, dass wir die moralische Verantwortung an die Maschine abgeben, wohl aber dient Technik immer einem Zweck. Man kann natürlich auch mit einem Maschinengewehr einen Nagel in die Wand schlagen, aber eigentlich soll es einen Menschen oder ein Tier zu Schaden bringen. Und das ist ein moralischer Wert, den wir diesem Maschinengewehr implementiert haben.

WIRED: Setzt sich der Entwickler dann bewusst hin und überlegt, welche Werte eine Maschine vertreten sollte?
Loh: Er oder der Hersteller ist sich jedenfalls über einige der Konsequenzen bewusst. Es ist jedenfalls naiv anzunehmen, dass sich die Techniker nie über irgendwelche Konsequenzen bewusst sind. Da geht es natürlich um ganz konkrete moralische Fragen wie beispielsweise: Fährt das autonome Auto die schwangere Frau an, die die Straße überquert, rast es in den Kindergarten rechts vom Auto oder fährt es links den Abhang hinunter und gefährdet die Leben der Fahrzeuginsassen? Autohersteller sind sich darüber im Klaren, dass wir in solche Situationen geraten könnten.

Wir dürfen bei selbstlernenden Systemen im Nahbereich des Menschen keine Trial-and-Error Verfahren zulassen

Janina Loh

WIRED: Wie soll man bei diesem aussichtslosen Gedankenexperiment die richtige Entscheidung treffen?
Loh: Eine ethische Entscheidung ist nicht richtig oder falsch in einem empirisch messbaren oder universal entscheidbaren Sinn. Sie kann unterschiedlich begründet werden. Ginge es zum Beispiel nach dem Prinzip des Utilitarismus, würde immer der Mensch mit dem größten Glückspotenzial verschont bleiben. Eine schwangere Frau würde dann einem alten, alleinstehenden Mann vorgezogen. Solche Entscheidungen in artifizielle Systeme einzuprogrammieren geht jedoch gegen das Grundgesetz, das verbietet, Menschenleben gegeneinander abzuwägen und auch gegen die deontologische Ethik eines Immanuel Kant.

WIRED: Und was bedeutet das ganz praktisch für die Unfallsituation im vollautonomen Auto?
Loh: Klar ist, dass wir bei selbstlernenden Systemen im Nahbereich des Menschen keine Trial-and-Error Verfahren zulassen dürfen. Man kann ja nicht sagen: „Jetzt fahr ich mal in den Baum rein und beim nächsten Mal mach ich's anders.“ Die Hersteller werden versuchen, das Auto erst einmal auf den freien Raum zu programmieren, oder so, dass es eine Vollbremsung einlegt. Den Rest müssen wir nach meiner Ansicht nach wie vor dem menschlichen Insassen überlassen.

GQ Empfiehlt
Wen sollten autonome Autos opfern?

Wen sollten autonome Autos opfern?

von Chris Köver

Tesla ruft 11.000 Model X zurück

Tesla ruft 11.000 Model X zurück

von WIRED Staff