Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Digital ist besser / Autos brauchen keine Moral!

von Johnny Haeusler
Unser Kolumnist Johnny Haeusler schaut sich die Diskussion um Unfälle von selbstfahrenden Autos schon seit einer Weile an. Er fragt sich: Brauchen wir wirklich eine Moral für die Maschine? Spoiler: Seine Antwort lautet Nein!

Beim Test-Spiel „Moral-Maschine“ stellt die Scalable-Forschungsgruppe des MIT Nutzerinnen und Nutzer vor schwerwiegende ethische und moralische Aufgaben – ähnlich denen, die angeblich den selbstfahrenden Autos der nahen Zukunft bevorstehen. Falls ihre Bremsen versagen: Steuern sie eher auf zwei Passanten zu, die bei dem Unfall höchstwahrscheinlich sterben werden, oder setzen Sie den Wagen gegen eine Wand, und töten damit möglicherweise die vier Insassen?



Solche und ähnliche Fragen beschäftigen seit geraumer Zeit Technik-Blogs, Ethik-Expertinnen, soziale Medien und die Stammtische dieser Welt. Als Gedankenspiel sicher spannend, darf man diesen Fragen ihren Realitätsbezug absprechen.

Obwohl auch technische Mängel wie defekte Bremsen zu Unfällen führen, rangieren sie statistisch gesehen bei den Unfallursachen hinter menschlichem Versagen wie alkoholisiertem Fahren, Unachtsamkeit oder überhöhter Geschwindigkeit.

Und wenn dann die Bremsen versagen: Wie oft sieht sich der Fahrer oder die Fahrerin oder das selbstfahrende Auto wirklich in der Situation, zwischen verschiedenen Gruppen Gefährdeter entscheiden zu müssen? Gibt es die Test-Situationen im echten Leben überhaupt? Und wenn ja: Wieso sind dann moderne Autos nicht längst mit einem zweiten Notfall-Bremssystem ausgestattet?

Es handelt sich bei dieser Art von Fragen rund um die autonome Mobilität natürlich in erster Linie um gesellschaftliche Experimente, um ethische Planspiele: Sie basieren in erster Linie auf quantitativen Aufgaben – töten Sie vier Insassen oder zwei Passanten? – gehen aber teilweise noch weiter und sollen die Gesellschaft damit auf ganz andere Szenarien aufmerksam machen. Töten Sie, wenn es sich absolut nicht vermeiden lässt, die junge Frau oder den sehr alten Mann? Den Sportler oder die übergewichtige Person? Die Katze oder das Kalb?

Wer solche Planspiele per se für unethisch oder zynisch hält, sollte wissen, dass die aufgeworfenen Fragen längst im Raum stehen. Aber weniger bei selbstfahrenden Autos, sondern z.B. im Bereich der Gesundheitssysteme.
So schlugen Fachleute des sehr angeschlagenen britischen Krankenversicherungssystem NHS vor kurzem vor, Raucherinnen und Raucher sowie übergewichtige Menschen bei anstehenden Operationen auf Wartelisten zu setzen. Schließlich wären diese Menschen selbst schuld an ihrem Zustand, ihre Heilungschancen wären durch ihre Laster oder Fehlernährung geringer und sie würden das Sozialsystem daher mehr belasten als andere Patienten, denen man den Vorzug in der Behandlung geben wolle.

Die Pläne des NHS wurden zunächst nach massiven Protesten anderer Experten, die den Plan mit rassistischer Diskriminierung verglichen, auf Eis gelegt. In den Kommentarspalten der britischen Presse jedoch fanden sie auch jede Menge Zustimmung. Von nichtrauchenden, schlanken Menschen vermutlich. Warten wir ab, wie sich die gesellschaftliche Meinung verändert, wenn diese Gedanken zur Sortierung angeblicher menschlicher Qualitäten weitere Blüten treiben.

Wenn es nicht mehr nur um Raucherinnen und Übergewichtige geht, sondern um andere Risikogruppen, die gefährlicher leben, als wir selbst, oder die unter Umständen höhere staatliche Kosten als andere verursachen. Um Extremsportler. Um ältere Menschen. Um Frauen, die sich nicht gegen Gebärmutterhalskrebs haben impfen lassen. Oder um Langzeitarbeitslose. Bei den eingangs beschriebenen Tests geht es nicht um die Entscheidungen selbstfahrender Autos. Sondern um die von selbstdenkenden Menschen. Die wir bleiben sollten, auch wenn wir nicht rauchen und schlank sind. Um nicht zu Moral-Maschinen zu verkommen.

GQ Empfiehlt