/KI

Warum Menschen immer wieder Auffahrunfälle mit selbstfahrenden Autos bauen

Jack Stewart 26.10.2018 Lesezeit 8 Min

Die meisten Unfälle mit autonomes Autos schaffen es nicht in die Nachrichten, weil es harmlose Auffahrunfälle sind. Menschliche Fahrer rammen dabei von hinten in Roboterfahrzeuge. Die Frage ist allerdings: Warum passiert das so häufig? Wahrscheinlich liegt es daran, dass autonome Autos viel vorsichtiger unterwegs sind als von Menschen gesteuerte.

Die schwersten Unfälle mit selbstfahrenden Autos haben die meisten Schlagzeilen gemacht. Die ganze Welt diskutierte über das Uber-Testfahrzeug, das im März im US-Bundesstaat Arizona eine Frau, die die Straße überqueren wollte, erfasste und tötete. Für Aufmerksamkeit sorgten auch Unfälle, die so zum ersten Mal passierten: Das Apple-Auto, das beim Einfädeln angerempelt wurde. Oder der Waymo-Van, der von der Seite gerammt wurde. Weniger bekannt als diese Einzelfälle ist allerdings, dass sich inzwischen ein Muster der häufigsten Vorfälle mit autonomen Autos herauskristallisiert.

Wer sich den kalifornischen Crash-Report für Roboterautos anschaut, stößt auf eine ganze Reihe sehr ähnliche Unfällen: Diesen September, zum Beispiel, wurden drei selbstfahrende Autos seitlich von menschlichen Fahren angefahren, drei weitere von hinten – einmal davon sogar mit einem Fahrrad. Noch skurriler war ein Unfall im Juni: Damals crashte ein Mensch, der ein Fahrzeug der General Motors-Tochter Cruise steuerte, in ein Cruise-Auto, das autonom unterwegs war.

Die Entwickler von selbstfahrenden Autos meinen, man könne die Zahl von fast 40.000 Verkehrstoten pro Jahr allein in den USA mit Roboterfahrzeugen deutlich reduzieren. Allerdings dürfte es mindestens Jahre, wenn nicht Jahrzehnte dauern, dieses Ziel zu erreichen. Und es wird dafür noch viele, viele Tests auf öffentlichen Straßen benötigen. Doch die werfen angesichts der Unfälle durchaus Fragen auf: Wie soll man mit landesweiten Roboter-Experimenten umgehen, zu denen sich die anderen „Probanden“, also die menschlichen Verkehrsteilnehmer, nicht freiwillig angemeldet haben, obwohl sie dabei im schlimmsten Fall umkommen können? Eine Antwort auf diese Frage gibt es noch nicht. Doch ein Blick in die Daten kann zumindest das Problem besser verständlich machen.

Nur Kalifornien verlangt umfassende Daten von den Entwicklern

Leider gibt es gar nicht so viele frei zugängliche Informationen. Es sind nämlich Unternehmen betroffen, die in einem harten Wettbewerb stehen, und daher nur ungern Einzelheiten preisgeben. Sie führen der Presse oder Verwaltungsbeamten ihre Fahrzeuge nur in streng kontrollierten Situationen vor, in denen diese gut funktionieren. Berichte über die Schwächen der Roboterautos sind meist anekdotisch. So schrieb The Informationen, dass Waymo-Autos nicht nur den Anwohnern im Testgebiet auf die Nerven gehen, sondern auch Schwierigkeiten in Linkskurven haben. Doch belastbare Statistiken gibt es nicht.

Von den fünf Staaten, in denen die meisten Entwickler ihre Tests im Straßenverkehr durchführen, verlangt nur Kalifornien, dass Unternehmen Einzelheiten über ihre Programme melden. Einmal im Jahr müssen sie dem Department of Motor Vehicles, kurz DMV, einen Bericht vorlegen, in dem sie erklären, wie viele Kilometer sie gefahren sind und wie oft der Mensch, der im Auto saß, das Steuer übernehmen musste. Immer wenn eines der Autos in irgendeine Art von Unfall verwickelt ist, egal wie klein, muss der Entwickler innerhalb von 10 Werktagen einen Bericht einreichen, in dem er erklärt, was passiert ist. Arizona, Michigan, Nevada und Pennsylvania verlangen keine derartige Dokumentation.

Seit dem Inkrafttreten dieser Vorschriften im Jahr 2014 hat das kalifornische DMV 104 Berichte über Kollisionen mit autonomen Fahrzeugen erhalten (und veröffentlicht), darunter allein 49 im laufenden Jahr. Die Zahl der Roboterautos steigt, damit auch die Zahl der Crashs. Die meisten Unfälle sind klein und schaffen es kaum in die Nachrichten. Aber zusammengenommen zeigen sie ein Bild davon, wie die Tests voranschreiten und wie gut sich Roboter auf der Straße bewegen. Die Berichte deuten auf eine Schlussfolgerung hin, die dem ähnelt, was anekdotische Berichte bereits vermuten lassen: Der Fahrstil der autonomen Autos ist anders als Menschen es vielleicht erwarten oder wünschen würden.

GM Cruise meldete die meisten Unfälle

Von GM Cruise wurden 2018 mit Abstand die meisten Kollisionsberichte eingereicht – 29 an der Zahl. Dahinter folgen Waymo mit 11, Zoox mit 4, und Apple, Toyota und andere mit jeweils einem Unfall. Die Unterschiede zwischen den Firmen sollten aber nicht überbewertet werden: Wenn sich das Muster von 2016 und 2017 fortsetzt – die genauen Daten für 2018 gibt es erst Anfang nächsten Jahres –, dann fährt Waymo seine Tests in Kalifornien zugunsten von Arizona herunter. Cruise dagegen hat seine Tests in Kalifornien zuletzt ausgeweitet und ist sogar im Chaos von San Francisco unterwegs. Auch Zoox testet dort.

Die Unfallberichte, die von den Auto-Unternehmen verfasst und eingereicht wurden, bestehen hauptsächlich aus Kontrollkästchen, mit ein oder zwei Zeilen, um zu erklären, was passiert ist. Einige geben zum Glück auch seltsame, vermutlich seltene Vorfälle wieder: „Das Cruise Testfahrzeug wurde von einem Golfball von einem nahegelegenen Golfplatz getroffen.“ Einige enthüllen, was man als Verärgerung seitens anderer Verkehrsteilnehmer bezeichnen könnte: „Der Fahrer des Taxis verließ sein Fahrzeug, näherte sich dem Cruise Roboterauto und schlug auf das Beifahrerfenster, was einen Kratzer verursachte.“

Fast zwei Drittel sind Auffahrunfälle

Ein Blick auf die Daten zeigt, dass Auffahrunfälle, in denen menschliche Fahrer autonome Autos von hinten rammten, 28 der 49 gemeldeten Crashs ausmachten, also fast zwei Drittel. Danach folgen Unfälle, bei denen selbstfahrende Autos seitlich gestreift wurden. Kollisionen mit Fußgängern oder Objekten und „Sonstiges“ machen nur einen kleinen Teil der Statistik aus. Bei den zwei gemeldeten Vorfällen mit Fußgängern, haben diese sich den Autos genähert und sie angerempelt.

Werfen wir also einen Blick auf die Auffahrunfälle: Nach kalifornischem Recht ist derjenige Schuld, der dem anderen hinten auffährt. Aber wenn der Computer bei 22 dieser 28 Auffahrunfälle im vorderen Auto „am Steuer saß“, hat man Grund zu der Annahme, dass die Software durchaus etwas tut, was dazu führt, dass Menschen den Roboterautos so häufig ins Heck crashen: Vielleicht beschleunigen und bremsen sie zu oft, wie es bereits berichtet wurde? Vielleicht halten sie zu oft ohne triftigen Grund an, was ebenfalls schon beobachtet wurde?

Beides muss nicht unbedingt schlecht sein, schließlich deutet es auf eine eher konservative Fahrweise hin. Besser, einmal zu oft unnötig für einen Hydranten anzuhalten, als ein Kind zu überfahren. Doch ein guter (menschlicher) Fahrer zeichnet sich eben auch dadurch aus, dass er sich so verhält, wie andere Verkehrsteilnehmer es von ihm erwarten. Und das schließt eben nicht ein, ständig grundlos auf die Bremse zu treten. Am zweithäufigsten passierten Unfälle beim Überholen. Der Grund war oft, dass menschliche Fahrer, die anscheinend frustriert darüber waren, dass sie hinter einem langsamen oder ständig bremsenden Roboterauto im Verkehr steckten, erfolglos versuchten daran vorbeizukommen.

Im Chaos von San Francisco lernen die Autos mehr

GM Cruise kommt im kalifornischen Bericht vor allem aufgrund seiner großen Flotte in San Francisco häufig vor. Die Stadt mit ihren verästelten Kreuzungen, den Cable Cars, Radfahrern, Fußgängern, Baustellen, steilen Hügeln und aggressiven Pendlern ist selbst für einen erfahrenen menschlichen Fahrer schwierig. Cruise sagt aber, der chaotische Stadtverkehr würde den Autos dabei helfen, viel schneller zu lernen als auf den relativ einfachen, langweiligen Straßen von Arizona, wo das Unternehmen ebenfalls Tests durchführt. Das Unternehmen sagt, dass seine Autos in San Francisco 46-mal häufiger auf Einsatzfahrzeuge von Polizei, Krankenhäusern und Feuerwehr treffen als in den Vororten von Phoenix und 39-mal häufiger auf Baustellen.

Forscher sind sich einig, dass Roboterautos ohne Tests auf öffentlichen Straßen nie dazu beitragen werden, den Verkehr wirklich sicherer zu machen. Aber das wirft andere Fragen auf, sagt Matthew Johnson-Roberson, der das Ford Center for Autonomous Vehicles an der University von Michigan leitet. „Sollen sie wirklich alle auf öffentlichen Straßen fahren dürfen, bevor sie ein gewisses Niveau erreicht haben?“, fragt er. In Kalifornien müssen Unternehmen zwar beantragen, ihre autonomen Autos auf öffentlichen Straßen zu testen, aber es wird nicht geprüft, wie gut ihre Technik bereits funktioniert. „Mein persönlicher Rat ist, mit den Fahrzeugen extrem vorsichtig umzugehen.“

Der GM-Cruise-CEO Kyle Vogt sagt: Die kalifornischen Unfallberichte machten deutlich, dass Menschen im Grunde davon ausgehen, dass andere Menschen die Verkehrsregeln biegen oder brechen, zum Beispiel, indem sie nochmal Gas geben, um über eine gelbe Ampel zu kommen, ohne groß abzubremsen über Kreuzungen mit Stoppschildern rollen oder indem sie das Tempolimit ignorieren. Roboter aber würden so etwas nie tun.

„Wir werden keine Fahrzeuge bauen, die Gesetze brechen, nur um Dinge zu tun, die ein Mensch tun würde“, sagt Vogt. „Wenn sich die Fahrer der Tatsache bewusst werden, dass sich Roboterautos gesetzeskonform verhalten – und das ist grundsätzlich eine gute Sache, weil es die Straßen sicherer machen wird –, dann denke ich, dass es eine bessere Interaktion zwischen Mensch und autonomen Fahrzeugen geben kann.“

Menschen müssen verstehen, wie Roboterautos fahren

Vielleicht ist also der Schlüssel das Bewusstsein. Die Öffentlichkeit würde davon profitieren, mehr über die selbstfahrenden Autos zu erfahren, wie sie funktionieren, wie sie getestet werden und wie sie sich wahrscheinlich verhalten werden. Dazu müssen die Unternehmen aber offen und ehrlich kommunizieren, wie die Entwicklung verläuft und was ihre Autos können, anstatt nur die üblichen Werbe-Infos herauszugeben: Hochglanzvideos, bearbeitete Videos oder PR-Dokumente, die ihre Technologie von der besten Seite zeigen.

Abgesehen davon, einen Art Test vor dem Straßeneinsatz einzufordern, könnte man grundlegende Normen für die Kennzeichnung der Roboterautos festlegen. So könnte man andere Verkehrsteilnehmer darauf aufmerksam machen, hinter wem sie gerade herfahren. In vielen Ländern gibt es schließlich auch Aufkleber, die von Fahranfängern an ihren Autos angebracht werden müssen, wie das L für „Lernende“ in Großbritannien. Auch die Autos von Fahrschulen müssen gekennzeichnet werden. Nun werden selbstfahrende Autos vermutlich schlechter fahren als der durchschnittliche Fahrschüler, aber sie werden sicherlich anders fahren, als Menschen es tun würden. Wer hinter einem Roboterauto fährt, sollte daher das Unerwartete erwarten – und Sicherheitsabstand halten, um rechtzeitig bremsen zu können.

Dieser Artikel erschien zuerst bei WIRED.com
Das Original lest ihr hier.