/Mobility

Uber-Unfall: Das KI-Auto soll keinen Fehler gemacht haben

WIRED Staff 08.05.2018 Lesezeit 2 Min

Im März 2018 hat ein selbstfahrendes Auto eine Radfahrerin erfasst und getötet. Neuen Erkenntnissen zur Folge hatte das Auto durch seine Softwareeinstellungen einfach Objekte auf der Fahrbahn ignoriert – und damit auch die Frau.

Der Tod der Radfahrerin war wohl zum Teil das Ergebnis falscher Software-Einstellungen: Wie unter anderem Engadget berichtet, gibt es bei Ubers Programm für selbstfahrenden Autos die Möglichkeit, Objekte auf der Straße zu ignorieren. Normalerweise soll sie verhindern, dass das Fahrzeug etwa bei einer herumwehenden Plastiktüte nicht sofort eine eine Vollbremsung hinlegt.

Das Auto ignoriert dabei natürlich nicht alles auf der Straße, nur eben Gegenstände, die einen gewissen Schwellenwert unterschreiten. Der war jedoch beim Wagen von Uber scheinbar zu niedrig eingestellt: Das Fahrzeug erfasste die Radfahrerin zwar mit den Sensoren, ignorierte sie allerdings dann und überfuhr sie somit ungebremst.

Zusammen mit der Tatsache, dass die Sicherheitsfahrerin zu diesem Zeitpunkt gerade nicht auf die Straße geachtet hatte, der zweite Punkt durch den menschlichen Versagen zu dem Unfall geführt hatte. Eine Fehlfunktion des KI-Systems hatte es nicht gegeben – der Computer des Autos hat getan, was er tun sollte. Weitere Tests mit seinen autonomen Fahrzeugen hat Uber bis auf weiteres eingestellt.

Die Radfahrerin hatte auf einem relativ dunklen Straßenabschnitt ohne Fußgängerüberweg ihr mit Einkäufen beladenes Rad über die Straße geschoben und wurde dabei von Ubers Testfahrzeug erfasst. Sie ist der erste Fußgänger, der bei einem Unfall mit einem selbstfahrenden Auto ums Leben kam. Teslas Autopilot war zwar ebenfalls an Unfällen mit Todesfolge beteiligt, Opfer waren dabei allerdings die Fahrer selbst. Laut Tesla hätten diese Menschen jedoch dieWarnungen des Assistenzsystems ignoriert und die Hände vom Lenkrand genommen.