/KI

Wenn Menschen zu selbstfahrenden Autos werden

Jack Stewart 06.11.2017 Lesezeit 5 Min

Wer wissen will, wie ein autonomes Fahrzeug agiert, muss sich in dieses hineinversetzen können, sagen Forscher aus Stuttgart. Deshalb haben sie ein elektrisch betriebenes Auto entwickelt, in dem Menschen auf dem Bauch liegend mit Hilfe einer VR-Brille genau das tun.

Man stelle sich vor, man liege auf dem Bauch, mit vorgestreckten Armen, so, als würde man eine Schultermassage bekommen. Doch es geht nicht um einen Moment der Entspannung: Durch eine Virtual-Reality-Headset betrachtet man Farbspiele, eine fremde Welt mit einer Vielzahl roter Linien, die wie die Silhouette einer Person aussehen. Und dann weiter – man rollt vorwärts, mit dem Kopf voran, die rechte Hand greift den Joystick, mit der man die Richtung bestimmt, in die es weitergehen soll. Weiter geradeaus und man riskiert, den Punkt umzufahren, der womöglich ein Mensch sein könnte? Oder weicht man stattdessen zur Seite aus, in die Dunkelheit und in das Unbekannte?

So fühlt es sich als selbstfahrendes Auto an. Denn genau das sehen die Entwickler von Moovel Lab, einer Stuttgarter Forschungseinrichtung von Daimler. Die oben beschriebene Fahrt findet in einem Rover statt – ein elektrisch betriebenes Auto mit vier Rädern. Das Virtual-Reality-Headset macht die Daten sichtbar, die autonome Fahrzeuge in ihrer Umgebung wahrnehmen. Man liegt auf dem Bauch, weil die Entwickler dadurch das fremde Fahrgefühl besser vermitteln wollen.

Man fühlt sich in der liegenden Position deutlich verwundbarer

„Wir wollten das Gefühl haben, selbst das Auto zu sein. Wenn man auf dem Rover sitzt, fühlt es sich zu sehr danach an, selbst zu fahren“, sagt Joey Lee, einer der Entwickler. „Man fühlt sich in der liegenden Position deutlich verwundbarer.“

Da autonome Technologie zunehmend eingesetzt wird, ist es gut möglich, dass die Menschen sich künftig die Straßen mit Robotern teilen. Wie Geisteswissenschaftler herausgefunden haben, sind Fehlvorstellungen ein wichtiger Auslöser für Konflikte. Die Ingenieure von Moovel wollen, dass die Gegenwart sich mit der Zukunft vertraut macht und versuchen deshalb, einen kulturellen Austausch herzustellen.

Entwickler können zwar erklären, wie ihre Fahrzeuge lernen, Algorithmen zu berechnen, wie sie Entscheidungen treffen, welchen Steuerwinkel sie benötigen und wie schnell sie beschleunigen müssen. Aber besonders für Nicht-Entwickler sind diese Vorstellungen schwer nachvollziehbar, wenn nicht sogar abstrakt.

Wie funktioniert das Modell von Daimler? Der Rover erhält seine Daten von einer 3D-Kamera, die ähnlich wie die Sensoren einer Microsoft Kinect bewegende Objekte überwacht. Ein Lidar-Sensor misst, wie weit man von den erfassten Objekten entfernt ist. Der Bordcomputer fasst alle Daten zusammen und kreiert daraus anschließend im Virtual-Reality-Headset eine Reihe von mehrfarbigen Linien, die gelegentlich zu erkennbaren Formen verschmelzen. Es ist eine künstlerische Annäherung daran, wie autonome Autos die Welt betrachten.

Das Team von Moovel hat seine Technik bei Ausstellungen und Konferenzen vorgestellt. Sie wollten die Leute motivieren, über einige dieser neuen Technologien und Möglichkeiten nachzudenken und sie greifbarer zu machen. Denn viele der Freiwilligen, die eine Probefahrt machten, empfanden sie im Nachhinein als unterhaltsam und informativ.

Einen Kilometer in einem seelenlosen Roboter zu liegen, mag sinnlos erscheinen, aber die Moovel-Entwickler sehen darin einen Nutzen, eine Form der Verständigung und sogar Empathie zwischen den Menschen und den fahrerlosen Autos. Mit einem Überfluss an Kameras und vielerlei Sensoren ist es einfach, anzunehmen, dass die selbstfahrenden Autos allsehend und allwissend sein werden. Dennoch sind das Sehen und das Verarbeiten zwei verschiedene Prozesse.

Die Künstliche Intelligenz des Computers, die die Entscheidungen trifft, muss ein Objekt, das vor der Kamera erscheint, registrieren und darauf reagieren. Und diese Künstliche Intelligenz ist eine Blackbox, die von den Ingenieuren anhand Tausender Beispiele darauf trainiert wird, welche Zusammenstöße vermieden werden müssen. Deshalb ist Moovel der Meinung, dass jeder ein Grundverständnis dafür erlangen sollte, wie die Technologien funktionieren und vor allem, welche potenziellen Grenzen sie haben.

„Ein Aspekt, den wir hervorheben wollen, ist, wie viele Sensoren ausreichen, um sicher zu sein, dass die Maschine in der Lage ist, die notwendigen Dinge zu sehen und zu verarbeiten“, sagt Lee. Aber wird der Computer einen Menschen, der sich in Sichtweite der Technik befindet, wahrnehmen und als diesen erkennen? Und wenn man in einem fahrerlosen Taxi sitzt und es schneit, weiß die Technik dann, wie sehr sich die Sicht auf die Straße verringert hat? Je mehr Antworten wir bekommen, desto angenehmer kann das Zusammenleben mit den neuen Technologien werden.

Ingenieure, die diese selbstfahrenden Autos bauen, gehen auf die Wissens- und Kommunikationslücken ein und fürchten sich nicht vor dem Ungewissen. Zum Beispiel haben Waymo und Uber jeweils Nutzerschnittstellen entwickelt, die für das menschliche Auge übersetzen sollen, was die Autos tun und wie sie die Welt sehen. Das alles kann eine Möglichkeit für den Menschen sein, zu überprüfen, ob das Auto erkannt hat, dass das Auto vor ihnen zum Beispiel den eigenen Weg kreuzt.

Wer weiß, vielleicht wird es in einer Zukunft, in der es keine Unfälle zwischen Fahrzeugen mehr geben soll, all das nicht mehr nötig sein. Aber in absehbarer Zukunft, wenn sich die Künstlichen Intelligenzen auf den Straßen zurechtfinden und sich diese mit uns Menschen teilen müssen, wird sich jeder Verkehrsteilnehmer durch das Verständnis der neuen Technologien sicherer fühlen.

Dieser Artikel erschien zuerst auf WIRED.co.uk.