/Interview

„In Zukunft werden die Autos den Führerschein machen müssen“

Thomas Brandstetter 18.11.2018 Lesezeit 8 Min

Bevor wir autonome Fahrzeuge auf die Straße lassen, sollten sie uns erst einmal beweisen, dass sie auch wirklich fahren können. Im Interview mit WIRED fordert der KI-Pionier Sepp Hochreiter daher eine Führerscheinprüfung für Künstliche Intelligenzen.

Sepp Hochreiter hat vor über 20 Jahren das geschafft, was den meisten Studenten trotz monatelanger Anstrengungen vorenthalten bleibt: Schon mit seiner Diplomarbeit setzte er einen Meilenstein in der Entwicklung von Künstlicher Intelligenz (KI). Mit seinen Long-Short-Term-Memory-Netzen hat er lernfähigen Maschinen ein funktionierendes Kurzzeitgedächtnis gegeben. Ohne sie würden sich die Sprachverarbeitungsprogramme, wie sie heute auf praktisch jedem Smartphone laufen, am Ende eines Satzes nicht mehr an das erste Wort erinnern können. Heute leitet Hochreiter das Institut für Machine Learning der Universität Linz, wo er gerade ein neues Labor für Künstliche Intelligenz aufbaut und unter anderem gemeinsam mit Audi KIs für autonomes Fahren entwickelt.

WIRED: Herr Hochreiter, vielen Menschen ist nicht wohl dabei, einer Künstlichen Intelligenz (KI) die Kontrolle über ein Fahrzeug, und damit unter Umständen auch über Leben und Tod anzuvertrauen. Was wären für Sie die Voraussetzungen, um ein völlig autonomes Fahrzeug auf die Straße zu lassen?
Sepp Hochreiter: Also zuerst muss man sich im Klaren darüber sein, dass einer KI keine konkreten Regeln einprogrammiert werden. Sie lernt ja vielmehr aus Erfahrung – im Grunde ganz ähnlich, wie wir Menschen das auch tun. Viele Rechtsexperten, die sich mit dieser Frage beschäftigen, scheinen Probleme zu haben, dieses Konzept zu begreifen. Die stellen sich vor, man schreibt da irgendwo so konkrete Befehle rein, wie: „Vor einer roten Ampel bleibst du stehen!“, oder „Überfahre keine Fußgänger!“. Das ginge zwar theoretisch schon, ich würde das aber nie so machen. Stattdessen sollte man die KI ihre eigenen Erfahrungen machen lassen. Eine geeignetere Anweisung wäre also zum Beispiel: „Versuche, keine Unfälle zu verursachen!“ Dann könnte man die KI in einer ersten Lernphase in einer Computersimulation herumfahren lassen, und bei jedem Unfall dort weiß sie sofort, dass jetzt etwas Schlimmes passiert ist, und sie ihr zukünftiges Verhalten ändern muss.

WIRED: Und von der Simulation geht's dann direkt auf die Straße?
Hochreiter: Nein, so einfach wird das nicht gehen. Damit sich eine KI irgendwann selbstständig durch die Welt bewegen kann, muss sie diese Welt auch verstehen. Und dazu muss sie sie auch selbst mit ihren eigenen Sinnen, also ihren unterschiedlichen Sensoren, kennenlernen. Das ist natürlich ein sehr langer Weg und wir stehen hier erst ganz am Anfang. Aber ich stelle mir vor, dass die KI nach der reinen Simulationsphase mit ihrem physischen Körper, also dem Fahrzeug, in der echten Welt weiter übt. Im Grunde bräuchte man dafür eine Art Fahrschule für Autos, zum Beispiel Hallen, in denen Gefahrensituationen nachgestellt werden. Als Nächstes könnte dann ein großes Außentestgelände folgen, auf denen sie gemeinsam mit vielen anderen Autos herumfährt. Und irgendwann ist sie dann bereit für den echten Straßenverkehr.

WIRED: Kann eine KI nicht auch vom Menschen lernen?
Hochreiter: Natürlich. Das machen wir heute zum Beispiel, indem wir sie mit Daten füttern, die bereits von Menschen aufbereitet worden sind. Da annotieren Studenten in aller Welt Massen an Kamerabildern aus dem Straßenverkehr und kringeln Fußgänger, Kinder und Dinge wie Autos, Lastwagen oder Mistkübel rot ein. So kann das System lernen, diese Objekte zu erkennen und zu unterscheiden. Das hat mit herkömmlichen, visuellen Bildern angefangen, und jetzt versuchen wir gerade, das ganze auf die Daten aus den Radarsensoren und Laserscannern der Autos auszuweiten. Um wirklich autonom fahren zu können, wird es aber auch entscheidend sein, dass die KI selbst herausfindet, wie sie die verschiedenen Sensordaten am besten kombiniert.

WIRED: Könnte die KI nicht auch einfach mit einem Menschen mitfahren, um von ihm zu lernen?
Hochreiter: Wenn die KI nur vom Menschen abschauen würde, wäre das eine ziemliche Katastrophe (lacht). Dann könnte sie ja nur so gut werden wie der Mensch. Sie würde zum Beispiel lernen, mit dem Bremsen noch zu warten, wenn ein Kind auf die Straße läuft. Auch wenn sie es vielleicht schon früher erkannt hat. Schließlich würde sie die lange Reaktionszeit des Menschen nachahmen. Das wäre also völlig kontraproduktiv.

Die KI dagegen trinkt sicher nicht und wenn sie telefoniert, hat sich sicher genügend Rechenpower, um nicht abgelenkt zu sein.

Sepp Hochreiter

WIRED: Wenn eine KI das Fahren aber nur durch eigenen Erfahrungen lernt, lassen sich ihre Entscheidungen dann eigentlich noch nachvollziehen?
Hochreiter: Bei einfachen Systemen geht das noch. Wenn eine KI allerdings besser sein soll als der Mensch, braucht sie so viele Einflüsse, dass der Mensch das vielleicht gar nicht mehr begreifen kann. Im Grunde muss man sich also entscheiden: Entweder man hat ein schlechtes System und versteht dafür alles was passiert, oder die KI ist besser als der Mensch und ich kann dafür ihre Entscheidungen nicht mehr nachvollziehen. Das heißt letztlich aber auch, dass nachvollziehbare Entscheidungen zu mehr Verkehrstoten führen würden. Das macht den Rechtsexperten zu schaffen.

WIRED: Wie kann man dann eigentlich feststellen, ob eine KI bereit ist, auf die Straße gelassen zu werden?
Hochreiter: Wenn wir ihr keine Regeln mehr hineinschreiben, dann wissen wir natürlich auch nicht mehr, was drin steht. Wir können dann nurmehr testen, wie sich das System in der Praxis verhält. Deshalb werden in Zukunft die Autos wohl selbst eine Art Führerschein machen müssen. Wenn ich es zum Beispiel ein Jahr lang herumfahren lasse und es in dieser Zeit keinerlei Probleme gibt, dann wäre das ein gründlicher Test. Einem Menschen glaubt man ja schon nach einer halben Stunde Fahrprüfung, dass er es kann. Zudem werden Menschen dann auch noch müde, oder telefonieren mit dem Handy und manche trinken sogar noch etwas, bevor sie fahren. Die KI dagegen trinkt sicher nicht und wenn sie telefoniert, hat sich sicher genügend Rechenpower, um nicht abgelenkt zu sein (lacht).

WIRED: Apropos Rechenpower. Stellt die nicht zur Zeit noch ein Problem dar. Vor allem wenn es um KIs mit so umfassenden Fähigkeiten geht, wie Sie sie beschreiben?
Hochreiter: Das ist leider wirklich ein Problem. Wir sind da natürlich auch mit Nvidia und anderen Chip-Herstellern in Kontakt. Momentan ist es aber so, dass die nötige Rechenleistung, um tatsächlich etwas Großes zu bauen, im Auto selbst noch nicht da ist.

WIRED: Heißt das, man bräuchte etwas in der Größe der aktuellen Supercomputer, die einen ganzen Raum ausfüllen?
Hochreiter: Nicht unbedingt. Ein größerer Kasten würde schon reichen. Zur Zeit gehen wir das Problem aber von der anderen Seite an, indem wir versuchen, mit weniger Rechenpower auszukommen. Ein wichtiger Aspekt dabei ist die sogenannte Attention, also die Aufmerksamkeit. Da geht es um die Frage, wo man auf einem Bild als erstes hinschaut. Wo man also anfängt zu analysieren. Wenn eine KI ein visuelles Bild ihrer Umgebung bekommt, versucht sie, die verschiedenen Objekte darauf zu identifizieren. Dazu analysiert sie die Pixel und erkennt: „Aha, hier ist ein Fußgänger, da eine Ampel und dort hinten ein Mistkübel.“ Die Objekte haben natürlich für die Fahrentscheidung, die es zu treffen gilt, eine ganz unterschiedliche Relevanz. Uber und Tesla unterscheiden da aber nicht. Die fangen zum Teil damit an, den Mistkübel auf das letzte Pixel genau zu segmentieren und stecken damit eine Menge Rechenpower in etwas, das sie nicht brauchen. Wenn ich genau weiß, wie der Mistkübel aussieht, fahr ich deswegen schließlich auch nicht anders. Es geht also darum, schon beim ersten kurzen Blick zu erkennen, dass da oben eine Ampel ist und dann dort genauer hinzuschauen. Ist sie rot, muss ich vielleicht sofort stehen bleiben. So versuchen wir jetzt, diese Prozesse zu optimieren und dadurch Rechenleistung zu sparen.

WIRED: Welche Rolle spielt eigentlich LSTM, ihr langes Kurzeitgedächtnis, in ihrer aktuellen Forschung?
Hochreiter: Auch bei der Attention ist LSTM im Spiel. Wir verwenden diese Netze aber auch für spezielle Arten des Lernens. Zum Beispiel wenn ein System in einem langen Prozess viele Entscheidungen trifft und dann erst zum Schluss ein Ergebnis bekommt, mit dem es sein Verhalten bewerten kann. Wenn ein Auto in eine Einbahnstraße fährt, und dann irgendwann merkt, dass es nicht mehr umdrehen kann, liegt der Fehler - das Einfahren in die Straße - schon weit zurück. So etwas zu erkennen, ist für eine KI noch sehr schwierig. Außerdem benutzen wir LSTM, um zeitliche Abläufe zu analysieren. Bei Tesla haben sie zum Beispiel das letzte Bild der Kamera genommen und versucht, daraus eine Fahrentscheidung zu treffen. Das ist natürlich völliger Schwachsinn! Auf einem einzigen Bild lässt sich schließlich nicht erkennen, ob sich ein anderes Auto nähert oder von mir entfernt. Mit LSTM können wir dagegen ganze Bildsequenzen verarbeiten. Wir Menschen leben ja auch in der Sequenz, und es ist selbstverständlich für uns zu wissen, ob sich etwas von uns entfernt oder auf uns zu bewegt.