/KI

Künstliche Intelligenz: Was Autos noch lernen müssen, bis sie wirklich autonom fahren

Jana Kugoth 08.09.2018 Lesezeit 5 Min

Manchmal bekommt man den Eindruck, bei der Entwicklung von selbstfahrenden Autos geht es nur noch um letzte Details. Dabei haben die heutigen Systeme noch einige Schwächen.

Ein Auto ohne Lenkrad und Pedale. Stattdessen sollen Roboter das Steuer übernehmen. Das ist die Vision der Autobauer. „Das Fahrzeug der Zukunft ist ein autonom fahrender Computer auf Rädern”, sagt Elmar Degenhart, Vorstandsvorsitzender des deutschen Automobilzulieferers Continental, der gemeinsam mit dem US-Chiphersteller Nvidia an solchen Fahrzeugen tüftelt. Mit der Vision verbunden ist die Hoffnung, mehr Sicherheit auf die Straße zu bringen. 80 Prozent aller Unfälle gehen heute auf von Menschen gemachte Fehler zurück.

Audi hat bereits ein Fahrzeug herausgebracht, was Level 3 autonom fährt. Das bedeutet, dass der Fahrer auf einfachen Strecken, beispielsweise auf der Autobahn, die Hände vom Lenker nehmen darf. Im vergangenen Jahr hat die Bundesregierung dafür auch einen rechtlichen Rahmen geschaffen, indem sie – vereinfacht gesagt –ermöglicht hat, dass neben Menschen auch Maschinen das Fahrzeug steuern dürfen, zumindest zeitweise auf der Autobahn und auf einfachen Strecken. Neben Audi wollen auch die deutschen Hersteller Daimler und BMW spätestens im Jahr 2021 Fahrzeuge mit Level 3 bringen.

Das „Superhirn“ im Auto – mit Intuition

Bis die Autos vollständig autonom fahren und selbstständig Entscheidungen treffen, werden allerdings noch Jahre ins Land ziehen. Bisher hat noch kein Autohersteller verkündet, ein serienreifes fahrerloses Auto entwickelt zu haben. Wann das vollautonome Level 4 beziehungsweise das fahrerlose Level 5 erreicht werden, dauert es noch. „Wann Fahrzeuge vollständig autonom fahren, kann ihnen derzeit niemand mit Sicherheit sagen”, sagt Christian Müller gegenüber NGIN Mobility und Gründerszene. Er leitet das Kompetenzzentrum autonomes Fahren am Deutschen Forschungszentrum für Künstliche Intelligenz in Saarbrücken.

Die Grundsteine werden allerdings schon heute gelegt. Voraussetzung für die Level-5-Fahrzeuge ist, dass die Fahrzeuge völlig alleine Entscheidungen treffen können. Dafür müssen neue Technologien zum Einsatz kommen. Mit herkömmlichen Ansätzen zur Objekterkennung kann das Sicherheitsniveau und die Leistungsfähigkeit selbstfahrender Autos nicht erreicht werden, ist sich Joachim Langenwalter sicher. Er ist Director of Automotive Software beim Chiphersteller Nvidia. Das Unternehmen arbeitet mit 370 Unternehmen weltweit zusammen, um auf seiner Plattform „Drive“ die Technologie für Robotaxis, Lkw und Lieferfahrzeugen zu entwickeln. Die prominentesten Partner sind Daimler und Bosch.

Die Vision der Hersteller ist es, dass Autos künftig selbst lernen, vergleichbar mit einem Menschen. Die Methoden, die dahinter stehen, fassen die Forscher unter dem Begriff der Künstlichen Intelligenz zusammen. Dafür werden sogenannte neuronale Netze geschaffen, die dem menschlichen Gehirn ähneln. Sie bestehen aus einfachen, trainierbaren mathematischen Einheiten und stellen Verbindungen her zwischen der Umgebung des Autos und dem Bordcomputer. Diese Verfahren werden als maschinelles Lernen oder Deep Learning bezeichnet.

„So werden beispielsweise die Eigenschaften eines Bildes, das ein Stoppschild zeigt, zerteilt und von den Neuronen untersucht“, erklärt Nvidia-Manager Langenwalther. „Das betrifft Form, Farbe, Größe und so weiter.“ Die Aufgabe des neuronalen Netzes sei es dann, festzustellen, ob es sich um ein Stoppschild handle oder nicht. Anhand der eingehenden Informationen bewerte das System, wie wahrscheinlich es sei, dass es sich um ein eben solches handle. „Deep Learning besteht dabei aus zwei Phasen: Training und Inferenzierung.“ Für das Stoppschild-Beispiel bedeute dies: Je mehr Bilder davon zum Trainieren des Netzwerks verwenden werden, desto besser wird dieses darin, sie richtig zu identifizieren. Autos mit KI auszustatten ist also ein bisschen so, wie Schüler zu unterrichten.

Beschwerden über die autonome Waymo-Flotte

Damit unterscheiden sich die neuen Verfahren grundlegend von den heute programmierten Wenn-Dann-Prinzipien: Anstatt dass ein Programmierer die Interpretation der Daten endgültig festlegt, trifft das System eigene Entscheidungen, vergleichbar mit der menschlichen Intuition.

Doch der Verkehr ist komplex. Schließlich muss das Auto nicht nur Schilder erkennen und die Regeln des Straßenverkehrs wissen. Sondern auch Gefahren voraussehen können. Ein Beispiel: Ein Ball rollt zwischen zwei parkenden Autos auf die Straße. Das Auto antizipiert, dass ein Kind hinterherlaufen könnte – und bremst vorsorglich ab. Bevor die Künstliche Intelligenz solche Verkehrssituationen meistern kann, sind noch einige Hürden zu nehmen. „Die Technik ist noch längst nicht so weit“, sagt Forscher Ilja Radusch vom Fraunhofer-Institut Fokus in Berlin gegenüber NGIN Mobility und Gründerszene.

Das bestätigen auch Berichte aus dem US-Bundesstaat Arizona, wo die autonome Testflotte der Google-Tochter Waymo unterwegs ist. Bei den Bewohnern sind die Fahrzeuge nicht sehr beliebt, wie die US-Nachrichtenseite CNBC berichtet. Immer wieder sollen sie demnach plötzliche Bewegungen oder Stopps durchführen. Die an Bord zur Sicherheit anwesenden Fahrer müssten laufend die Kontrolle wieder übernehmen, um Kollisionen oder möglicherweise unsichere Situationen zu verhindern.

So schlau wie ein dreijähriges Kind

Fraunhofer-Forscher Radusch kommentiert: Derzeit habe die Künstliche Intelligenz nicht viel mehr Grips als ein drei- bis vierjähriges Kind. Das liege vor allem daran, dass die Fahrzeuge noch nicht ausreichend trainiert seien. Außerdem seien die meisten Testfahrten mit autonomen Fahrzeugen bei Sonnenschein durchgeführt worden. „Für Fahrten bei Regen oder Schnee – bei denen autonome Autos ebenfalls fit sein müssen – fehlt es an Daten und Training“, erklärt er.

Die Technik ist nicht die einzige Herausforderung. „Die in den autonomen Autos verbauten ,Superhirne‘ sind mit einem Preis im „fünfstelligen Bereich” sehr teuer – und verschlingen viel Energie, sagt Radusch. Bei Verbrennern ließe sich der Bedarf durch den Kraftstoff decken, schwieriger werde es bei Elektroautos, da der hohe Stromverbrauch einen Reichweitenverlust bedeute.

Hinzu kommen rechtliche Hürden. Die entscheidende Frage werde letztendlich sein, inwieweit die Systeme künftig bei sicherheitsrelevanten Aspekten zum Einsatz kommen könnten, sagt der KI-Forscher Müller vom Deutschen Forschungszentrum für Künstliche Intelligenz. Heutige KI-Systeme haben nach Aussage des Experten noch ihre Tücken: „Es lässt sich in der Regel nicht nachvollziehen, auf welcher Grundlage die Systeme eine Entscheidung getroffen haben”, sagt er. Sobald die Software trainiert sei, entscheide sie selbstständig. Bei neuronalen Netzen gebe es in der Regel keine Daten oder Codes, anhand derer sich nachvollziehen ließe, warum das Auto gebremst habe – oder eben weiter gefahren sei.

Diese Frage ist im Falle eines Unfalls jedoch entscheidend. Daran bemisst sich, wer haftet. Müller glaubt: Die Herausforderung werde sein, lernende Systeme zu entwickeln, die ihre Entscheidungsgrundlage nachvollziehbar machen. Erst dann seien die mit KI ausgestatteten Systeme praxistauglich.

Dieser Artikel erschien zuerst bei Gründerszene
Das Original lest ihr hier.