Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Warum wir über selbstfahrende Autos diskutieren müssen!

von Tobias Schaffrath Rosario
Bevor selbstfahrende Autos auf unseren Straßen fahren dürfen, müssen sie wirklich sicher sein. Doch das hinzukriegen ist gar nicht so einfach: Wie schützt man die Kommunikationssysteme der Künstlichen Intelligenz im Auto? Wie stellt man sicher, dass die KI keine Menschen tötet? Um Antworten zu finden, braucht es einen gesellschaftlichen Dialog.

Sicherheit ist nicht gleich Sicherheit. Spricht man über Künstliche Intelligenz, dann gibt es einmal die Cybersicherheit oder Cybersecurity und zusätzlich die physische Sicherheit. Bei Cybersecurity geht es darum, dass die Systeme nicht von außen manipuliert werden können, zum Beispiel durch Hacker-Angriffe. Bei physischer Sicherheit geht es darum, dass die KIs die richtigen Entscheidungen treffen, um ihre Umwelt nicht in Mitleidenschaft zu ziehen. Am Beispiel des autonomen Fahrens wird besonders deutlich, was das bedeutet: Es ist lebenswichtig, dass die KI ein Kind auf der Straße auch korrekt als solches identifiziert – und rechtzeitig bremst.

Schauen wir also zuerst auf die physische Sicherheit. Um die gewährleisten zu können, muss man verstehen, wie KIs Entscheidungen treffen. Während wir Menschen mit Sicherheit sagen können, ob sich ein Kind auf der Fahrbahn befindet oder nicht, kann die KI nur eine Wahrscheinlichkeit ermitteln. Diese Wahrscheinlichkeit beruht auf Heuristiken, zu der die KI durch maschinelles Lernen gekommen ist. Ihr wurde – vereinfacht gesagt – ein ganzer Haufen von Bildern gezeigt, die Kinder auf der Straße zeigen. Damit sollte sie lernen, wie genau ein Kind aussieht. Kommt die KI eines autonomen Autos im Straßenverkehr dann tatsächlich in so eine Situation, kann man sich ihre Logik wie folgt vorstellen: „Basierend auf den Bildern, die ich von Kindern auf der Straße gesehen habe, vermute ich mit einer 80-Prozent-Wahrscheinlichkeit, dass sich gerade ein Kind vor mir befindet.“ Doch was heißt das eigentlich für die Reaktion der KI?

Hier entsteht schon die erste sicherheitsrelevante Frage: Wie hoch müssen die berechneten Wahrscheinlichkeiten einer KI sein, damit sie eine bestimmte Entscheidung trifft? Professor Wolfgang Maaß vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) sagt dazu im Gespräch mit WIRED: „Sicherlich ist es sinnvoll, bei lebenswichtigen Entscheidungen sehr hohe Genauigkeiten zu verlangen. Wo genau aber diese Schwellenwerte liegen sollten, ist eine Frage, die wir uns als Gesellschaft stellen müssen.“

KI muss Entscheidungen über Leben und Tod treffen

Hier ist also die Politik gefragt. Der Gesetzesgeber muss am Ende klar festlegen, auf welche Grenzwerte wir uns verlassen sollen. Doch um das zu können, wird noch einiges an Forschung und öffentlicher Debatte nötig sein. Doch findet diese Auseinandersetzung nicht statt, hängt es von den ethischen Maßstäben von Unternehmen statt, ob Unfälle wie im März 2018 im US-Bundesstaat Arizona auch in Zukunft passieren. Damals erfasste ein autonomes Testauto von Uber eine Passantin – und tötete sie. Später stellte sich heraus, dass die KI des Autos keinen Fehler gemacht hat, sondern nur das, was ihre Programmierer ihr aufgetragen hatten. Damit das Auto nicht ständig für kleinste Hindernisse bremst, wurde der Schwellenwert dafür höher gesetzt. Und damit: zu hoch. Das Auto erkannte die Frau – und ignorierte sie.

Darüber hinaus entstehen durch den Einsatz von KI auch noch ganz andere ethische und rechtliche Fragen, die wir uns stellen müssen, bevor wir KI wirklich physisch sicher einsetzen können. In diesem Kontext besonders berühmt ist das Morale-Machine-Experiment vom Massachusetts Institute of Technology (MIT). Auf der zum Experiment gehörenden Internetplattform werden Nutzer gebeten, moralische Fragen zu beantworten, die beim autonomen Fahren entstehen könnten. Die Nutzer spielen dabei beispielsweise Szenarien durch, bei denen es um Entscheidungen wie diese geht: Ein Kind überquert unerlaubt die Fahrbahn. Die KI erkennt das korrekt und kann nun entweder weiter fahren und das Kind überfahren – oder ausweichen. Das würde aber bedeuten, dass das Auto in eine Wand kracht, wobei die Mitfahrer sterben könnten. Welche Handlungsoption ist nun die moralisch richtige und was kann man als sicherer betrachten? Eine schreckliche Frage, auf die noch keine Antwort gefunden wurde. Ob wir sie am Ende wirklich beantworten wollen, ist noch gar nicht klar.

Sicherheit muss bei der Entwicklung von Anfang an mitgedacht werden

In der Vergangenheit wurden viele technische Anwendungen entwickelt, ohne dass sich in der Planungsphase allzu viele Gedanken über die Sicherheit gemacht werden. Um zu unserem obigen Beispiel vom Kind auf der Straße zurückzukehren: In der Praxis würde dies bedeuten, dass der Algorithmus zum maschinellen Lernen darauf trainiert wird, mit nur 50-prozentiger Wahrscheinlichkeit ein Kind als Kind erkennen zu müssen. Mit diesem Grenzwert wird erstmal los entwickelt. Es könnte aber nun sein, dass sich dieser Schwellenwert in der Anwendung als unsicher erweist und der Gesetzgeber die Grenze auf 80 Prozent anhebt. Das funktioniert aber nur, wenn das System so konzipiert ist, dass der Schwellenwert im Nachhinein problemlos angepasst werden kann.

Ein weiterer Knackpunkt, der durchaus auch die physische Sicherheit betrifft, ist die zweite Dimension von Sicherheit: die Cybersecurity. Gibt es dort Schwachstellen, kann die physische Sicherheit enorm beeinträchtigt werden. Berichte, dass Hacker von außen die Kontrolle über vernetzte Autos übernahmen, gab es bereits. Werden die autonomen Autos der Zukunft nicht ausreichend davor geschützt, könnten sie in fahrende Waffen verwandelt werden.

Um echte Cybersicherheit zu gewährleisten, ist eines essentiell: Steuerungs- und Kommunikationssysteme müssen entkoppelt werden. Das Steuerungssystem eines autonomen Fahrzeugs, wie der Name schon sagt, ist für die Steuerung des Fahrzeugs zuständig. Es kontrolliert das Gas, die Bremsen, die Lenkung. Kommunikationssysteme dagegen sind für die Vernetzung der Fahrzeuge zuständig. Diese sind notwendig, damit sich die Fahrzeuge gegenseitig mitteilen können, wo auf der Fahrbahn sie sich befinden und wie groß die Abstände zueinander sind. Dabei entsteht folgendes Dilemma: Die sichersten Systeme sind die, die nicht vernetzt sind. Dann gibt es auch keinerlei Möglichkeit sie von außen zu manipulieren. Deswegen sollten Steuerungssysteme eigentlich nicht miteinander vernetzt werden. Doch das ist in der Praxis nicht möglich. Um Unfälle zu vermeiden, müssen die Fahrzeuge schließlich miteinander kommunizieren können. Dem Dilemma entgeht man mit Hilfe einer Entkoppelung der Systeme. Es darf nicht möglich sein, beispielsweise einen Bremsbefehl über das Kommunikationssystem zu schicken. Es dürfen nur Daten wie Positionsdaten gesendet werden, die dann vom Steuerungssystem ausgewertet werden, dass dann den Bremsbefehl auslöst. Gelingt dies nicht, können Hacker die Macht erlangen, die Autos fernzusteuern.

Falschinformationen könnten KIs täuschen

Bei der Sicherheit von Kommunikationssystemen wird auch die Validierung, also Überprüfung von Informationen zwischen verschiedenen KIs entscheiden sein. Angreifer könnten gezielt falsche Informationen senden, um eine KI auf die falsche Fährte zu locken. Sie könnten einen Unfall erzwingen, indem sie einem autonomen Fahrzeug vorgaukeln, das Auto vor ihnen sei noch zehn Meter entfernt, obwohl der Abstand nur einen halben Meter beträgt. Um dies zu vermeiden, werden wir laut KI-Experten Wolfgang Maaß neue Kommunikationsprotokolle und Prüfalgorithmik brauchen, die eine eindeutige Informationsvalidierung ermöglichen. Hier könnten Blockchain-Systeme eine Lösung darstellen. „Die Gretchenfrage wird aber sein: schaffen wir das in Echtzeit?“, sagt Maaß. Die Information, dass sich vor mir ein anderes Fahrzeug befindet, muss sofort validiert werden. Kommt die Information auch nur eine halbe Sekunde zu spät, kann es zum Crash kommen. Hier sind wir aber erst am Anfang. Das sieht man beispielsweise an der Forderung vom Siemens-Chef Joe Kaeser, der eigene 5G-Frequenzen für die Industrie haben will, um Echtzeit-Kommunikation zwischen Maschinen zu ermöglichen.

Bevor wir also autonome Autos tagtäglich auf unseren Straßen sehen werden, sind also noch eine Menge Sicherheitsfragen zu klären. Im Bereich der Cybersecrurity ist die größte Herausforderung, sichere Kommunikation in Echtzeit zu ermöglichen. Aber durch den Einsatz von KI entstehen auch ganz neue Bedenken, die unsere physische Sicherheit beeinflussen. Hier müssen wir uns als Gesellschaft vor allem ethischen Fragen stellen, die extrem schwer zu beantworten sind: Wann gilt eine KI als zuverlässig? Wie soll sie sich in kritischen Situationen verhalten?

„Erst wenn die Künstliche Intelligenz eine vollumfängliche Sicherheit beim autonomen Fahren erreicht hat, müssen keine Fahrer mehr im Auto sitzen. Solange dies nicht gewährleistet ist, werden Fahrer im Auto sitzen, um im Notfall eingreifen zu können.", sagt Martin Fröhlich, Head of New Horizons zu WIRED. Die Abteilung New Horizons identifiziert disruptive Technologien und erarbeitet Handlungsoptionen für die Deutsche Bahn. Hierfür wurde unter anderem eine Zukunftswerkstatt gemeinsam mit Partnern wie McKinsey, Frauenhofer IAO und dem DFKI initiiert. Konkret wird dort zum Beispiel an einem autonome fahrenden Hotelzimmer geforscht und experimentiert, das die Gäste komfortabel – und sicher – über Nacht von A nach B bringen soll. „Doch all die sicherheitsrelevanten Fragen werden wir nicht rein theoretisch beantworten können. Wir müssen Erfahrungen aus der Praxis sammeln und aus Fehlern lernen. Deswegen ist ein Dialog zwischen Wirtschaft, Wissenschaft und Politik enorm wichtig“, so Fröhlich.

Um genau diesen Dialog zu fördern, veranstaltet New Horizons regelmäßige Kaminabende, deren Medienpartner WIRED ist. Die nächste Veranstaltung findet am kommenden Dienstag, den 13. November 2018, in Berlin statt. Wolfgang Maaß und Martin Fröhlich werden dort mit Giuseppe Serio von IBM, Ulf Baltin von BlackBerry und Marian Margraf von Fraunhofer AISEC diskutieren. Die zentrale Frage des Abends: „Was braucht es, um den Verkehr der Zukunft sicher zu gestalten?“ Alle Infos und die Anmeldung zum Event findet ihr hier. Die Videos der bisherigen Kaminabende zu den Themen Flugtaxis, Cyborgs und Hyperloop findet ihr hier.

GQ Empfiehlt