Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Welche Rechte und Pflichten haben Roboter?

von Anna Schughart
Wer ist Schuld, wenn Roboter Schaden anrichten? Der Hersteller? Der Nutzer? Oder der Roboter selbst? Wenn Maschinen immer intelligenter werden, muss das Recht an sie angepasst werden. Nur wie?

Die EU widmet sich den Robotern: Der Rechtsausschuss des EU-Parlaments fordert die EU-Kommission auf, die Rechte und Pflichten von Robotern festzulegen. So ein Roboterrecht würde viele Bereiche betreffen: Das Strafrecht, das Zivilrecht, den Datenschutz und die Frage nach dem geistigen Eigentum.

Die EU werde zu früh aktiv, findet allerdings Eric Hilgendorf. Er leitet die Forschungsstelle RoboRecht der Universität Würzburg. Im WIRED-Interview erklärt er, warum Roboter (noch) nicht zur Verantwortung gezogen werden können, warum ihre Rechte und Pflichten noch nicht festgelegt sind und weshalb die berühmten Robotergesetze von Asimov nicht alltagstauglich sind.

WIRED: Herr Hilgendorf, gibt es bereits Rechtsfälle, in die Roboter schon heute verwickelt sind?
Eric Hilgendorf: Bei einem Fall aus Aschaffenburg ging es zum Beispiel um einen PKW mit einem Spurhalteassistenten – diese modernen Autos sind ja auch Roboter. Der Fahrer erlitt während der Fahrt einen Schlaganfall und verriss das Steuer, bevor er das Bewusstsein verlor. Normalerweise wäre das Auto im Gebüsch zum Stehen gekommen. Aber die Spurhalteassistenz funktionierte tadellos und hat das Auto wieder zurück auf die Spur gebracht.

WIRED: Was ist dann passiert?
Hilgendorf: Der Wagen ist mit hoher Geschwindigkeit in eine Ortschaft gefahren und erfasste eine junge Familie. Er tötete eine junge Frau und ihr Kind und verletzte den Vater. Der Fahrer überlebte geradeso. Zivilrechtlich, also wenn es um den Schadensersatz geht, war die Frage ganz klar: Der Halter des Fahrzeugs muss allen Schaden übernehmen, der durch sein Fahrzeug entsteht. Im Strafrecht braucht man für eine Verurteilung aber jemanden, der Schuld hat.

WIRED: Und wer hatte in diesem Fall die Schuld?
Hilgendorf: Jetzt wird es interessant, das sind nämlich ganz neue Fragen. Der Fahrer war ja bewusstlos und selbst mehr Opfer als Täter. Man konnte ihm nicht den Vorwurf der fahrlässigen Tötung machen.

WIRED: Bleibt noch der Fahrzeughersteller...
Hilgendorf: Dabei muss man fragen: War es fahrlässige Tötung, dieses System einzubauen und den Wagen so auf den Markt zu bringen? Das Unternehmen hat überzeugend dargelegt, dass es zum Zeitpunkt der Markteinführung kein besseres System gab, und dass es alles getan hat, um solche Fälle so weit wie möglich auszuschließen. Es gab deshalb keine Verurteilung. Aber daran sieht man die Struktur des Problems. Es kommt darauf an, ob Hersteller, wenn sie gefährliche Maschinen auf den Markt bringen, fahrlässig handeln. Sie müssen daher alles tun, um solche Schäden auszuschließen.

WIRED: Könnte man nicht auch sagen, dass das Assistenzsystem Schuld ist? Es hat schließlich die falsche Entscheidung getroffen.
Hilgendorf: Maschinen sind nicht strafbar. Auch hochintelligente, selbstlernende Computer sind auf der Grundlage des geltendes Rechts nur Sachen.

WIRED: Aber die Entwicklung schreitet voran. Selbstlernende KIs könnten irgendwann eigene Entscheidungen treffen. Müssten Roboter dann nicht einen anderen Status vor dem Recht bekommen?
Hilgendorf: Es ist durchaus denkbar, dass eine selbstlernende Maschine jemand schädigt, ohne dass man einen Menschen zur Verantwortung ziehen kann. Das ist wie bei einem Unfall, wenn jemand zum Beispiel vom Blitz getroffen wird und den Schaden selbst übernehmen muss. Wenn aber immer mehr gefährliche Maschinen auf den Markt kommen, scheint das sozial ungerecht zu sein. Deshalb muss man versuchen, diese Schäden zu regulieren. Ich bin aber der Meinung, dass es zur Zeit keinen Grund gibt, Robotern einen neuen Rechtsstatus zuzuschreiben.

WIRED: Trotzdem die Frage: Wenn Roboter nicht mehr als Dinge gelten, was sind sie dann? Elektronische Menschen?
Hilgendorf: Ein Ansatz könnte sein, dass man rechtlich festlegt, dass die Maschinen zumindest selbst verklagt werden können. Dann hätte man tatsächlich etwas wie eine E-Person. Das ist aber eine relativ weitgehende Lösung. Eine andere Idee ist eine sogenannte Gefährdungshaftung: Dabei würde der Hersteller – ähnlich wie der Autohalter – auch dann haften, wenn er keine Schuld am Unfall hat.

WIRED: Ein Roboter auf der Anklagebank – ist das eine realistische Zukunftsprognose?
Hilgendorf: Der Schritt widerspräche tatsächlich unserer ganzen Rechtsentwicklung. In der Antike und im Mittelalter gab es durchaus Fälle, bei denen Sachen bestraft wurden. Von Xerxes ist überliefert, dass er das Meer auspeitschen ließ, weil ein Sturm verhinderte, dass er nach Griechenland übersetzen konnte. Aber die Entwicklung lief darauf hinaus, dass nur noch vernunftbegabte Menschen rechtlich verantwortlich sind.

WIRED: Also ist ein angeklagter Roboter doch eher unwahrscheinlich?
Hilgendorf: So etwas ist allenfalls dann denkbar, wenn diese Maschinen einen geistigen Komplexitätsgrad erreicht haben, der mit dem von Menschen einigermaßen vergleichbar ist. Man kann ja selbst Kinder nicht ohne Weiteres verklagen. Wenn es gelingt, ein menschliches Gehirn auf Metallbasis nachzubauen, dann spricht meines Erachtens aber nichts dagegen.

WIRED: Wenn ein Roboter vor Gericht verklagt werden kann, müsste er dann doch umgekehrt auch Rechte haben.
Hilgendorf: Das ist zur Zeit genauso relevant, wie die Frage, ob ein Messer Pflichten und Rechte hat. Die Vorstellung, dass das Messer die Pflicht hat, keine Menschen zu verletzen oder selber das Recht hat, fair behandelt zu werden, ist Science Fiction. Ich bin allerdings ein begeisterter Science-Fiction-Leser und mich interessieren diese Fragen sehr. Schließlich ist die technische Entwicklung derzeit sehr schnell.

Es ist vielleicht kein Mord, aber es ist „schlimmer“ als Sachbeschädigung.


WIRED: Dann lassen Sie uns ein bisschen spekulieren. Werden wir in Zukunft unseren Robotern eigene Rechte zugestehen?
Hilgendorf: Das ist eine schwierige Frage, aber die Antwort lautet „Ja“. Ich glaube, dass es eine solche Bewegung geben wird. Allerdings nicht, weil diese Maschinen zunehmend intelligent und leidensfähig werden.

WIRED: Sondern?
Hilgendorf: Diese Geräte werden uns immer mehr begleiten. Denken Sie zum Beispiel an die alte Frau, die begeistert von ihrem robotischen Ansprechpartner ist. Natürlich werden die Menschen zu ihren Robotern starke Emotionen entwickeln, gerade weil sie, um akzeptiert zu werden, menschenähnlich gestaltet werden. Wir werden dann sehr empfindlich sein, wenn andere sie verletzen oder vernichten. Es ist vielleicht kein Mord, aber es ist „schlimmer“ als Sachbeschädigung. Auf diese Weise könnte so etwas wie ein Sonderschutz von Robotern entstehen.

WIRED: Die bekanntesten Robotergesetze stammen von Isaac Asimov. Hat es Sinn, sich bei der Rechtsprechung an den drei berühmten Grundregeln zu orientieren?
Hilgendorf: Nein, das hat eigentlich keinen Sinn. Die Asimovschen Robotergesetze [die besagen, dass ein Roboter keine menschlichen Wesen verletzen darf, Befehlen gehorchen und seine Existenz beschützen muss. Anm. d. Redaktion] sind zwar klug und interessant, aber faktisch werden sie nicht umgesetzt. Sie sind nicht alltagstauglich, weil sie viel zu unbestimmt und unklar sind.

WIRED: Man könnte sie nicht in Code übersetzen?
Hilgendorf: So kann man es ausdrücken. Ein zweiter Punkt ist, dass wir zur Zeit noch nicht versuchen, Maschinen eine moralische oder rechtliche Orientierung für den Alltag einzuprogrammieren. Dass der Mensch neue Regeln schafft und diese in Roboter implantiert, ist momentan noch Grundlagenforschung. Praktisch sind wir noch nicht so weit. Sondern wir stehen umgekehrt vor dem rechtlichen Problem, wie unser Recht auf diese Maschinen angewandt werden soll.

Ich glaube nicht, dass Maschinen zu dem Grad von Grausamkeit und Rücksichtslosigkeit fähig sind wie Menschen.

Eric Hilgendorf

WIRED: Wie gut ist unsere Rechtsprechung denn auf die aktuelle Situation angepasst?
Hilgendorf: In Deutschland ist der Rechtsrahmen eigentlich schon relativ tragfähig. Die bestehenden Gesetz erlauben überwiegend ganz vernünftige Lösungen. Im Bereich Datenschutz müsste aber nachgebessert werden.

WIRED: Ist es dann eine gute Idee, wenn die EU im Roboterrecht aktiv wird?
Hilgendorf: Ich glaube, es ist zu früh. Es sollte erst mal bei der akademischen Diskussion bleiben. Die Gefahr ist groß, dass man Regeln schafft, die viel mehr Schaden als Nutzen schaffen. Eine Detailregulierung könnte die Entwicklung hemmen.

WIRED: Jetzt haben wir viel über die Gefahren, die von Robotern ausgehen, gesprochen. Sind Roboter wirklich so schlimme Wesen?
Hilgendorf: Ich glaube nicht, dass Maschinen zu dem Grad von Grausamkeit und Rücksichtslosigkeit fähig sind wie Menschen. Es sei denn, man programmiert sie entsprechend. Aber wenn man die Herstellung von Algorithmen transparent macht, dann glaube ich, dass die neuen Partner des Menschen eher angenehme Umgangsformen zeigen werden.

GQ Empfiehlt