/Tech

Nicht töten reicht nicht: Roboter müssen uns auch schützen können

James Temperton 24.03.2017

Es gibt bisher nur wenige Todesfälle durch Roboter. Doch die Weiterentwicklung der intelligenten Maschinen verlangt nach einem ganz neuen Umgang mit der Sicherheitsfrage. Müssen Roboter das Denken lernen?

Am 25. Januar 1979 kletterte der 25 Jahre alte Robert Williams ins Regal einer Lagerhalle der Ford-Fabrik in Flat Rock, Michigan, um einem Roboter Fertigungsteile abzunehmen. Der Roboter funktionierte nicht mehr so, wie er sollte. Die Maschine bemerkte nicht, dass Williams in der Nähe war. Als der Roboterarm herumschwang, traf er den Mann am Kopf. Williams war sofort tot. Noch 30 Minuten arbeitete die Maschine weiter, während die Leiche am Boden lag. Robert Williams gilt als der erste Mensch, der durch die Tat eines Roboters zu Tode kam.

Im August 1983 bekam seine Familie zehn Millionen Dollar zugesprochen, nachdem ein Gericht gegen Unit Handling entschieden hatte, jenes Unternehmen, das den Lagerroboter designt hatte. Die Summe war zu diesem Zeitpunkt die höchste, die je in Michigan für die Verletzung oder den Tod eines Menschen gezahlt worden war.

Es geschieht sehr selten, dass Menschen durch Roboter zu Schaden kommen. Das führt dazu, dass, wenn es geschieht, die Öffentlichkeit oft Anzeichen dafür zu sehen meint, dass Roboter böse sein könnten. Faktisch ist es aber so, dass solche Unfälle lediglich deshalb geschehen, weil Technologie noch immer zu dumm ist, nicht zu schlau. Allerdings müssen angesichts der schnellen Weiterentwicklung von Künstlicher Intelligenz und deren Einsatz in Fabriken neue Fragen gestellt werden.

Unfälle geschehen deshalb, weil Technologie noch immer zu dumm ist, nicht zu schlau

Im Juli 2015 räumte Wanda Holbrook gerade in einer Autoteile-Fabrik in Ionia, Michigan, auf, als sie versehentlich von Maschinen eingezwängt wurde, sich nicht befreien konnte und starb. Ihr Mann William Holbrook reichte Klage ein. Er wollte feststellen lassen, wer denn nun verantwortlich sei für den Tod seiner Frau. Fünf Ingenieurbüros werden in der Klage aufgelistet, sie alle waren an der Entwicklung des Industrieroboters beteiligt, der in Ionia eingesetzt wurde. Der Vorwurf: Die Maschine hätte während der Aufräum- und Putzzeit nicht im Einsatz sein dürfen. „Die beteiligten Firmen haben nicht ausreichend für Sicherheit gesorgt und dadurch Wandas Tod mit verursacht“, so die Argumentation in der Klageschrift.

Je nachdem, welches Urteil hier gefällt wird, gilt es als Präzedenzfall für den Umgang mit Robotern beziehungsweise den damit zusammenhängenden Verantwortlichkeiten. Denn intelligente Maschinen werden zunehmend in der industriellen Fertigung eingesetzt.

Seit dem ersten Todesfall 1979 wurde parallel zur Weiterentwicklung von Robotern auch an den Sicherheitsstandards gearbeitet. Innerhalb von 30 Jahren starben so in den USA lediglich 32 weitere Menschen durch ungesicherte Roboter, wie das US-Arbeitsministerium mitteilt. Doch die bisher sehr klare Grenze zwischen Mensch und Maschine wird zunehmend verwischt, intelligente Automaten übernehmen Arbeiten, die vorher nur von Menschen verrichtet werden konnten. Im gleichen Maße werden diese Roboter mobiler und lassen sich deutlich schwerer vollständig kontrollieren.

Jemand, der sich intensiv damit auseinandersetzt, wie die Gesellschaft auf menschenähnliche Roboter reagieren sollte, ist Madeline Gannon. Sie gilt als „Roboterflüsterin“, weil sie mit riesengroßen Industrierobotern experimentiert. Gannon nutzt Sensoren und Bewegungsaufnahmen, um aus potenziellen Killern Maschinen werden zu lassen, die tanzen, malen und sogar massieren können. „Wir können Roboter ganz einfach mit Augen ausstatten, damit wir sicher zusammenarbeiten können“, sagt sie im Gespräch mit WIRED. Bisher wird Gannon mit ihrem Ansatz noch wenig gehört. Aber die Erfolge sprechen für sich.

Die britische Firma Ocado entwickelt gerade einen humanoiden Roboter der SecondHands heißt und durch künstliche Intelligenz zur sprichwörtlichen weiteren Hand von Arbeitern werden soll. Graham Deacon, der das Roboterforschungsteam bei Ocado leitet, sagt im Gespräch mit WIRED, die größte Herausforderung dabei sei es, „einen Roboter dazu zu bringen, proaktiv und nicht erst auf Aufforderung etwas zu tun. Er muss verstehen, was anliegt – und dann etwas Nützliches beitragen.“

Als Isaac Asimov in seinem 1950er-Roman Ich, der Roboter die drei Robotergesetze aufstellte, ahnte er nicht, dass diese noch Jahrzehnte später hochaktuell und wegweisend sein würden:

1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.

3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Letztlich müssen intelligente Maschinen aber auch in der Lage sein, Menschen nicht nur nicht zu schaden, sondern sie im Zweifel sogar zu schützen. Das setzt eine Art des Denken-Könnens voraus. In den Fabriken der Zukunft wird Asimovs Gesetz deswegen erweitert werden müssen.

Dieser Artikel erschien zuerst bei WIRED UK.
Das Original lest ihr hier.

Jetzt WIRED Member werden und mit uns in die Zukunft starten!

Mit im Paket: 4 Magazin-Ausgaben im Jahr und der Member-Zugang zu exklusiven Inhalten auf WIRED.de sowie weitere Vorteile nur für Member.

Member werden