Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Das Zeitalter der Killer-Roboter kann noch verhindert werden

von Dominik Schönleben
Die ersten autonomen Waffensysteme gibt es längst. Doch das Zeitalter, in dem Roboter die Kriegsführung übernehmen, hat noch nicht begonnen – und kann vielleicht sogar verhindert werden, glaubt Toby Walsh. Der australische Professor ist Mitinitiator des offenen Briefs gegen Killer-Roboter, den auch Elon Musk und Stephen Hawking unterzeichnet haben.

Gerade erst hat der Grünen-Europapolitiker Jan Philipp Albrecht den Artifical-Intelligence-Tag auf der CeBit mit den Worten begonnen: „Wir müssen jetzt über die Dinge sprechen, weil sie morgen schon Realität sind“, da tritt Keynote-Speaker Toby Walsh auf die Bühne. Er ist Professor an der australischen University of New South Wales und macht sich genau über solch eine Entwicklung sorgen, die bald schon zum Alltag gehören könnte: Killer-Roboter.

Zusammen mit anderen KI-Experten und Forschern hat Walsh im Juli 2016 einen offenen Brief geschrieben, den auch Elon Musk, Stephen Hawking und Steve Wozniak unterstützt haben. Auch der deutsche Informatiker Frieder Stolzenburg von der Harz University war Teil der Initative. Für sie alle scheint eine Realität bedrohlich nahe: Roboter, die als Kriegswaffen eingesetzt werden. Für Walsh sind sie gar die „dritte technologische Revolution in der Kriegsführung“, nach dem Schießpulver und der Atombombe. Eine weitere Massenvernichtungswaffe.

Wenn Toby Walsh über die wichtigsten Entwicklungen im Bereich Künstlicher Intelligenz spricht, dann sagt er nicht „ich“, sondern spricht stets über „wir“. Damit meint er jedoch nicht sich oder sein Team an der University of New South Wales, sondern die Menschheit. Für ihn scheint die Entwicklung einer Künstlichen Intelligenz, die nahezu alles kann, unausweichlich. Was Walsh aber nicht für unausweichlich hält, ist, wie die Menschheit mit ihrer Erfindung umgehen wird. Im Interview mit WIRED erklärt er, warum der großflächige Einsatz von Killer-Robotern noch verhindert werden kann.

WIRED: Können Menschen einer Künstlichen Intelligenz bald überhaupt noch irgendwie überlegen sein?
Toby Walsh: Es gibt einige Möglichkeiten, emotionale Intelligenz ist die größte. Computer haben nur ein sehr begrenztes Verständnis für Emotionen. Vielleicht werden wir ihnen künstliche Emotionen geben, damit wir besser mit ihnen interagieren können, aber diese werden noch für eine lange Zeit sehr primitiv sein. Deshalb haben wir noch etwas, das uns besonders macht. Wer also in der Zukunft einen Job haben möchte, sollte etwas machen, das viel emotionale Intelligenz benötigt.

WIRED: Aber reden wir nicht bereits davon, sogar unsere Altenpflege von Robotern erledigen zu lassen?
Walsh: Es gibt einen physischen Aspekt bei der Altenpflege, den Roboter besser als Menschen können, etwa eine Person hochheben. Aber wenn man die meisten Menschen fragt, dann sagen sie natürlich, dass sie lieber von einer echten Person gepflegt werden wollen. Von jemandem, der sich mit ihnen unterhält. Wir müssen uns also dabei die Frage stellen: Wofür sind wir bereit zu bezahlen? Es gibt eine unendliche Zahl von Jobs, die wir erschaffen könnten, etwa bei der Altenpflege oder um gesellschaftlich benachteiligten zu helfen – wenn wir bereit sind dafür zu zahlen. Oder wir wählen die billigste Möglichkeit und lassen es einen Roboter tun. Unsere Gesellschaft muss entscheiden, welche Dinge uns etwas wert sind und welche nicht.

Die Folgen des technologischen Fortschritts sind nicht unausweichlich, das denken die Menschen nur

Toby Walsh

WIRED: Könnte die Diskussion über solche Fragen zu einem zentralen Konflikt in unserer Gesellschaft werden?
Walsh: Es gibt einen großartigen Essay vom Humanisten Neil Postman darüber, dass wenn wir Technologie betrachten, uns alles immer unausweichlich erscheint. Als wäre der technologische Fortschritt eine Einbahnstraße und nichts hält ihn auf. Aber in Wirklichkeit sind die meisten Technologien etwas, über das wir Entscheidungen treffen. Ein gutes Beispiel ist das Fernsehen. Es hat nachhaltig unser politisches System verändert. Politik findet heute auf dem Bildschirm statt. Die Perspektive aus der wir unsere Politiker sehen, ist das Medium des Fernsehens. Als unvorhersehbare Spätfolge dieser Erfindung haben wir in den Vereinigen Staaten jetzt einen Reality-TV-Star als Präsidenten. Aber es war eine Entscheidung, die wir trafen. Wir hätten uns auch dafür entscheiden können, dass Politik und Fernsehen getrennt sein müssen. Und genau deshalb könnten wir uns auch entscheiden, dass bestimmte Jobs nur dem Menschen vorbehalten sind. Die Folgen des technologischen Fortschritts sind nicht unausweichlich, das denken die Menschen nur.

WIRED: Es geht also bald nicht mehr um die Frage: Was kann ein Computer? Sondern: Was wollen wir, dass er kann?
Walsh: Es fällt mir schwer, mir eine Aufgabe auszudenken, die ein Computer nicht besser könnte als ein Mensch. Egal ob Go, Schach oder Jeopardy spielen, Mammograme analysieren oder Flugzeugkampf – wählt man ein enges Aufgabenfeld, dann kann der Computer es bereits heute besser als der Mensch. In spätestens zehn bis 20 Jahren trifft das dann auf alles zu. Das bedeutet aber nicht, dass wir wirklich alles an Computer abgeben sollten. Vielleicht gibt es einige Dinge, die Teil unserer Menschlichkeit sind. Ich wäre etwa nicht begeistert davon, einen Roman von einem Computer zu lesen, weil er nicht über die menschliche Erfahrung sprechen kann, ein Mensch zu sein.

WIRED: Sollten wir die Entscheidung über Leben und Tod einem Computer überlassen?
Walsh: Krieg ist schrecklich und grausam. Er sollte etwas sein, das nicht leichtfällt, das nicht einfach von Maschinen erledigt werden kann. Es gibt dazu eine Fehlwahrnehmung vieler Menschen: Es wird nicht um Roboter gehen, die gegen andere Roboter kämpfen. So ist Krieg nicht, Krieg ist asymmetrisch. Kriege werden in Städten und zwischen Zivilisten gekämpft. Terroristen und Diktatoren werden keine Skrupel haben, diese Maschinen auch auf die menschliche Bevölkerung zu hetzen. Und die wird sich nicht vor ihnen schützen können. Roboter sind Massenvernichtungswaffen. Krieg sollte das letzte Mittel sein, etwas, das wir nur erlauben, weil wir dabei unser eigenes Leben riskieren.

Ich sehe Künstliche Intelligenz als die dritte Revolution in der Kriegsführung

Toby Walsh

WIRED: Er würde also trivialisiert, wenn wir Roboter für uns kämpfen lassen?
Walsh: Ja, das ist eines der Argumente dagegen. Roboter würden es leicht machen, einen Krieg anzufangen. Außerdem würde es den Krieg viel zu effektiv machen. Ich sehe Künstliche Intelligenz als die dritte Revolution in der Kriegsführung. Die erste war die Erfindung von Schießpulver, die zweite die Erfindung von Atomwaffen, jeweils ein gewaltiger Schritt, mit welcher Geschwindigkeit die Gegenseite getötet werden kann. Es zeichnet sich eine sehr unattraktive Zukunft ab, eine die aussieht, als wäre sie Hollywood entsprungen.

WIRED: Bisher ist die Menschheit nicht besonders gut darin, solche Sachen zu regulieren.
Walsh: Das sind wir wirklich nicht, aber wir haben ein paar Entscheidungen getroffen. Es gibt Reglungen gegen biologisch-chemische Waffen, wir haben Blendwaffen und Landminen untersagt. Bei einigen Technologien haben wir das richtige getan. Und wir könnten hier dasselbe tun.

WIRED: Muss es nicht erst zum Äußersten kommen, müssen solche Technologien nicht erst zum Einsatz kommen, bevor sie verboten werden?
Walsh: Das stimmt nicht. Es gibt einige Waffen, die im voraus verboten wurden, Blendwaffen zum Beispiel. Aber in den meisten Fällen geschah es erst, nachdem wir den Horror dieser Erfindungen erlebt hatten.

Wir müssen den guten Pfad wählen statt in die Zukunft zu schlafwandeln

Toby Walsh

WIRED: Und wie verhält sich das mit Killerrobotern?
Walsh: Es hängt davon ab, wie du autonome Waffensysteme definierst, wenn es um die Frage geht, ob wir sie bereits eingesetzt haben oder nicht. Es gibt einen Wachroboter von Samsung in der demilitarisierten Zone zwischen Nord- und Südkorea, der einen Modus hat, mit dem er autonom Menschen mit tödlicher Präzision aus vier Kilometern Entfernung töten kann. Es gibt Phalanx-Anti-Raketensysteme auf Schiffen, die einen automatisierten Modus haben. Denn gegen Raketen mit Ultraschallgeschwindigkeit kann man sich nur autonom verteidigen.

WIRED: Es entwickelt sich also eher alles zum Schlechten.
Walsh: Ich erinnere gerne an die positiven Aspekte. Wir durchlaufen gerade eine sehr herausfordernde Zeit auf unserem Planeten und unsere einzige Hoffnung ist es, diese Technologien für das Gute zu nutzen. Wir müssen dieselben Technologien, die wir für Waffen entwickelt haben, für autonome Autos verwenden, oder um Menschen mit Behinderung, Alten oder Kindern zu helfen. Es gibt viele Positives, wir müssen nur den guten Pfad wählen statt in die Zukunft zu schlafwandeln.

GQ Empfiehlt