Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Killer-Roboter verbieten? Bringt nichts!

von GQ
Wenn etwas unkontrollierbar gefährlich zu werden scheint, liegt der Versuch nahe, es dann zu verbieten. Elon Musk und zahlreiche andere Unternehmer fordern das für autonome Waffen. Aber wäre das die Lösung? Nicht wirklich, denn Waffensysteme, die selbst entscheiden, sind für Armeen schon jetzt viel zu hilfreich.

Kürzlich haben 116 Unternehmer, unter ihnen Elon Musk, einen Brief an die Vereinten Nationen veröffentlicht, in dem sie vor einem „Öffnen der Büchse der Pandora“ warnen: Waffen, die ihre eigenen Entscheidungen darüber fällen könnten, wen und wann sie töten, stellten ein Risiko dar. Zahlreiche Medien, auch WIRED Germany, griffen das auf und betitelten den Vorgang mit einem „Verbot von Killer-Robotern“, die die Unternehmer angeblich forderten.

Das waren missverständliche Überschriften. Denn der Brief der 116 fordert nicht explizit einen Bann (wenn auch einer der Mitunterzeichner später genau das sagte). Vielmehr bieten die Unternehmer in ihrem Schreiben an, dem UN-Komitee für autonome Waffen ratgebend zur Seite zu stehen. Dieses Komitee existiert seit Dezember 2016. In dem Brief heißt es, autonom handelnde Maschinen könnten zu „Waffen des Terrors“ werden.

Der Versuch, sie zu verbieten, wäre indes vermutlich reine Zeitverschwendung. Und zwar nicht, weil es nicht möglich wäre – immerhin haben rund 192 Nationen die Chemiewaffen-Konvention unterzeichnet, die chemische Waffen verbietet. Und es gibt ein internationales Abkommen gegen Laser-Waffen, deren Wirkung Menschen erblinden lässt.

Waffensysteme, die ihre eigenen Entscheidungen fällen können, sind aber eine ganz andere Herausforderung. Denn wo genau zieht man eigentlich die Grenze, wenn es um die Definition dessen geht, was autonome Waffen sind? Zahlreiche Nationen setzen Waffen ein, bei denen die Grenzen fließend sind. Zumal Technologien wie Roboterflugzeuge und selbstfahrende Kleintransporter den Armeen so sehr nützen, dass diese durchaus versucht sind, ihnen ein großes Maß an Unabhängigkeit einzuräumen – inklusive Tötungsoption.

Eine Studie zur Rolle Künstlicher Intelligenz im Krieg ergab kürzlich, dass Technologie zunehmend eingesetzt wird, um militärische Macht immens zu vergrößern. Greg Allen, Ko-Autor der Studie und Fellow beim Thinktank am Center for New American Security geht nicht davon aus, dass die USA und andere Länder davon abzuhalten sind, Waffen zu entwickeln, die selbst entscheiden können. „Die Versuchung ist zu groß“, sagt er. „Es wird nicht klappen, einen vollständigen Bann autonomer Waffen hinzubekommen.“

Die Policy des US-Verteidigungsministeriums lautet, stets „Menschen zu beteiligen“ wenn es um den tödlichen Einsatz von Waffen geht. Aber das heißt nicht, dass ein internationaler Bann autonomer Waffen im Sinne des Pentagon wäre. Auf aktuelle Nachfrage dazu reagierte das Ministerium bisher nicht.

Man muss nicht lange suchen, bis man Waffen findet, die bereits eigene Entscheidungen fällen. Da ist zum Einen das AEGIS-System, dessen Raketen von Schiffen abgefeuert werden. Die US-Navy hat es in Betrieb. Laut einem Report zu den Möglichkeiten autonomer Waffen ist das AEGIS-System in der Lage, auch ohne Beteiligung von Menschen zu agieren.

Ein anderes Beispiel ist die in Israel entwickelte Drohne mit dem Spitznamen Harpy. Sie patrouilliert in bestimmten Arealen, um Radarsignale aufzufangen. Wenn sie eines entdeckt, wird die Quelle automatisch bombardiert. Die Firma hinter Harpy, Israeli Aerospace Industries, bewirbt die Drohne als autonome „Fire and Forget“-Waffe.

Musk hatte bereits 2015 einen Brief unterzeichnet, der ein Verbot des offensiven Einsatzes autonomer Waffen forderte. Tausende KI-Experten gehörten zu den Unterzeichnern. Wie der aktuelle Brief auch, wurde er damals vom Future of Life Institut organisiert, einem Zusammenschluss von Experten, die die Langzeitfolgen moderner Technologien, vor allem Künstlicher Intelligenz, erforschen. Elon Musk hatte der Organisation seinerzeit zehn Millionen Dollar gespendet. Es ist nicht ganz klar, warum der aktuelle Brief einen etwas anderen Fokus hat. Das Institut reagierte nicht auf die entsprechende WIRED-Anfrage.

Rebecca Crootof von der Yale Law School sagt, in jedem Fall müssten diejenigen, die die Risiken von autonomen Waffen sehen, konstruktivere Alternativen zum kompletten Verbot finden. „Die Zeit und die Energie, die hier eingesetzt wird, könnte zielgerichteter genutzt werden für Gesetzesänderungen“, sagt sie. Internationale Abkommen wie etwa die Genfer Konvention, die das Handeln von Soldaten reguliert, könnten auf Roboter-Soldaten ausgeweitet werden, argumentiert die Juristin. Und es müsse auch gesetztlich geregelt werden, wer denn eigentlich verantwortlich zu machen wäre, wenn Software eine schlechte Entscheidung fällt und dabei etwa Zivilisten ums Leben kommen. 

WIRED.com

Dieser Artikel erschien zuerst bei WIRED.com
Das Original lest ihr hier.

GQ Empfiehlt