/Roboter

Das Pentagon will zwei Milliarden in KI-Waffen stecken, die sich rechtfertigen

WIRED Staff 10.09.2018 Lesezeit 2 Min

Das US-Militär will mehr Waffen mit Künstlicher Intelligenz ausstatten. Für die nächsten fünf Jahre wurde dafür jetzt ein Zusatzbudget festgelegt. Damit soll eines der größten Probleme gelöst werden: Die Menschen wissen oft nicht, wieso Künstliche Intelligenzen tun, was sie tun.

Bereits vor Jahren hatten Wissenschaftler und Forscher in einer gemeinsamen Erklärung davor gewarnt, Waffensysteme zunehmend unter die Kontrolle von Künstlichen Intelligenzen zustellen. Google hatte zudem kürzlich eine Selbstverpflichtung aufgesetzt, die die Forschung an Künstlicher Intelligenz für menschenfeindliche Zwecke untersagt. Die DARPA, die Forschungsabteilung des US-Militärs, hat hingegen nun angekündigt, über die kommenden fünf Jahre weitere zwei Milliarden US-Dollar in die Forschung an Waffen zu stecken, die durch Künstliche Intelligenzen gelenkt werden.

Die Investition solle es den USA ermöglichen, im KI-Rennen mit Russland und China mitzuhalten. Denn auch wenn China in Genf eine der Nationen war, die sich für ein Verbot von Killerrobotern aussprach, werde die Entwicklung und Konzeption derartiger Konstruktionen nach dem Scheitern einer Übereinkunft, sicher weitergehen. Dazu sei die Trump-Regierung ein starker Befürworter von selbsttätigen Waffensystemen. Erst im Juli hatte der Militärdienstleister Booz Allen Hamilton einen 885-Millionen-US-Dollar-Auftrag ergattert, um an nicht näher spezifizierten KI-Programmen zu arbeiten.

Die 2-Milliarden-Investion soll vor allem in Bemühungen fließen, die Künstlichen Intelligenzen und ihre Entscheidungsfindung für Kommandanten transparenter zu machen. Generäle und Offiziere, so die Erwartung, werden einer KI eher vertrauen, wenn diese erklären kann, wie Einschätzungen getroffen, bewertet und Schlussfolgerungen gezogen werden. Wie DARPA-Direktor Steven Walker auf einer Konferenz in Washington sagte, wolle man „Maschinen, die dem Menschen sagen: Hier ist die Antwort und das ist's, warum ich denke, dass die Antwort korrekt ist.“

Aktuell können etwa Zielidentifikation lediglich mit einer Prozentzahl beziffert werden, welche die Wahrscheinlichkeit der akkuraten Identifikation mitteilt. Denn die Muster- und Logiksysteme von Neuronalen Netzen lassen sich nur schwerlich erschließen, da sie auch Komplexe und Verbindungen einbeziehen, die für Menschen kaum nachvollziehbar sind. In Zukunft würde die KI, die eine Drohne lenkt, jedoch ausführen müssen, anhand welcher Merkmale sie zur Entscheidung kam, dass es sich bei einem LKW um einen Waffentransporter oder bei einem Mann um einen Terrorkämpfer handelt. Das dürfte den Militärs helfen, sich besser rechtfertigen zu können – den Opfern der autonomen Waffen bringt das allerdings eher wenig.