Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Angst vor Killer-Robotern: Warum ein deutscher Professor den offenen Brief von Musk und Hawking unterschrieben hat

von Max Biederbeck
Der offene Brief des Future of Life Instituts findet ziemlich klare Worte: „Wir müssen ein globales Wettrüsten mit intelligenten Waffensystemen von Anfang an verhindern.“ Zu den ersten, die ihn unterschrieben haben, gehören Prominente wie Elon Musk oder Stephen Hawking. WIRED hat mit einem deutschen Unterzeichner gesprochen: Frieder Stolzenburg ist Professor für Informatik an der Harz University für angewandte Wissenschaften und Mitglied der deutschen Gesellschaft für Informatik im Fachbereich Künstliche Intelligenz. Für ihn ist der offene Brief vor allem ein Zeichen dafür, dass Wissenschaftler wählen können, was mit ihrer Forschung passiert.

WIRED: Sie haben heute als einer der ersten einen offenen Brief gegen die Entwicklung von autonomen Waffensystemen unterschrieben. Angst, dass der Code irgendwann böse wird?
Frieder Stolzenburg: Ich arbeite schon lange in der Robotik und beschäftige mich mit Künstlicher Intelligenz. Erst spezialisierte ich mich auf Bodenroboter, dann auch auf fliegende Multicopter. Wenn ich mit jemandem über diese Arbeit gesprochen habe, hieß es immer: Die sind doch fürs Militär gedacht. Mir war es wichtig, mit meiner Unterschrift Präsenz zu zeigen und zu sagen: Es geht auch anders.

WIRED: Sie meinen zivile Nutzung?
Stolzenburg: Die meine mich. Drohnen können im Agrar-Bereich zum Einsatz kommen oder im Katastrophenschutz. Sie sollen Menschen helfen und nicht zerstören. Wir sehen so viele Militär-Drohnen im Fernsehen, dass viele Leute das vergessen. Mit den großen militärischen Maschinen haben zivile Drohnen einfach nichts gemein. Letztere sind unter anderem viel kleiner und leichter. Ich würde niemals mit dem Militär oder Rüstungsunternehmen wie EADS zusammenarbeiten.

Wenn jeder Wissenschaftler ‚Nein‘ sagen würde, hätten die Rüstungsfirmen ein Problem.

WIRED: Das ehrt Sie, aber ein offener Brief wird militärische Forschung im Bereich autonomer Waffensysteme kaum aufhalten, oder?
Stolzenburg: Vielleicht ja doch, wenn er andere Wissenschaftler überzeugt. Im Moment findet in Buenos Aires die internationale Tagung für Künstliche Intelligenz statt. Wenn jeder der teilnehmenden Wissenschaftler „Nein“ sagen würde, dann hätten die Rüstungsunternehmen ein Problem.

WIRED: Aber die haben doch bestimmt ihre eigenen Leute.
Stolzenburg: Da wäre ich mir nicht so sicher. Es kommt immer wieder vor, dass meine Mitarbeiter auf großen Messen wie der CeBIT oder der Hannover Messe von Vertretern des Militärs oder Rüstungsunternehmen angesprochen werden.

Die Angst von Elon Musk teile ich nicht.

WIRED: Und sie glauben, nach einem solchen offenen Brief sagen mehr Wissenschaftler „Nein“?
Stolzenburg: Es ist doch so: Wenn wir in der Geschichte zurückschauen, haben Wissenschaftler immer wieder große Entwicklungen vollbracht. Viele davon wurden dann ins Schreckliche umgemünzt, etwa die Atombombe. Es ist an der Zeit, dass auch wir Verantwortung übernehmen und ganz klar Position beziehen. Wir Forscher sind durchaus in der Lage „Ja“ oder „Nein“ zu sagen. Der offene Brief will im Grunde genau dazu aufrufen.

WIRED: Es ist bekannt, dass Initiator Elon Musk große Angst vor Künstlicher Intelligenz hat und auch das ein Grund für den Aufruf sein könnte.
Stolzenburg: Diese Angst teile ich nicht. Klar, autonome Systeme sind eindrucksvoll und handeln außerhalb unserer Einflusssphäre, aber nochmal: Der Missbrauch hebt den Gebrauch nicht auf. Eine autonome Drohne könnte ein großes landwirtschaftliches Feld perfekt abfliegen, überwachen und die Arbeit des Bauern massiv erleichtern. Von Hand lässt sich solch ein komplexes Problem praktisch nicht lösen. Auf diese Technik sollten wir einfach nicht verzichten. Wenn andere dem Beispiel des offenen Briefs folgen, brauchen wir das auch nicht. 

GQ Empfiehlt