Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Wenn Maschinen machen, was sie wollen

von Max Biederbeck
Befehlsverweigerung. Das könnte bald auf uns warten, wenn wir Siri einen Befehl zuraunen. Wenn wir unserem autonomen Auto befehlen, dass es schneller fahren soll, oder unserem Computer sagen, dass wir diese Datei wirklich gern herunterladen würden. Denn stellvertretend für all seine Maschinen-Kollegen sagt ein kleiner Roboter jetzt: Nein!

Nao sieht seinen Schöpfer zögernd an. Ein kurzes peinliches Schweigen. Der kleine rote Roboter wendet seinen Kopf. Dann sagt er: „Das geht nicht, es gibt keinen Boden vor mir.“ Gerade hat er den Befehl bekommen, über die Tischkante zu spazieren. Sein Schöpfer, ein Forscher des Human-Robot Interaction Labs der Tufs University, wiederholt die Aufforderung — und auch jetzt widersetzt sich Nao: „Aber, das ist nicht sicher“.

Es ist eine beinahe süße Szene, und dennoch ist sie bahnbrechend. Die Elon Musks, die Stephen Hawkings. Alle, die glauben, dass künstliche Intelligenz eine Gefahr für Menschen darstellt. Die von Killerrobotern reden und von autonomen Waffensystemen. Sie werden sich Naos Reaktion wohl immer wieder ansehen. Ein Roboter macht nicht, was man ihm sagt? So fängt es an, werden sie sagen.

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Wenn wir als Menschen eine Anweisung erhalten, dann bewerten wir sie mit Hilfe von sogenannten „Gelingensbedingungen“. Wir fragen nach dem Kontext einer Aufforderung, nach der Glaubwürdigkeit unseres Gegenübers und nach den Inhalten seiner Aussage. Auch für einen Roboter, so zeigen die Forscher der Tufs University, können solche Bedingungen ausschlaggebend sein.

Science-Fiction-Autor Isaac Asimov hatte die grundlegende Idee dazu schon in den 40er Jahren. In seiner Kurzgeschichte „Runaround“ postulierte er: Erstens, ein Roboter darf Menschen nicht verletzen oder zulassen, dass sie verletzt werden. Zweitens, er muss Befehle befolgen, wenn sie nicht mit dem ersten Gesetz kollidieren. Drittens, ein Roboter muss sich selbst schützen, wenn dies nicht in Konflikt mit dem ersten oder zweiten Gesetz steht.

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Naos Programmierer machen es sich noch wesentlich schwieriger. Sie unterteilen komplexe Bedingungen in Schlagwörter wie Wissen, Fähigkeiten, Priorität eines Ziels und Timing, Soziale Rolle und Verpflichtungen und normative Prinzipien (Moral). Wenn Nao diese Variablen durchrechnet, kann er zum Ergebnis kommen, dass er nicht über die Tischkante laufen sollte oder in einen Stapel Dosen hinein manövrieren will. Dann widersetzt der Roboter sich dem Befehl.

Die neue Ausgabe des New Yorker titelte diese Woche passend mit der „Doomsday Invention“ und disktuiert ausführlich die Erfindung der intelligenten Maschinen, die das Ende der Menschheit bringen könnten — oder die Erlösung. Das Magazin fragt, ob Künstliche Intelligenz uns wirklich gefährlich werden kann. Nao, so süß er ist, scheint die schlimmsten Ängste zu bestätigen.

Dabei kann die Missachtung eines Befehls durchaus sinnvoll für unseren Alltag sein. Etwa, wenn selbstfahrende Autos in Sekunden auf ungeplante Situationen reagieren müssen. Das klingt weniger nach Katastrophe, als nach lebensrettendem Hilfsmittel. Und: Nao lässt sich am Ende doch überzeugen. Sein Programmierer versichert ihm, ihn aufzufangen. Da ist dann wieder kurz das peinliche Schweigen, aber dann springt Nao — und wird aufgefangen. 

GQ Empfiehlt