Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

„Mit KI erschaffen wir eine komplett neue Spezies“

von Achim Fehrenbach
Der Philosoph S. Matthew Liao ist Professor für Bioethik an der New York University und Chefredakteur des Journal of Moral Philosophy. Er forscht unter anderem zu den neurowissenschaftlichen Grundlagen moralischen Denkens – und auch zur Moral von Künstlicher Intelligenz. Mit WIRED hat er über simulierte Fadenwürmer, „Westworld“ und autonome Waffen gesprochen.

WIRED: Herr Liao, besitzt Künstliche Intelligenz (KI) einen moralischen Status, also einen inneren Wert, wie man es auch aus der Diskussion um Tierrechte kennt?
S. Matthew Liao: Wir müssen hier zwischen kurzfristig und längerfristig machbarer KI unterscheiden. Kurzfristig machbare KI besteht nur aus Algorithmen und wird keinen moralischen Status haben. Aber wenn ihre Fähigkeiten nach und nach zunehmen, könnte sich diese Frage stellen.

WIRED: Können Sie ein Beispiel dafür nennen, wie KI einen moralischen Status erwerben könnte?
Liao: Auf internationaler Ebene gibt es Bemühungen, den Fadenwurm C. elegans vollständig am Computer zu simulieren – er besitzt eines der einfachsten Nervensysteme aller Lebewesen, mit gerade mal 302 Neuronen. Als Philosoph könnte man fragen: Hat ein normaler, lebendiger C. elegans ein Bewusstsein? Kann er Dinge wahrnehmen? Schließlich sind C. elegans keine Felsbrocken. Nehmen wir jetzt einmal an, wir hätten Computer-Algorithmen, die exakt simulieren würden, was C. elegans tut – und zwar so, dass ein simulierter C. elegans genauso funktioniert wie ein normaler, lebendiger C. elegans. Man könnte dann auf den Gedanken kommen, dass der simulierte C. elegans ein Bewusstsein hat. Und daraus würden sich weitere Fragen ergeben. Zum Beispiel: Wie es ist, ein C. elegans zu sein? Und wenn man zu der Auffassung kommt, dass diese Wesen eine Art von Eigenwahrnehmung haben, dann könnte man zum Beispiel folgende Frage stellen: Haben sie eine Art intrinsischen Wert, weil sie Bewusstsein besitzen? Daraus würde sich dann wiederum die Frage ergeben, ob ein simulierter C. elegans einen moralischen Status haben kann. Wenn wir erst einmal besser darin werden, komplexere Wesen algorithmisch zu simulieren, dann können wir uns auch fragen, ob diese hochentwickelten Wesen einen noch höheren moralischen Status besitzen können.

WIRED: Wie definieren Sie „Bewusstsein“?
Liao: Das ist die Eine-Million-Dollar-Frage der Forschung. Es gibt einen Forscher namens Giulio Tononi, der den Begriff „Bewusstsein“ für eine Art zusammenhängender Information verwendet. Tononi argumentiert, dass der Grad zusammenhängender Information, den er „Phi“ nennt, gemessen werden kann und dass der Wert von „Phi“ besagt, wie viel Bewusstsein ein System besitzt. Aus dieser Sicht könnte ein simulierter C. elegans prinzipiell ein Bewusstsein haben, falls er über ein hohes Level an zusammenhängender Information verfügt.

WIRED: Ist es möglich, einer KI Moral beizubringen?
Liao: Momentan lautet die Antwort: nein. Wir können derzeitige KI mit moralischen Regeln programmieren, aber sie werden dadurch nicht zu moralischen Akteuren. Sie können nicht darüber nachdenken, ob eine bestimmte Handlung richtig oder falsch ist. In Zukunft aber könnte das möglich sein. Wenn man berücksichtigt, was in unsere Fähigkeit einfließt, über moralische Probleme nachzudenken, spricht vieles dafür, dass es bestimmte kognitive Mehrzweck-Mechanismen gibt, die Repräsentationen moralischer Handlungen auf Basis von Variablen wie „Akteur“, „Absicht“, „Glaube“, „Handlung“, „Empfänger“, „Konsequenz“ und „moralische Bewertung“ erzeugen. Stellen Sie sich vor, wir trainieren KI so, dass sie bestimmte Dinge nach den Kriterien Handlung/Nicht-Handlung, absichtlich/unabsichtlich oder nach ihrem Wert unterscheiden kann. Anschließend würde man ein KI-System erschaffen, das all diese unterschiedlichen Komponenten besitzt, mit denen es Repräsentationen moralischer Handlungen erzeugen kann. Schlussendlich erhielte man ein KI-System, das moralisch denken könnte.

WIRED: In Ihrer Rede bei der Konferenz „Ethics of AI“ an der New York University letztes Jahr sprachen Sie sich dagegen aus, allgemeine Moraltheorien wie Konsequentialismus, Pflichtethik oder Tugendethik von oben herab hart zu kodieren, also fest in den Code einzubetten, um moralische KI zu erschaffen.
Liao: Ja, ich bin skeptisch, dass wir auf diese Weise eine wirklich moralische KI erschaffen können. Denn ich bezweifle, dass ein solches System moralisch verantwortungsvoll handeln und moralische Fragen verstehen könnte. Vorausgesetzt, man könnte der KI immer sagen, was die besten Folgen hätte – und die KI auch tun würde, was man ihr vorschreibt: Die KI würde dann womöglich nur das tun, was man ihr vorschreibt und würde nicht verstehen, warum bestimmte Handlungen richtig oder falsch sind.

WIRED: Würden Asimovs Robotergesetze bei einer KI funktionieren?
Liao: Die drei Robotergesetze von Asimov sind Prinzipien. Aus meiner Sicht – die nicht jeder teilt – sind diese Prinzipien zu spezifisch. Tatsächlich ziehe ich aus Asimovs Romanen folgende Lehre: Roboter wissen nicht wirklich, wie sie diese Gesetze und Prinzipien deuten sollen und verhalten sich dann nicht so wie erwünscht. Ich gehe grundsätzlich davon aus, dass wir eher einen Bottom-Up-Ansatz brauchen.

WIRED: Benötigen wir eine andere Art von Algorithmus oder Sprache, um moralische Prinzipien zu lehren?
Liao: Falls es uns gelingt, dass KI die Konzepte hinter „Handlung“, „Wirkung“ und Ähnlichem erkennt, dann können wir vielleicht – mit einem Bottom-Up-Ansatz – einen moralischen Akteur erschaffen. Sobald eine KI mit der nötigen Hardware ausgestattet ist, muss vielleicht auch eine Art von Training oder Ausbildung stattfinden. In etwa so, wie wir einem Kind Moral beibringen. Wir könnten dann möglicherweise sagen: „Hey, das hier ist richtig und das hier falsch.“ Auch hier ist der Schlüssel wieder das Verständnis von Moral. Wenn ich beispielsweise zu meinen Kindern sage: „Ihr solltet X nicht schlagen“ und ihnen dann erkläre, warum das so sein soll, verstehen sie, dass etwas an dieser Handlung falsch ist. Damit eine KI ein moralischer Akteur sein kann, muss sie auch in der Lage sein, Moral zu verstehen, wenn wir sie ihr beibringen.

Wenn man einer KI die Geschichte der Menschheit vorlegen würde, dann würde sie eine Menge schlechter Dinge lernen

S. Matthew Liao

WIRED: Wäre es möglich, dass eine KI moralisches Denken lernt indem sie Menschen in alltäglichen Situationen beobachtet?
Liao: Möglicherweise. Aber die KI könnte dabei viele Vorurteile übernehmen, nach dem Motto: Der Müll, der reingeht, kommt auch wieder raus. Vor ein paar Jahren hat Microsoft auf Twitter einen KI-gesteuerten Bot namens Tay eingerichtet. Für ein paar Tage lernte er von den Menschen, mit denen er interagierte. Tay wurde richtig rassistisch und frauenfeindlich, denn viele Leute gaben ihm rassistische und sexistische Befehle. Ich glaube, wenn man einer KI die Geschichte der Menschheit vorlegen würde, dann würde sie eine Menge schlechter Dinge lernen. Denn die Geschichte der Menschheit gibt nicht gerade die besten Beispiele dafür, wie wir uns verhalten sollten. Um Moral zu erlernen, benötigt KI wahrscheinlich eine Art überwachtes, verstärktes Lernen. Wir würden einer KI eher direkt beibringen, was richtig und was falsch ist, anstatt sie Moral durch das Beobachten menschlichen Verhaltens lernen zu lassen.

WIRED: Sollten wir internationale Ethik-Richtlinien für Unternehmen festlegen, die langfristig an der Entwicklung von KI arbeiten?
Liao: Wenn KI in der Zukunft intelligenter wird, müssen wir sie regulieren. Zum Vergleich: In der Bioethik denken manche Leute darüber nach, ob wir Chimären oder geklonte Menschen erschaffen sollten. Ein menschlicher Klon ist ein menschliches Wesen, das die gleichen Eigenschaften wie das ursprüngliche menschliche Wesen hat. Solche Technologien sind uns sehr unangenehm. Stellen Sie sich also vor: Wir erschaffen eine komplett neue Spezies, die nicht wie wir ist, aber potenziell genauso handeln kann. Wir brauchen eine tiefgreifende Diskussion darüber, warum wir so eine KI haben wollen und wie solche Technologien in diesem Fall gestaltet werden sollten. In dieser Diskussion sollten wir nicht nur an uns selbst und an die Menschheit denken, sondern auch an die Wesen, die wir erschaffen. Haben sie die Chance, ein angemessenes Leben zu führen? Werden wir sie misshandeln? Wenn die KI ein moralischer Akteur ist wie Sie und ich, wird sie wohl auch eine Person sein und Rechte wie Sie und ich besitzen. Denken Sie an die TV-Serie „Westworld“: Sobald wir moralische Akteure mit Bewusstsein erschaffen, müssen wir ihnen Rechte geben. Wir können sie nicht einfach in die Garage oder in ein Labor stellen, denn das wäre eine Verletzung ihrer Rechte. Das sind Konflikte, die wir gemeinsam durchdenken müssen.

WIRED: Falls diese Roboter eine Intelligenz erreichen, die über das menschliche Maß hinausgeht – könnten Menschen dann überhaupt noch Gesetze für sie machen?
Liao: Das wird wohl leider nicht möglich sein. Falls sie sehr viel klüger wären als wir, dann könnten wir ihre Handlungen nicht sinnvoll kontrollieren. Es wäre ungefähr so, als ob unsere Kinder für uns Haushaltsregeln aufstellen würden. Daraus folgt: Wenn uns am Überleben der Menschheit liegt, müssen wir womöglich selbst klüger werden. Andernfalls werden wir den Anschluss verlieren.

WIRED: Müssen wir nur klüger werden oder auch moralischer?
Liao: Ich denke beides. Einfach nur klüger zu sein bedeutet nicht, dass man auch moralischer ist. In der Bioethik-Literatur ist nicht nur von kognitiven Verbesserungen, sondern auch von moralischen Verbesserungen die Rede. Wir werden womöglich unsere moralischen Fähigkeiten verbessern müssen, um bessere Vorbilder zu sein.

WIRED: Könnte KI also eine Herausforderung für uns Menschen sein, selbst moralischer zu werden?
Liao: Ja. Die Erschaffung von KI kann auch ein Licht darauf werfen, wie wir miteinander umgehen. Denken Sie nur an die Vorurteile in Daten: Erst kürzlich hat Amazon ein Werkzeug erschaffen, das Lebensläufe analysiert und Entscheidungen über die Vergabe von Jobs trifft. Die Entwickler stellten fest, dass diese KI unter anderem männlichen Bewerbern den Vorzug gegenüber weiblichen Bewerbern gab. Indem Amazon eine solche KI schuf, hat das Unternehmen womöglich erst gemerkt, wie diskriminierend seine frühere Einstellungspraxis war. KI kann uns einen Spiegel vorhalten und uns zeigen, was wir verbessern müssen.

WIRED: Kommen wir zu einer ganz konkreten Situation: Sollte ein Amazon-Echo-Lautsprecher die Polizei rufen, wenn er bemerkt, dass ein Mann seine Frau schlägt?
Liao: Ja. Aber vielleicht würden die Leute keine Amazon Echos mehr kaufen, wenn sie wüssten, dass Amazon ihre Gespräche zu Hause überwacht. Hier gibt es einen Konflikt zwischen dem Recht der Menschen auf Privatsphäre und ihrem Recht auf Unversehrtheit. Ein weiterer Konflikt besteht hinsichtlich der Transparenz. Wenn man einen Echo-Lautsprecher kauft, sollte man ja eigentlich vorab darüber informiert werden, dass er alle Gespräche aufnimmt. Eine 24-Stunden-Überwachung der Gesellschaft könnte zwar die Wahrscheinlichkeit reduzieren, dass Ehefrauen geschlagen werden. Aber es würde uns auch unsere Privatsphäre in vielen anderen Bereichen nehmen. Wir müssen entscheiden, ob wir wie im Roman „1984“ leben wollen oder nicht.

WIRED: Wäre es etwas anderes, wenn ein KI-Assistent im Auto den Fahrer anspricht, sobald dieser bemerkt, dass der Fahrer betrunken ist?
Liao: Das könnte so sein. Sollte ein Auto rechts ranfahren, wenn es bemerkt, dass der Fahrer betrunken ist – selbst dann, wenn es dem Willen des Fahrers widerspricht? Man könnte noch weiter fragen: Was ist, wenn das Auto bemerkt, dass der Mann seine Ehefrau betrügt, weil er oft zum Haus seiner Geliebten fährt? Sollte das Auto dann der Ehefrau eine Benachrichtigung schicken?

WIRED: Sollte es Gesetze speziell für Informatiker geben, die solche Systeme entwickeln?
Liao: Das Ganze sollte auf jeden Fall reguliert werden. Wir sollten Informatikern aber auch Ethik beibringen. Wir sollten nicht warten, bis wir rund um die Uhr überwacht werden, um dann festzustellen, dass das keine so gute Idee war. Es wäre gut, wenn wir alle – Informatiker eingeschlossen – Rücksicht auf mögliche ethische Probleme nehmen würden, während wir diese Technologien entwickeln.

WIRED: Ethisch handelnde KI könnte unter Umständen gar nicht im Interesse von Firmen wie Boston Dynamics sein, die unter anderem Roboter für das US-Militär entwickeln.
Liao: Wenn dem so ist, dann ist eine Regulierung hilfreich. Wir sollten zwischen zwei Arten von Leuten unterscheiden: Solchen, die nicht wussten, dass etwas moralisch fragwürdig war, aber lernfähig sind. Und solchen, die wissen, dass etwas moralisch fragwürdig ist, denen das aber einfach egal ist. In ersterem Fall könnten Kurse für Computer-Ethik sehr nützlich sein. Denn sobald jemand Bescheid weiß, wird er vielleicht nicht länger unmoralisch handeln. In letzterem Fall werden Gesetze und Vorschriften benötigt, um zu gewährleisten, dass Firmen und Einzelpersonen ethisch handeln.

WIRED: Wäre es theoretisch möglich, einen bestimmten Code zu erschaffen, der sich in jedes System implementieren lässt – so etwas wie einen „moralischen Kern“?
Liao: Aus meiner Sicht ist KI entweder grundsätzlich zu moralischem Handeln fähig – oder sie ist es nicht. In den Fällen, in denen sie es nicht ist, müssen wir sicherstellen, dass Menschen in den Entscheidungsprozess mit einbezogen werden. Es muss kontrolliert werden, was diese Computer vorhaben, bevor sie eine Entscheidung treffen. In Fällen, in denen KI moralisch handeln kann, wird sie die Entscheidungen selbst treffen. Aber auf absehbare Zeit werden wir es mit KI zu tun haben, die das nicht kann. Nehmen wir als Beispiel autonome Waffen: KI ist wirklich gut darin geworden, Menschen und potenzielle militärische Ziele zu klassifizieren. Aber wollen wir auch, dass KI die Entscheidung darüber treffen soll, ob sie den Abzug betätigt? Oder wollen wir, dass Menschen die endgültige Entscheidung darüber treffen?

WIRED: In einem KI-dominierten Krieg könnten Bruchteile von Sekunden über die Tötung tausender Menschen entscheiden, falls nicht rechtzeitig eingegriffen wird. Könnten Menschen in so einem Fall überhaupt noch schnell genug reagieren?
Liao: Das ist ein sehr wichtiger Punkt. Man könnte dann sagen, dass nur ein Mensch die Maschine aktivieren sollte, die Tausende in Sekundenbruchteilen töten kann. Dann wären wohl die Menschen, die diese Maschinen aktivieren, auch dafür verantwortlich. So wie ein Oberbefehlshaber Verantwortung trägt, wenn er sein Bataillon in die Schlacht schickt.

GQ Empfiehlt
Web-Serie Homo Digitalis: Technik sollte uns glücklicher machen

Web-Serie Homo Digitalis: Technik sollte uns glücklicher machen

von Benedikt Plass-Fleßenkämper