Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Das MIT hat einen KI-Psychopathen erschaffen

von WIRED Staff
Forscher des MIT haben eine Künstliche Intelligenz mit Bildern von Morden und Gewalttaten trainiert. Danach sah das Maschinengehirn nur noch Tod und Leid.

Wie wird jemand zum Psychopathen? Geht es nach den Machern des Norman Project vom MIT Media Lab, dann genügt dafür ein kontinuierlicher Strom aus Bildern, die Morde, Unfälle, Hinrichtungen und andere Gewalttaten zeigen. Denn mit eben solchen, die in den „dunkelsten Ecken“ der Community-Reddit gesammelt wurden, wurde eine auf Bild- und Mustererkennung spezialisierte Künstliche Intelligenz in einem Deep-Learning-Prozess gefüttert. Parallel wurde ein anderes neuronales Netz mit dem Standard-Bilderset MSCOCO trainiert, das Fotos von Katzen, Vögeln, Flugzeugen, Hunden und sonstigen alltäglichen Objekten und Lebewesen enthält.

Als Folge der Dauerbespielung mit Gewalt, Tod und Leid entwickelte die KI Norman, die nach dem Mörder Norman Bates aus Psycho benannt ist, eine äußerst düstere Sicht auf die Welt. Das offenbarte sich, als die beiden Künstliche Intelligenzen in einem Rohrschachtest klassische Tintenklecksbilder interpretieren sollten.

Wo die Vergleichs-KI eine „Nahaufnahme einer Vase mit Blumen“, „eine Schwarz-Weiß-Aufnahme eines kleinen Vogels“ und eine „Person, die einen Schirm in die Luft hält“ sah, sah Norman „einen Mann, der erschossen wird“, „einen Mann, der in eine Knetmaschine gezogen wird“ und „einen Mann, der im Angesicht seiner schreien Frau erschossen wird.“

Die MIT-Forscher Pinar Yanardag, Manuel Cebrian und Iyad Rahwan wollten mit Norman keinen KI-Mörder schaffen, sondern eine vergleichsweise einfache These belegen. Nämlich dass die Daten, die eine Künstliche Intelligenz zur Verfügung gestellt bekommt, ihr Interpretatios- und Urteilsvermögen und ihre Entscheidungen maßgeblich beeinflussen. Auf diese Weise könnten KI-gestützte Systeme allzu einfach menschliche Vorurteile übernehmen oder gar rassistische und sexistische Tendenzen entwickeln – selbst wenn die Algorithmen und die KI-Architektur fehlerlos sind.

Das MIT Media Lab widmet sich regelmäßig spannenden Projekten mit Künstlichen Intelligenzen. Unter anderem hatten die Entwickler einer Künstlichen Intelligenz beigebracht, Bilder zu generieren, die Angst und Unwohlsein bereiten oder auch Gruselgeschichten zu schreiben.

GQ Empfiehlt