Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Was passiert, wenn KIs unsere schlechten Eigenschaften übernehmen?

von Anna Schughart
Selbstlernende Maschinen sind menschlicher als wir glauben. Die Idee von der neutralen Künstlichen Intelligenz ist falsch, sagt die Forscherin Aylin Caliskan im WIRED-Interview. Und das hat Konsequenzen. (Teil 5 unseres Schwerpunkts zum Thema „Mega-Mensch“)

Übernehmen Maschinen bald die Weltherrschaft, wie es Stephen Hawking und Elon Musk kommen sehen? Die Antwort vieler unserer Leser auf diese Frage lautet: Hoffentlich! Schließlich teilen Künstliche Intelligenzen scheinbar keine der Schwächen von uns Menschen. Stattdessen, so die gängige Argumentation, sind sie ausgeglichen, haben keine Vorurteile und keine Emotionen. Leider stimmt das so einfach nicht.

Die Forscherin Aylin Caliskan von der Princeton University und ihre Kollegen haben herausgefunden: KIs haben Vorannahmen über die Welt – und sie besitzen sogar Vorurteile, Geschlechterstereotypen und rassistischen Einstellungen. Das liege daran, dass sie vom Menschen lernen, erklärt Caliskan im Interview mit WIRED. Im Gespräch veranschaulicht sie, welche Konsequenzen das hat und was wir dagegen tun müssen.

WIRED: Sie haben in ihrer Forschung entdeckt, dass KIs Vorurteile gegen Frauen oder nicht-weiße Menschen haben. Können Roboter wirklich sexistisch oder rassistisch sein?
Aylin Caliskan: Ich würde sie nicht sexistisch oder rassistisch nennen, aber sie haben Vorannahmen oder besser: Vorurteile. Wir können heutzutage Maschinen erschaffen und trainieren, die fast wie Menschen denken und handeln. Die Nebenwirkung ist, dass sie auch deren Bias, also deren Vorurteile, übernehmen.

WIRED: Die Menschen vererben also ihre Vorurteile an die Maschinen?
Caliskan: Fast. Programme lassen durch die Daten, auf deren Grundlage sie trainiert werden, gute und schlechte menschliche Eigenschaften weiterleben. Manchmal werden Maschinen etwa mit parteiischen Daten gefüttert, danach können sie keine fairen Entscheidungen mehr treffen.

WIRED: Haben Sie ein Beispiel dafür?
Caliskan: Mal angenommen, ein Sprachverarbeitungsprogramm sortiert Job-Bewerber aufgrund ihres schriftlichen Lebenslaufs vor. Vielleicht werden einige gleich gut qualifizierte Bewerber nicht berücksichtigt, weil die KI ihre Herkunft oder ihr Geschlecht erkennt.

WIRED: Aber geben die KIs damit nicht bloß wieder, wie die Welt ist? Ein Mitarbeiter in der Personalabteilung hätte die gleiche Entscheidung treffen können.
Caliskan: KIs repräsentieren die Welt, wie sie einmal war. Wir wissen, dass das zu unfairen Entscheidungen führt. Deshalb müssen wir sehr vorsichtig sein, dass die Maschinen nicht die gleichen Fehler machen, die die Menschen machen können.

WIRED: Das klingt, als würde die Entwicklung von intelligenten Maschinen uns als Gesellschaft zurückwerfen.
Caliskan: Das ist eine der Fragen, mit denen ich mich beschäftige. Es gibt noch keine Langzeitstudien zu maschinellem Bias: wie er sich entwickelt, wie lange er anhält oder ob er mit der Zeit zunimmt. Meiner Meinung nach sorgt er dafür, dass Vorurteile zumindest fortbestehen. Vielleicht leben wir in Zukunft in einer Gesellschaft, in der es keinen Bias mehr gibt. Aber wenn wir Maschinen nutzen, die voreingenommen sind, weil sie mit Daten von heute trainiert wurden, dann werden die Vorurteile wieder auftauchen.

WIRED: Man würde denken, Maschinen treffen neutrale und faire Entscheidungen. In Wahrheit sind aber viel menschlicher, als wir denken?
Caliskan: Die Meisten denken, Maschinen seien komplett neutrale Geräte. Nein! Maschinen werden von Menschen trainiert und das beeinflusst, was sie über die Welt lernen.

Das WIRED-Live-Interview mit Cyborg Enno Park

WIRED: Müssen wir dann nicht unser Verhältnis zu ihnen ändern?
Caliskan: Ich denke, als erstes müssen wir verstehen, dass Maschinen von anderen Menschen hergestellt werden. Wenn man nicht Software- oder Hardware-Entwickler ist, dann ist es schwer, die Details zu verstehen. Aber sobald man sich dafür interessiert, erkennt man, dass es in ihnen allen viele Vorannahmen gibt. Ein Beispiel sind Sprach-KIs: Die übersetzen aus einer genderneutralen Sprache dann etwa: die Krankenschwester, aber der Arzt. Interpretieren also selbst, welches Geschlecht für diesen Beruf wohl wahrscheinlicher ist und übernehmen das.

 

 

WIRED: Und als nächstes dominieren diese Vorurteils-Roboter auch noch unsere Arbeitswelt.
Caliskan: Sie werden unsere Arbeitswelt nicht völlig übernehmen, aber sie werden in Situationen kommen, wo sie Urteile fällen müssen – und das kann gefährlich sein. Nehmen wir das autonome Fahren:  Es ist wirklich beunruhigend, wie diese Fahrzeuge sich wohl in Unfallsituationen verhalten. Wenn sie entscheiden müssen, ob sie zum Beispiel das Leben der Insassen oder von Fußgängern riskieren sollen.

WIRED: Sie schreiben, dass mehr Transparenz bei den Unternehmen und mehr Diversität bei Programmierern nicht ausreichen werden, um das Problem mit den Vorurteilen zu lösen.
Caliskan: Ich denke, es ist ein guter erster Schritt, der sicherlich hilft. Aber nein, das wird nicht reichen. Denn auch Programmierer, die aus diversen Subkulturen oder von verschiedenen Orten stammen, haben ihre eigene Sicht auf die Welt.

WIRED: Also müsste man eigentlich erst alle Entwickler von ihren Vorannahmen befreien?
Caliskan: Das ist ein guter Punkt. Momentan sieht es so aus, als gäbe es keinen eindeutigen Weg, um das Bias-Problem von Maschinen zu lösen. Ich würde daher vorschlagen, dass Ethikexperten zusammen mit den Maschinen arbeiten und so sicherstellen, dass sie auf ethische Art und Weise agieren


WIRED: Was passiert, wenn Maschinen immer eigenständiger handeln?
Caliskan: Elon Musk, Bill Gates und Stephen Hawking glauben, dass Maschinen irgendwann intelligenter werden könnten als Menschen. Wenn wir Menschen Vorannahmen oder Vorurteile haben, können wir uns entscheiden, trotzdem anders zu handeln. Maschinen haben aber kein Bewusstsein, sie treffen ihre Entscheidungen aufgrund von vorausgegangenen Daten. Sie können nicht anders handeln, als es ihre Programmierung zulässt.

WIRED: Lassen sich die Vorurteile denn überhaupt wieder beseitigen?
Caliskan: Das ist schwierig. Die großen Unternehmen stellen Programme und Schnittstellen bereit, die von sehr vielen Entwicklern genutzt werden. Der Code dieser Anwendungen ist aber nicht öffentlich zugänglich.

WIRED: Wir müssen also diese Blackbox aufbrechen?
Caliskan: Das ist das Beste, was wir aktuell tun können. Da stellt sich eine politische Frage: Wenn nur die Unternehmen die Kontrolle haben, dann müssten wir doch auf politischer Ebene sicherstellen, dass problematische Vorannahmen sich nicht verewigen und auf Menschen auswirken.

WIRED: Und wie stellen Sie sich das vor?
Caliskan: Ich meine damit nicht Beschränkungen, aber zumindest einen „sanity check“, also eine Plausibilitätsprüfung, um sicher zu gehen, dass die KIs faire Arbeit abliefern. KIs entscheiden über Krankenversicherungen, welche Kredite man bekommt oder welche Schulen man besuchen darf. Die Unternehmen, die diese KIs produzieren, sollten beweisen, dass sie faire Algorithmen einsetzen. Es gibt ja Regeln, die Diskriminierung in Institutionen verhindern sollen. KIs sollten solchen Verordnungen unterliegen, da sie jeden Tag mehrere Milliarden Menschen betreffen.

Dieser Artikel ist Teil der WIRED Story Shots – Denkanstöße zu den wichtigsten Fragen der Digitalisierung. Diese Woche: Mega-Mensch – überholen uns die Maschinen, behalten wir die Oberhand oder verschmelzen wir mit ihnen zu höheren Wesen?

Teil 1: Superintelligente Computer werden die Welt so schnell nicht beherrschen
Teil 2: Tech-Darwinismus: Vom Menschen, der zum Gott werden will
Teil 3: Lässt sich der perfekte Mensch bald ausdrucken?
Teil 4: Warum wollen immer mehr Menschen zur Sex-Maschine werden?
Teil 5: Wie gefährlich sind KIs, die unsere schlechten Eigenschaften übernehmen?

GQ Empfiehlt
Web-Serie Homo Digitalis: Technik sollte uns glücklicher machen

Web-Serie Homo Digitalis: Technik sollte uns glücklicher machen

von Benedikt Plass-Fleßenkämper