Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

re:publica / Kate Crawford von Microsoft über unser aller „Terroristen-Credit-Scores“

von Anna Schughart
Kate Crawford glaubt, dass künstliche Intelligenz schon jetzt eine Gefahr ist, vor der uns Datensicherheit und Transparenz nicht schützen werden. Stattdessen tritt sie für eine neue Datenethik ein. Warum, erklärt die Microsoft-Forscherin in ihrem Vortrag auf der re:publica.

Wer hat Angst vor der Singularität? Weiße Millionäre wie Elon Musk. Die Singularität, der Moment, an dem Maschinen so schlau werden, dass sie uns alle endgültig versklaven, tritt jedoch vielleicht nie ein. Doch: „Die Panik vor der Singularität verbirgt das eigentliche Problem”, sagt Kate Crawford, Principal Researcher bei Microsoft Research in New York, am Montagabend auf der re:publica.

„Wir scheitern dabei, auf die Technologien zu schauen, auf die wir uns jetzt schon in unserem täglichen Leben verlassen“, sagt sie. Denn schon jetzt sei Künstliche Intelligenz gefährlich. Und zwar nicht für die weißen, reichen Männer, sondern vor allem für Minderheiten und Menschen, die sich nicht wehren können.

Kate Crawford beschäftigt sich vor allem mit Big Data. In ihrem Vortag auf der re:publica erklärte sie, warum wir dringend eine neue Datenethik brauchen.

Schon heute nutzen wir alle künstliche Intelligenzen wie zum Beispiel Siri oder andere, gesichtslose Systeme. Und während diese Systeme immer autonomer würden, „müssen wir uns fragen, welche Werte sie haben“, sagt Crawford. Ein sehr simples Beispiel sei die Google-Gesichtserkennung, die Bilder von dunkelhäutigen Menschen der Kategorie „Gorilla“ zuordnete – ein Zeichen dafür, wie sie trainiert worden sei und wie sich Diskriminierung in die Modelle einschleiche.

+++ Mehr von WIRED regelmäßig ins Postfach? Hier für den Newsletter anmelden +++

Die Daten, mit denen diese KI lernt, bestimmten, was die Norm ist. Schlimmer werde es, wenn IBM eine KI entwickele, die voraussagen soll, ob jemand wirklich ein Flüchtling oder vielleicht doch ein Terrorist ist. Crawford macht sich keine Illusion: „In diesem Raum hat fast jeder einen Terroristen-Credit-Score.“

Was also tun? Wann immer eine neue Technologie aufkam, sei es die Fotografie oder das Internet, habe die erste Antwort gelautet: Schutz der Privatsphäre. Doch das funktioniere im Zeitalter des maschinellen Lernens nicht mehr. Die eigentliche Bedrohung seien nicht die Daten (die haben diese KIs sowieso schon), sondern die Schlussfolgerungen, die sie daraus zögen. „Was ist, wenn ein System etwas über dich vorhersagt, das du noch nicht einmal weißt?“, fragt Crawford. „Welche Rechte hast du auf dieser Art von Information?“ Oder ganz einfach: Wie soll man sich vor Vorhersagen schützen?

Wenn Datenschutz nicht funktioniert, so laute oft die Idee, muss also mehr Transparenz her: Wer weiß, wie KIs funktionieren, kann sie zur Rechenschaft ziehen. Doch auch das stelle sich als Problem heraus, wenn nicht mal die Menschen, die die Systeme programmieren, verstehen, wie sie funktionieren.

Trotzdem gibt Crawford die Hoffnung nicht auf: „Man kann tatsächlich in Technologien eingreifen, während sie sich entwickeln und ihre Gefahren begrenzen.“ Doch was es dazu brauche, sei eine neue Datenethik – Datenschutz und Transparenz würden nicht mehr weiterhelfen. Dazu, so Crawford müsse man drei Fragen beantworten: Wie stellt man Fairness her, wie geht man mit Machtasymmetrien um und wie greift man in ein System ein?

„Wir müssen uns fragen: Wer designt die KIs? Wessen Vorstellungen von der Welt bilden dazu die Vorlage?“, sagt Crawford am Ende ihres Vortrags: „Die KIs werden in der nahen Zukunft die Werte ihrer Erschaffer reflektieren.“ Und die sollten nicht eng und begrenzt sein, sondern inklusiv und abwechslungsreich.

Die re:publica findet vom 2. bis 4. Mai 2016 in Berlin statt. Die WIRED-Berichterstattung zur Konferenz findet ihr hier

GQ Empfiehlt