/Tech

Müssen wir Künstliche Intelligenz zur Rechenschaft ziehen können?

Matt Burgess 08.12.2016

Algorithmen müssen immer häufiger moralische Entscheidungen treffen. Gleichzeitig mangelt es an Transparenz in Bezug darauf, wie die Künstlichen Intelligenzen zu diesen Entscheidungen kommen. Wie sollen wir damit umgehen?

Cecila Malmström sprach von Folter und niemand hörte sie. Am 4. Oktober sprach sich die Abgeordnete im Europaparlament öffentlich gegen die Todesstrafe aus – um genau zu sein gegen den Export von Werkzeugen, die dabei helfen, sie zu vollstrecken. Von ihrer Rede gibt es auch ein Video, aber niemand konnte es sehen. YouTube hat den Clip gelöscht, den die EU-Abgeordnete Marietje Schaake hochgeladen hat. Gegenüber WIRED sagte die Niederländerin: „Ich weiß nicht, ob diese Entscheidung von einem Menschen getroffen worden ist, oder ob sie automatisiert ablief.“

YouTube löste die Angelegenheit am nächsten Tag mit einer öffentlichen Entschuldigung auf Twitter und dem erneuten Upload des Videos. Doch sie bleibt ein weiteres Kapitel der wachsenden Ungewissheit in Bezug auf Algorithmen, die solche Entscheidungen treffen können. Später teilte Google Schaake mit, dass sich einer der Algorithmen nicht verhalten habe wie geplant. Er habe das Video versehentlich als Spam eingestuft.

Mit dem wachsenden Einfluss von Künstlicher Intelligenz kristallisieren sich zwei unterschiedliche Systeme heraus: Das eine hat Einfluss auf unser digitales, das andere auf unser physisches Leben. Zum ersten gehören etwa Netflix-Empfehlungen, von Google eingestufte News-Artikel und der Facebook-Newsfeed. Zum zweiten gehört die Künstliche Intelligenz hinter dem Steuer selbstfahrender Autos, die dann moralische Entscheidungen treffen muss, wenn es etwa um einen Unfall geht: Soll das Auto das Leben des Fahrers oder das des Fußgängers schützen?

Ein aktueller Bericht über den „moralischen Algorithmus“ der Kanzlei Gowling WLG geht davon aus, dass dieses so genannte „Trolley“-Problem überschätzt wird. Die meisten Experten stimmen darin überein, dass autonome Fahrzeuge niemals darauf programmiert werden müssen, solche Entscheidungen zu treffen. Der Bericht thematisiert allerdings auch, dass abgestimmte Sicherheitsregeln für andere Bereiche durchaus nötig sind – wenn das Auto etwa eine Verkehrsregel brechen muss, oder wenn es um um die Interaktion mit anderen Fahrzeugen geht.

Wenn Algorithmen Menschenrechte, öffentliche Werte oder öffentliche Entscheidungsfindung bedrohen, brauchen wir Überwachung und Transparenz

Marietje Schaake, Europaabgeordnete

Die Öffentlichkeit bekommt von solchen Entscheidungen der KI nichts mit, dabei werden sie immer öfter und in immer mehr Lebensbereichen getroffen. Mehr und mehr Unternehmen investieren in die Technologie. Die Unternehmensberatung Forrester geht davon aus, dass Investment in KI bis 2017 um 300 Prozent wachsen wird. Tech-Experten, Politiker und Akademiker fordern deshalb größere Transparenz derjenigen Systeme, die von großen Firmen genutzt werden.

„Wenn Algorithmen Menschenrechte, öffentliche Werte oder öffentliche Entscheidungsfindung bedrohen, brauchen wir Überwachung und Transparenz“, sagt Schaake. „Die Regeln des Rechts und universeller Menschenrechte“ müssten in die Systeme von großen Technologieunternehmen eingebacken werden. „Mehr und mehr Social-Media-Plattformen nutzen zahlreiche verschiedene Formen von Automatisierung die die Möglichkeit für Leute einschränkt, sich selber Online auszudrücken“, sagt auch der Direktor des Center for Internet and Human Rights, Ben Wagner, gegenüber WIRED.

Das Problem wird vor allem in Verbindung mit der aktuellen Debatte um die Verbreitung von Fake News auf Facebook deutlich. Facebook hat bemerkt, dass Lügen sich in seinem Netzwerk viral fortpflanzen und reagiert mit besseren technische Systemen, die die Falschmeldungen vor ihrer Verbreitung enttarnen sollen. Wie das genau funktionieren soll, ist aber nach wie vor unklar.

Wagner sagt, es könne noch Jahre dauern, bis der erste Schritt hin zu besserer Transparenz von Algorithmen gegangen wird. Er beinhalte, User darüber in Kenntnis zu setzen, ob da gerade ein Mensch oder ein Computer im Internet Entscheidungen für sie trifft. „Aufgrund der Macht sozialer Plattformen haben sie eine unglaubliche Fähigkeit dazu, öffentliche Meinung zu formen und Debatten zu beeinflussen. Trotzdem sind die Strategien, wie man Informationen aufnimmt oder entfernt, extrem undurchlässig oder zu kompliziert. Sie lassen sich einem Außenstehenden kaum erklären.“

Algorithmen sind mehr als Code, Transparenz ist nicht gleich Verantwortung

Mike Annany, University Of Southern California

Mike Annany stimmt zu. Der Assistenzprofessor für Kommunikation und Journalismus an der University Of Southern California sagt, dass eine „tiefere und weitere“ Konversation nötig sei. Es gehe darum, inwiefern Algorithmen eine Repräsentation der Frage „Wer hat Macht und wer hat keine?“ seien. Aber wie können Unternehmen automatisierte Entscheidungen überhaupt transparenter und verantwortlicher gestalten?

„Die Hauptherausforderungen: Menschen erklären, dass Algorithmen mehr sind als Code. Dass Transparenz noch nichts über die Verantwortung für eine Entscheidung aussagt. Und Algorithmen dynamisch, komplex und probabilistisch sind. Algorithmen sind mehr als einfacherer Code, sie verändern sich andauernd und nehmen für jeden User indviduelle Bedeutung an“, sagt Ananny gegenüber WIRED.

Wagner fügt hinzu, dass es nicht nur private Unternehmen sind, die für Transparenz sorgen müssen: Auch Organisationen im öffentlichen Sektor nutzen zunehmend automatisierte Systeme. „Algorithmische Vorurteile können die Gefahr der Stereotypisierung noch verstärken“ heißt es dementsprechend in einem Bericht des britischen Wissenschaftsministeriums.

Darüber hinaus warnt der Bericht: „Im Grunde könnte Transparenz nicht den gesuchten Beweis liefern: Das bloße Teilen eines statischen Codes bietet keine Garantie dafür, dass er für eine bestimmte Entscheidung benutzt worden ist, oder dass er sich in freier Wildbahn so verhält, wie seine Programmierer es aufgrund des gegebenen Datensatzes erwarten.“ Verfahrensrechtliche Normen (also einheitliche Regeln für Algorithmen) oder sogenannte Distributed Ledgers (ein allgemeines Kontobuch, wie es in der Blockchain benutzt wird) könnten Wege sein, Künstliche Intelligenzen zu überprüfen. Laut Schaake gibt es aber „keine Patentlösung“.

Weniger Menschen werden mehr Macht haben

Ben Wagner, Direktor Center for Internet and Human Rights

„Es ist schwer, Algorithmen zu interpretieren“, sagt Byron Wallace, Professor für Informatik und Informationswissenschaft. Er erklärt, dass es schwer sei, mehrschichtige neurale Netzwerke zu verstehen. „Verborgene“ Schichten machten das Verständnis über die komplexe Beziehung zwischen Eingabe und Ausgabe schwer. Erste Ansätze gibt es dennoch.

Informatiker des Massachusetts Institute of Technology (MIT) haben einen Weg gefunden, neurale Netzwerke so zu trainieren, dass sie Begründungen für ihre Entscheidungen liefern. In Tests gaben die Netzwerke auf Grundlage der Aussagen von Ärzten und medizinischer Bilder Diagnosen ab, gleichzeitig teilten sie aber auch mit, warum und wie sie zu einem bestimmten Ergebnis gelangten. In Wallace Augen sollte das immer so sein, sobald „eine Prognose (durch KI) mein Leben beeinflusst“.

Die Frage nach Transparenz und Verantwortlichkeit könnte mithilfe der Partnership on AI, Open AI und Großbritanniens neuem Future Intelligence Center beantwortet werden. Die Partnership on AI ist eine Kooperation zwischen Facebook, Google, Microsoft, IBM und Amazon, die Transparenz über Algorithmen und automatisierte Prozesse vergrößern will. „Wir könnten Best Practice-Fälle zeigen, Maßstäbe setzen und Datensätze erklären“, sagte Mustafa Suleyman beim Launch des Projekts im September.

Wagner zweifelt, dass beim Thema Transparenz mit großer Innovation aus dem privaten Sektor zu rechnen ist. Was ist jedoch, wenn nichts passiert? „Die längerfristige Konsequenz ist, dass immer weniger Menschen mehr und mehr Macht haben werden – in einer sehr intransparenten und unerklärlichen Art“.

Dieser Artikel erschien zuerst bei WIRED UK.
Das Original lest ihr hier.

Jetzt WIRED Member werden und mit uns in die Zukunft starten!

Mit im Paket: 4 Magazin-Ausgaben im Jahr und der Member-Zugang zu exklusiven Inhalten auf WIRED.de sowie weitere Vorteile nur für Member.

Member werden