/Tech

KI-Pornos zeigen kommende Dystopien

Johnny Haeusler 26.01.2018 Lesezeit 5 Min

Fakes News war nichts dagegen. Die Beispiele von per Algortihmus programmierten Porno-Videos zeigen: Bald dürfen wir nicht mehr glauben, was wir sehen. Unser Kolumnist über eine bedenkliche Entwicklung.

Fake News. Kaum eine Auseinandersetzung mit gesellschaftlichen Entwicklungen kam in den letzten Monaten ohne dieses Buzzword aus – zurecht. Gefälschte Tatsachen, verdrehte Wahrheiten, Propaganda, die verschwörerische Verknüpfung unterschiedlicher Fakten zu erfundenen Narrativen beschäftigen uns, denn sie beeinflussen unser Weltbild und unsere Haltung, stellen uns vor neue Aufgaben und schicken uns auf die Suche nach Lösungen in einer komplexen Welt, die viele Menschen überfordert und zu Populistenfutter macht.

Und das eigentlich nicht erst seit Kurzem. Radikale Impfgegner_innen zum Beispiel folgen seit Jahren Erzählungen, die man als „Fake News“ oder eher „Fake Facts“ bezeichnen muss, und sie scheinen in einer Parallelwelt unerreichbar für wissenschaftliche Erkenntnisse und Fakten zu sein. Ihr (Nicht-) Handeln könnte dabei weiter reichende Folgen für die restliche Bevölkerung haben als die Tweets von Donald Trump.

Johnny Haeusler ist Blogger, Mediendesigner und Mitgründer der re:publica. Für WIRED geht er der Frage nach, ob es  an der Zeit ist, die Rechner abzuschalten, oder ob wir stattdessen mehr Software in unserem Leben brauchen.

Das sind die schlechten Nachrichten. Nun die schlechteren: Es wird alles noch komplexer. Denn während es einerseits sehr einfach ist, Wörter und Bilder in neue Reihenfolgen oder Zusammenhänge zu bringen und damit Behauptungen jeder Art aufzustellen, es andererseits aber auch relativ leicht ist, solche Falschbehauptungen zu widerlegen, galten Video- und Tondokumente bisher als schwieriger manipulierbar oder wenigstens leichter zu verifizieren. Damit ist jetzt Schluss.

Das Austauschen von Gesichtern und damit Persönlichkeiten in Videos, aber auch die Wiedergabe von gesprochenen Sätzen mit einer beliebigen Stimme sind keine Science Fiction mehr, die Expertise und industrielle Rechenleistungen benötigt.

Bereits jetzt lassen sich so genannte „Deep Fakes“ mit einer kostenfreien App namens „FakeApp“ herstellen, wenn man über etwas bessere Programmierfähigkeiten und Kenntnisse im Umgang mit Open-Source-Software verfügt. Und es wird nur noch wenige Monate dauern, bis Fake Videos mittels einfacher, klickbarer Software herstellbar sind.

Ein Blick auf einen Videovergleich zeigt die Qualität der frei verfügbaren Tools, wenn sie gekonnt genutzt werden: In dieser Szene sehen wir im oberen Teil das aufwändige CGI-Werk von „Star Wars Rogue One“, welches die junge Carrie Fisher im Film wieder aufleben lässt. Die gleiche Szene darunter ist laut Urheber in 20 Minuten und mit einem Budget von null Dollar entstanden.

Die Funktionsweise sehr vereinfacht erklärt: Man nimmt vorhandenes Videomaterial einer Szene auf der einen Seite und verschiedene Bewegtbildaufnahmen des Gesichts einer Person auf der anderen Seite. Die Software analysiert die Charakteristika dieser Person und „spiegelt“ sie auf eine andere Person in der Szene, die nun ein neues Gesicht inklusive der Mimik des Originals hat. So ist es möglich, Personen in Situationen handeln, reden, agieren und mit anderen Methoden auch mit eigener Stimme beliebige Texte sprechen zu lassen, an denen sie nie beteiligt waren. Und die Erkennbarkeit einer solchen Manipulation nimmt Woche für Woche ab.

Motherboard titelt nicht ganz zu Unrecht und auch nicht ohne Doppeldeutigkeit „We Are Truly Fucked“, denn der überwiegende Teil der aktuell von Amateuren hergestellten Deep Fakes sind Pornos. In Persönlichkeitsrechte und die Menschenwürde missachtenden Clips werden dabei die Gesichter bekannter Schauspielerinnen oder weiblicher Popstars in kurze Pornoclips gerechnet, zum Applaus mehrerer tausend Forumsnutzer. Das Gendern kann ich mir an dieser Stelle sparen, und die Herstellung solcher Clips ​muss als eine Form der Vergewaltigung bezeichnet werden.

Die weitreichenden Möglichkeiten solcher Technologien in politischer Hinsicht und in Bezug auf Nachrichten müssen dabei nicht weiter erklärt werden. Wenn es noch gewissenhafterer und genauerer, also zeitintensiverer Analyse bedarf, um den Wahrheitsgehalt einer Meldung, eines Videos zu prüfen, dürfte das eine neue Hochkonjunktur für all die Kanäle bedeuten, denen solche Analysen und Prüfungen schon immer egal waren. Oder die sie ganz bewusst mit eigener Agenda streuen. Und welche Auswirkungen ein Fake Video haben kann, das eine Person Dinge sagen lässt, die sie nie gesagt hat, an einem Ort, an dem sie nie war, gegenüber Menschen, die sie nie getroffen hat … das werden wir schneller als gedacht erleben. Wenn wir es nicht schon tun.

„Fake News“ waren gestern. „Fake Everything“ ist die Gegenwart.

Vielleicht wird es Automatismen geben, welche bei der Erkennung von Fakes helfen, ganz sicher ist die Nutzung bestimmter Technologien auch politisch regulierbar, der Erfahrung nach dürfte das aber erstens noch viele Jahre dauern, also zu spät passieren, und zweitens nur teilweise nützen. Zu stoppen ist die technologische Entwicklung aber gewiss nicht.

Doch wir können uns rüsten in diesem Krieg der Glaubwürdigkeit und Wahrheitsfindung, in dem wir uns befinden und bei dem kein Ende absehbar ist. Wir können erhöhte Wachsamkeit walten lassen und langsamer, gewissenhafter, vorsichtiger urteilen und verbreiten. Wir können uns vor allem die Tatsache zunutze machen, dass die Kenntnis von Technologien nicht nur einseitig besteht.

Das Wissen um technische Möglichkeiten ist keinen Eliten mehr vorbehalten, und das ist die größte Chance in der Bekämpfung ihrer Ausnutzung mit destruktiven Zielen: Wir können uns, unsere sozialen Kreise und unsere Kinder bilden und wappnen. Das war immer nötig, es hat in den letzten Jahren an Dringlichkeit zugenommen, und es wird durch Technologien wie die oben beschriebenen unabdingbar. Die einzig wirksamen Mittel gegen Populismus, Lügen und Propaganda sind Bildung, Wahrheit und Wissen.