Bislang stellte sich die Eliminierung von Deepfakes als schwierig heraus. Für jedes erfolgreich gelöschte Fake-Video werden oft direkt neue Clips veröffentlicht. Bei den gefälschten Videos oder Bildern werden Köpfe von prominenten Schauspielern oder Künstlern durch ein KI-gesteuertes Tool in Clips mit meist pornografischen Inhalten montiert, wie TheVerge berichtet.
Der Name ist eine Kombination aus „Deep Learning“ und „Fake“ und basiert darauf, dass das Tool zunächst mit vielen Fotos einer Person sowie pornographischem Filmmaterial angelernt wird. Die KI erkennt anhand der Filme die verschiedenen Körperteile und kann dann den Kopf einer beliebigen anderen Person in den Clip einfügen. Erstmals sorgten Deepfakes im Herbst vergangenen Jahres für Aufmerksamkeit, als ein Reddit-Nutzer unter dem Pseudonym Deepfakes mehrere gefälschte Pornovideos von bekannten Schauspielerinnen ins Netz stellte.
Seitdem haben mehrere Plattformen wie Twitter oder die GIF-Plattform Gfycat angekündigt, solche Inhalte auf ihren Webseiten zu löschen und deren Veröffentlicher zu sperren. Die SAG-AFTRA, ehemals Screen Actors Guild, vertritt knapp 160.000 Schauspieler und Künstler.
Ob solche Deepfakes legal sind oder nicht ist allerdings nicht eindeutig geklärt. Laut The Verge liegt die bestmögliche Anklage entweder auf Diffamierung oder Copyright-Verletzungen. Allerdings könnten auch diese Verteidigungsformen Probleme nach sich ziehen. Denn Prominente haben rechtlich gesehen möglicherweise weniger Anspruch auf Schutz der Privatsphäre, da sie ja „Personen des öffentlichen Interesses“ sind.