Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Interpol setzt im Kampf gegen Kinderpornografie im Netz auf KI

von Liat Clark
Das iCOP-Projekt der Europäischen Kommission setzt Künstliche Intelligenz ein, um Fälle von Kinderpornografie im Internet ausfindig zu machen. Erste Strafverfolgungsbehörden nutzen die Software schon.

Interpol und andere Strafverfolgungsbehörden nutzen Künstliche Intelligenz, um Kinderpornografie aufzuspüren, die in Peer-to-Peer-Netzwerken geteilt wird. Die Technologie dahinter stammt von einem Team internationaler Wissenschaftler, das von der Europäischen Kommission ins Leben gerufen wurde: iCOP (Identifying and Catching Originators in P2P Networks) ist Teil des Safer-Internet-Programms der Kommission.

Die Herangehensweise unterscheidet sich stark von ähnlichen Initiativen wie Project Vic. Hier wurde das Weitergeben illegaler Medien zwischen internationalen Strafverfolgungsbehörden wird vereinfacht. Dazu werden Technologien wie Microsofts PhotoDNA eingesetzt, um kinderpornografische Inhalte mit digitalen Signaturen zu versehen. Die Informationen werden dann in globalen Datenbanken zusammengefasst und können genutzt werden, um dieselben Bilder und Videos online ausfindig zu machen. Bei neuen Ermittlungen kann so eine Menge Zeit gespart werden und Beamte müssen sich dem Material nicht direkt aussetzen. Außerdem können die Behörden über Ländergrenzen hinweg effizient arbeiten, Muster ausfindig machen und Täter sowie Opfer identifizieren.

iCOP auf der anderen Seite setzt zum ersten Mal maschinelles Lernen ein, um neue illegale Medien automatisch zu identifizieren. Die Hoffnung ist, dass Opfer auf diese Weise schneller gerettet und die Täter festgenommen werden können. Die Wissenschaftler des Projektteams kommen von der Lancaster University, dem Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und dem University College Cork, Irland. Claudia Peersman, Lingustin der Lancaster University und Hauptautorin der Studie über die eingesetzte Software, erzählt, dass die iCOP-Herangehensweise erst jetzt möglich sei, weil ein solches Projekt verschiedene Expertisen bedürfe. Das Team bestehe aus Bildanalysten, Linguisten und weiteren Fachleuten, so Peersman.

„iCop verbindet Text- und Bildanalyse, maschinelles Lernen und künstliche Intelligenz, um automatisch neue Dateien aufzuspüren, die in solchen Netzwerken geteilt werden. Das ist wichtig, weil neue Medien ein Hinweis auf kürzlich stattgefundenen oder noch andauernden Kindesmissbrauch sein können“, sagt Peersman. Studien zeigen, dass neue Bilder und Videos oft von den Tätern selbst oder ihnen nahestehenden Personen hochgeladen werden. Dem US-amerikanischen Nationalen Zentrum für vermisste und ausgebeutete Kinder zufolge, haben 16 Prozent der Menschen, die illegales Material besitzen, auch selbst schon Kinder körperlich missbraucht.

Die iCOP-Software wurde für das Gnutella-p2p-Netzwerk entwickelt, aber auch an „zehntausenden einzelnen Dateien“ trainiert, die von nicht-missbräuchlichen Medien, über Erwachsenen- bis hin zu Kinderpornografie reichten. Somit kann sie auch bei Ermittlungen eingesetzt werden, um den Computer eines Verdächtigen zu durchsuchen. Es ist entscheidend, alte Inhalte von erst kürzlich erstellten zu trennen, damit Ermittler zukünftige Verbrechen unterbinden können. Viele der Medien in den Datenbanken von Project Vic und anderen könnten dagegen Jahrzehnte alt sein.

Die Software wurde schon bei Interpol-Ermittlungen getestet. „Wir haben das Toolkit auf Interpols Systemen installiert und mit ihren Datenbanken verbunden,“ sagt Peersman. Mitglieder der Europäischen Kommission haben die Arbeit ausgewertet und kamen zu dem Ergebnis, dass nur 7,9 Prozent der getesteten Bilder und 4,3 Prozent der Videos fälschlicherweise als illegal erkannt wurden.

Schon während des Tests alarmierte die Software Interpol, sobald neues illegales Material hochgeladen wurde. „Wir konnten, zum Beispiel, die IP-Adresse der Uploader identifizieren und schauen, ob sie mit älteren Bildern in der Datenbank übereinstimmten.“ Software wie Microsofts PhotoDNA und auch iCOP helfen den Ermittlern nicht nur, Zeit zu sparen, sondern auch, weniger Zeit mit dem Betrachten potenziell traumatischer Bilder und Videos verbringen zu müssen.

„Das reduziert den Arbeitsaufwand deutlich“, sagt Awais Rashid von der Lancaster University. „Anstatt eine riesige Anzahl von Bildern und Videos zu durchforsten, um neue Inhalte zu identifizieren, in denen der sexuelle Missbrauch von Kindern dargestellt wird, bekommen Ermittler automatisierte Ergebnisse. Und die sind äußerst präzise. In der Praxis bedeutet das, dass Ermittler nur wenige Bilder und Videos anschauen müssen und nicht tausende.“

Das Toolkit ist für Strafverfolgungsbehörden inzwischen frei verfügbar, kann aber nicht an dem Ort genutzt werden, wo illegale Inhalte wahrscheinlich am häufigsten geteilt werden: im Darknet. 2014 haben Informatiker der University of Portsmouth sechs Monate lang das Darknet beobachtet und herausgefunden, dass 80 Prozent aller Besucher mit kinderpornografischen Inhalten in Verbindung stehen. Diesen Marktplatz zu infiltrieren, ist eine der zukünftigen Aufgaben des iCop-Teams.

„Es ist eine große Herausforderung“, sagt Peersman. „Dazu brauchen wir neue Herangehensweisen und Techniken.“ Obwohl das iCOP-System einen Meilensein in der Bekämpfung von Kinderpornografie ist, können laut Project Vic schon 85 Prozent der konfiszierten Bilder mit heutigen Tools identifiziert werden. Das bedeutet, dass sich die Ermittler auf die restlichen 15 Prozent konzentrieren können, unter denen wahrscheinlich viele aktuellere Verbrechen sind.

Dieser Artikel erschien zuerst bei WIRED UK.

GQ Empfiehlt