Das von Google entwickelte Tool setzt auf ein Künstliches Neuronales Netz das mittels Bild- und Musterkennung schnell Fotomaterial erkenne, das höchstwahrscheinlich Kindesmissbrauch zeigt und dieses in Prioritätsgruppen einteilt. Je wahrscheinlicher es sich um illegales Material handelt, desto schneller kann es dann einem Menschen zur Kontrolle vorgelegt werden, schreibt The Verge. Geht es nach Google, sei es dadurch möglich, bis zu 700 Prozent mehr Material zu checken als bisher.
Bislang muss Material, das verdächtigt wird, kinderpornografische Inhalte zu zeigen, von Nutzern gemeldet und dann von menschlichen Moderatoren überprüft werden. Ist ein Bild oder Video einmal in den Datenbanken eingegeben, kann es von Systemen wie PhotoDNA anhand eines digitalen Fingerabdrucks wiedererkannt werden, wenn es erneut hochgeladen wird. PhotoDNA ist bislang die effektivste Software gewesen und wird unter anderem von Facebook, Twitter, Google und Microsoft eingesetzt. Das Google-Tool könne hingegen auch bislang unbekannte Bilder als verdächtig ausmachen.
Menschliche Mitarbeiter, die Bilder und Videos auf Kindesmissbrauch analysieren, sind einer enormen psychischen Belastung ausgesetzt. Googles Software ist nicht die erste, die diese Freiwilligen sowie Angestellten verschiedener Dienste und Behörden entlasten soll: Schon mindestens seit 2016 setzt Interpol mit iCOP ein System mit ähnlicher Funktion ein.
KI-gestützte Crawler wie der von Google könnten langfristig dafür sorgen, dass sich die Verbreitung von Kinderpornografie komplett ins Darknet zurückzieht, wo derartige Inhalte Schätzungen zufolge bereits heute rund 80 Prozent der umgeschlagenen Daten ausmachen. Die dortigen Strukturen zu infiltrieren, bedarf deutlich mehr Arbeit durch Ermittler.