Normalerweise ist die Google KI ziemlich gut darin, die Inhalte von Bildern zu erkennen. Wer einmal Googles umgedrehte Bildsuche zur Recherche benutzt hat, weiß: Einfach ein Pic vom Desktop in die Bilder-Suchleiste ziehen und Google findet die Zusammenhänge online. Es sei denn, es geht eben um bestimmte Schildkröten. Bei ihnen sieht Google keinen Panzer, keine Größe und keine Farbe – die KI sieht tatsächlich eine Waffe. Schuld daran sind Forscher des MIT Labsix.
Die haben gerade ein Konzept mit dem Namen adversarial image vorgestellt, das Googles Erkennung austrickst. Ihr System funktioniert übrigens nicht nur mit bewaffneten Schildkröten. In einem anderen Beispiel verwandeln die Forscher eine Katze vor den Augen der KI in eine Schale mit Guacamole. Jedenfalls ist sich das Programm zu 99 Prozent sicher. (Bei der Schusswaffe waren es 90 Prozent.)
Das Konzept nutzt aus, was die Forscher als visual noise bezeichnen, also visuellen Lärm. Eine Bilderkennung bezieht sich auf ganz bestimmte Punkte, um etwa eine Schildkröte oder ein Gesicht zu identifizieren. Indem die Forscher genau hier kleinste Veränderungen vornehmen, verwirren sie die KI, während ein menschlicher Betrachter überhaupt keinen Unterschied erkennen kann.
Wer jetzt glaubt, KIs ab jetzt ohne Probleme unbrauchbar machen zu können: Das Ganze ist bisher nur ein Trick. Sobald ein Bild leicht rotiert, und sich damit die Bezugspunkte verändern, kommt auch die KI wieder klar. Dennoch warnen die MIT-Forscher: Machine Vision breite sich gerade weltweit in Windeseile aus, ohne dass ausreichend an die Gefahren gedacht werde. Immerhin versuchen Wissenschaftler schon jetzt, automatisch Waffen auf Überwachungsvideos zu erkennen. Man stelle sich beim darauffolgenden Zugriff der Polizei die Gefahr für die armen Schildkröten vor.