Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Kennt Google den Unterschied zwischen Schildkröten und Schusswaffen?

von WIRED Editorial
Die Entwickler von Mario Kart hatten Recht: Schildkröten sind saugefährlich! Solche mit grünem Panzer knallen durch die Gegend, die Roten jagen ihr Ziel. Die mit blauem Panzer und weißen Zacken: Grauenhaft! Ok... da geht es ein wenig mit uns durch. Wie auch immer: Auch Googles Künstliche Intelligenz (KI) hat offensichtlich ein Mario Kart-Schildkröten-Trauma. Wo normale Nicht-Nerds putzige Panzer sehen, sieht sie Schusswaffen.

Normalerweise ist die Google KI ziemlich gut darin, die Inhalte von Bildern zu erkennen. Wer einmal Googles umgedrehte Bildsuche zur Recherche benutzt hat, weiß: Einfach ein Pic vom Desktop in die Bilder-Suchleiste ziehen und Google findet die Zusammenhänge online. Es sei denn, es geht eben um bestimmte Schildkröten. Bei ihnen sieht Google keinen Panzer, keine Größe und keine Farbe – die KI sieht tatsächlich eine Waffe. Schuld daran sind Forscher des MIT Labsix.

Die haben gerade ein Konzept mit dem Namen adversarial image vorgestellt, das Googles Erkennung austrickst. Ihr System funktioniert übrigens nicht nur mit bewaffneten Schildkröten. In einem anderen Beispiel verwandeln die Forscher eine Katze vor den Augen der KI in eine Schale mit Guacamole. Jedenfalls ist sich das Programm zu 99 Prozent sicher. (Bei der Schusswaffe waren es 90 Prozent.)

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Das Konzept nutzt aus, was die Forscher als visual noise bezeichnen, also visuellen Lärm. Eine Bilderkennung bezieht sich auf ganz bestimmte Punkte, um etwa eine Schildkröte oder ein Gesicht zu identifizieren. Indem die Forscher genau hier kleinste Veränderungen vornehmen, verwirren sie die KI, während ein menschlicher Betrachter überhaupt keinen Unterschied erkennen kann.

Wer jetzt glaubt, KIs ab jetzt ohne Probleme unbrauchbar machen zu können: Das Ganze ist bisher nur ein Trick. Sobald ein Bild leicht rotiert, und sich damit die Bezugspunkte verändern, kommt auch die KI wieder klar. Dennoch warnen die MIT-Forscher: Machine Vision breite sich gerade weltweit in Windeseile aus, ohne dass ausreichend an die Gefahren gedacht werde. Immerhin versuchen Wissenschaftler schon jetzt, automatisch Waffen auf Überwachungsvideos zu erkennen. Man stelle sich beim darauffolgenden Zugriff der Polizei die Gefahr für die armen Schildkröten vor.

GQ Empfiehlt