/Politik

Das BKA will eine neue Gesichtserkennungs-Software testen

WIRED Staff 21.03.2017 Lesezeit 2 Min

Ein erster Testlauf für die automatisierte Gesichterkennung auf Überwachungsaufnahmen soll demnächst starten. Das BKA will mit einem System arbeiten, das selbstständig Gesichter aus Aufnahmen mit Bildern aus Datenbanken abgleicht, um „religiös motivierte Kriminalität“ zu bekämpfen. Datenschützer geben sich ob dieser Entwicklung alarmiert und verweisen auf eine mögliche Ausweitung der Nutzungsmöglichkeiten.

Herausgekommen ist der kommende Projektstart nach einer kleinen Anfrage der Linkspartei im Bundestag, berichtet unter anderem das Handelsblatt. Die Aufnahme des Probebetriebs steht laut BKA kurz bevor und soll im Gegensatz zur bisher eingesetzten Technik in Echtzeit ablaufen. Taucht dann auf einem Überwachungsvideo, das mit einem BKA-Rechner verbunden ist, eine im System registrierte Person auf, dürfte das einen Alarm auslösen oder zumindest für spätere Ermittlungen gespeichert werden. Das System wurde in der Anfrage nicht namentlich genannt, es könnte sich dabei aber um das von der BKA beschaffte „Examiner“ handeln, von dem Heise Online im Februar berichtet hatte.

Für Andrej Hunko von der Linksfraktion ist dies eine große Gefahr für den Datenschutz und das Prinzip der Datensparsamkeit. Vor allem der Abgleich von Personen aus Videoüberwachung im öffentlichen Raum durch automatisierte Verfahren sei kritisch zu betrachten. Er befürchtet eine rasante Zunahme des polizeilichen Abgleichs mit Gesichtsbildern. Wenngleich das BKA offenbar islamistischen Terror als Hauptgrund für den Einsatz der neuen Technik ansieht, könnten die Ermittler das System natürlich auch bei jedem erdenklichen anderen Hintergrund einsetzen.

Automatische Gesichtserkennung ist beim BKA nichts neues und angesichts der gewaltigen Datenmengen, die Überwachungskameras produzieren, auch durchaus notwendig. Seit 2008 kommt automatisierte Gesichtserkennung zum Einsatz, bislang allerdings nur bei Ermittlungen nach einer Straftat, also nicht in Echtzeit. Spätestens seit dem Anschlag auf den Boston Marathon 2013 wollen sowohl Politiker als auch Beamte das allerdings ändern. Pilotprojekte mit Systemen, die auch verdächtiges Verhalten per Bildinhaltanalyse erkennen sollen. An der „Detektion aggressiver Akte“, wie es im Forscherjargon heißt, muss allerdings noch gearbeitet werden.