Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Intelligente Videoüberwachung hat einen hohen Preis

von Sonja Peteranderl
Das Versprechen lautet: Algorithmen können Gefahren schneller erkennen und Verdächtige früher identifizieren. Doch für intelligente Videoüberwachung zahlt die Gesellschaft einen hohen Preis.

Dieser Artikel erschien zuerst in der gedruckten Ausgabe des WIRED Magazins im Juni 2017. Wenn ihr die Ersten sein wollt, die einen WIRED-Artikel lesen, bevor er online geht: Hier könnt ihr das WIRED Magazin testen.

Menschenmassen drängeln sich auf engstem Raum. Eine Person sinkt zu Boden. Inmitten der Bahnhofshalle steht ein Koffer. Ist das Gepäckstück Vorbote eines Attentats? Eskaliert gerade eine Massenpanik oder eine Schlägerei? In Zukunft sollen Algorithmen solche Situationen erkennen, bevor sie zu einer echten Gefahr werden.

Im Rahmen eines Pilotprojekts verwandelt sich der Bahnhof Berlin Südkreuz im Herbst 2017 in einen „Sicherheitsbahnhof“: Intelligente Videoüber­wachung soll aus der Flut der Alltagsszenen Situationen herausfiltern, die auf Probleme oder sogar Attentate hindeuten könnten. Potenzielle Risikoszenen stellt die Software prominent dar, sodass Sicherheitskräfte alarmiert werden. Markieren die Beobachter Verdächtige am Bildschirm, können sie den Weg der Personen sogar automatisch über mehrere Kameras hinweg verfolgen, während diese durch den Bahnhof laufen, live oder auf Archivbildern.

Zusätzlich spürt Gesichtssoftware Verdächtige in der Menge auf und identifiziert sie: Während der Testphase gleicht die Software Live-Aufnahmen mit einer Datenbank ab, in der Fotos von Testpersonen abgespeichert sind. Passanten werden während des Pilotprojekts auf die Überwachung hingewiesen und können ausweichen.

Deutsche Bahn, Bundespolizei und Bundeskriminalamt tes­ten eine Zukunft an, in der effizientere Technologie für mehr Sicherheit sorgen soll. Unterstützung kommt von höchster politischer Ebene. „Der Einsatz von Videoüberwachungsanlagen trägt schon heute zur Aufklärung von Straftaten bei und steigert das Sicherheitsbefinden“, kündigte Bundesinnen­minister Thomas de Maizière das Pilotprojekt an. „Intelligente Gesichtserkennungssysteme könnten zukünftig noch wesentlich bessere Ergebnisse bringen. Technischer Fortschritt darf nicht bei den Sicherheitsbehörden haltmachen.“

Je besser Qualität und Reichweite solcher Methoden werden, umso weniger wird man sich entziehen können

Die Angst vor Terror ebnet auch in Deutschland dem Ausbau von Videoüberwachung den Weg – obwohl ihre Wirkung auf Sicherheit und Abschreckung von Verbrechern umstritten ist. Erfolge werden vor allem anekdotenhaft belegt. Bis heute ist unklar, ob Kameras Kriminalität vorbeugen – oder nur eine Scheinsicherheit vermitteln. „Studien haben gezeigt, dass sich Bürger durch Kameras sicherer fühlen, aber es wurden bisher keine echten Beweise veröffentlicht, die belegen, dass die Mehrzahl der Überwachungskameras auf privatem und öffentlichem Gelände einen messbaren Einfluss auf Sicherheit oder Kriminalität haben“, kritisiert die britische Bürgerrechtsorganisation Big Brother Watch.

Und die Briten wissen, wovon sie sprechen. Jeder Londoner etwa wird täglich mehr als 300 Mal von Überwachungskameras erfasst. Seit den sexuellen Übergriffen in Köln 2015 und dem Terroranschlag auf den Berliner Weihnachtsmarkt im vergangenen Jahr verschiebt sich auch in Deutschland die Balance zwischen Sicherheitsbedenken und Privatsphäre. Die Gesellschaft ist verunsichert und Überwachung salonfähiger geworden.

Der Einsatz intelligenter Software schwächt die Argumente derer, die vor einem ausufernden Überwachungsstaat warnen. Denn Verfechter von intelligenter Videoanalyse betonen, dass nur ins Visier der Polizei gerät, was relevant ist. Anders gesagt: Wer nichts zu verbergen hat, hat kein Problem. Die Vision der Sicherheits­behörden lautet: Softwarebasierte Videotechnik ermöglicht  gezieltere Überwachung und macht sie effektiver.

Bislang verzweifeln Ermittler oft an der Bilderflut. „Es ist sehr herausfordernd, ständig eine Vielzahl von Monitoren beziehungsweise Bildausschnitten im Blick zu behalten. Man kann keinem Mitarbeiter zu­muten, länger als zwei Stunden auf die Bildschirme zu starren“, sagt der ehemalige leitende Polizeidirektor Wolfgang Blindenbacher, Chef der Kommission für Verkehrssicherheit bei der Deutschen Polizeigewerkschaft und Experte für Videoüberwachung. „Das wäre mit intelligenten Videoüber­wachungssystemen anders, weil sie das, was relevant ist, auf den Hauptbildschirm übertragen und das sogar mit einem akustischen Signal unterlegen.“

Bei smarten Kameras hätte die Polizei weniger Veran­lassung, alles selbst anzusehen. Nur die bedeutsamen Sachverhalte würden gesichtet, erklärt Blinden­bacher. Bestimmte Privatbereiche, Gesichter und Kennzeichen könnten per Software sogar ausgeblendet oder verpixelt werden, eine Art Datenschutz light. Ungewiss ist aber, ob und wie solche Filter in der Praxis angewandt werden – und wie zuverlässig die Software ist. Welche Situationen sind einprogrammiert? Welche Datenbanken sind mit der Software verknüpft, falls es um Gesichtserkennung geht? Wie hoch sind die Trefferquoten?

Selbst wenn die Software so treffsicher wäre, dass sie die richtigen Verdächtigen und Gefahrenlagen herausfiltert, wird als Beifang eine Riesenmenge anderer Daten und Personen gescannt. Der Deutsche Richterbund hat deshalb verfassungsrechtliche Bedenken, weil die Überwachung überwiegend Personen trifft, die keinen Anlass dafür geben: „Das Vorhandensein einer Vielzahl von Video­überwachungsanlagen führt zu einem diffusen Gefühl des permanenten Überwachtwerdens. Das stellt bereits einen Eingriff in grundrechtliche Belange dar.“ Jeder stünde damit unter Ge­neralverdacht. Der Preis für die angebliche Sicherheit: Dauer­kontrolle. Mit zunehmender Qualität der Technologie und Reichweite gibt es irgendwann keinen Opt-out mehr.

Sollten derartige Systeme in den Echtbetrieb gehen, wäre dies ein erheblicher Grundrechtseingriff

Andrea Vosshoff

In anderen Ländern sind Videosysteme längst Alltag, die auf algorithmische Muster­erkennung und Gesichtserkennung setzen. In Boston etwa wurde die Videoüberwachung nach dem Bombenanschlag auf den Marathon 2013 ausgeweitet. Hochauflösende Kameras zoomen Details und Verdächtige heran. Algorithmen durchforsten das Geschehen live, sie lernen  selbstständig, welche Aktivitäten auffällig sind.

Oft wird Gesichtserkennung bei Sportveranstaltungen eingesetzt: In den Niederlanden oder Russland werden so Stadien vor Hooligans geschützt, die in einer Datenbank erfasst sind. Alexey Markachev von der russischen Sicherheitsfirma STC zufolge liegt die Erfolgsrate bei der Erkennung zwischen 88,8 und 98,8 Prozent. Auch Bayern plant, eine mobile Videoüber­wachungsanlage für Großveranstaltungen anzuschaffen, die mit intelligenter Videotechnik ausgestattet werden kann.

Aber was auf begrenztem Raum und bei einer eingeschränkten Personengruppe vielleicht funktioniert, führt an öffentlichen Plätzen nicht notwendigerweise dazu, Gewalt­akte und Terroranschläge zu verhindern. Zu allem entschlossene Täter lassen sich kaum abschrecken. Manchmal provozieren Kameras sogar Gewalt: Die Öffentlichkeitsfahndung nach dem Berliner „U-Bahn-Treter“ mit Kamerabildern war zwar erfolgreich – danach traten jedoch mehrere Nachahmer in anderen deutschen Städten Frauen U-Bahn-Treppen hinunter. Terroristen suchen sich gezielt gut beobachtete Plätze aus. Die Bilder vergrößern den Schrecken.

Ob sich das Berliner Pilotprojekt als Modell durchsetzen könnte, ist unklar. Die automatisierte Gesichtserkennung findet die Bundesbeauftragte für Datenschutz und Informationsfreiheit, Andrea Voßhoff, bedenklich: „Sollten derartige Systeme später einmal in den Echtbetrieb gehen, wäre dies ein erheblicher Grundrechtseingriff.“ Da für softwarebasierte Videoüberwachung noch kein Gesetz existiert, müsste ein parlamentarischer Prozess erst rechtliche Grundlagen schaffen – ein weiteres Tauziehen zwischen Sicherheit und Privatsphäre.  

GQ Empfiehlt
Wen sollten autonome Autos opfern?

Wen sollten autonome Autos opfern?

von Chris Köver