Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

Einst Stoff für Hollywood, jetzt Realität: Die Polizei ermittelt mit Algorithmen

von Sonja Peteranderl
Big Data soll helfen, Verbrecher zu fassen, bevor sie das nächste Mal zuschlagen. WIRED war zu Besuch bei den Pionieren des Predictive Policing, der vorausschauenden Polizeiarbeit in Deutschland.

Dieser Artikel erschien zuerst in der gedruckten Ausgabe von WIRED im April 2016. Wenn ihr die Ersten sein wollt, die einen WIRED-Artikel lesen, bevor er online geht: Hier könnt ihr das Magazin testen.

Die Zukunft leuchtet an der Wand im Landeskriminalamt in München. Kriminalhauptkommissar Günter Okon hat sie dahin projiziert: eine Stadtkarte der bayerischen Landeshauptstadt. Einzelne Straßenzüge sind farbig in Rot, Gelb, Grün und Blau markiert. Die Farben stehen für unterschiedliche Wahrscheinlichkeiten, ob in den markierten Straßen demnächst Einbrecher zuschlagen könnten.

Die Software, die Okon bei der Verbrecherjagd hilft, heißt Precobs (Pre Crime Observation System). Okon arbeitet mit ihr seit Oktober 2014. Die Polizei hatte sich für den Start des Precobs-Pilotprojekts entschieden, nachdem sich Einbrüche in Bayern auffällig gehäuft hatten.

Precobs ist die Erfindung des Kriminalitätsforschers und Soziologen Thomas Schweer vom Institut für musterbasierte Prognosetechnik in Oberhausen. In den 2000er-Jahren begleitete er Zivilfahnder und Polizeistreifen, bis er begriff: Bei bestimmten Delikten wiederholen sich Muster, die Algorithmen besser erkennen als der Mensch.

Das Programm sucht in Einbruchsmeldungen nach Hinweisen, die auf organisierte Banden deuten. Es analysiert dafür Informationen wie Tatzeit, Tatort, Vorgehensweise, Beute und die Art des betroffenen Hauses. Die Voraussetzungen für zuverlässige Prognosen: gute Daten und Wiederholungstaten. Wenn bei einem Einbruch zum Beispiel eine Scheibe mit einem Stein eingeschlagen wird, deutet das eher auf einen Junkie hin. Dann löst Precobs keinen Alarm aus.

icon_cookie

Um diese Inhalte zu sehen, akzeptieren Sie bitte unsere Cookies.

Cookies verwalten

Schweers Vision: Big Data soll helfen, Verbrecher aus dem Verkehr zu ziehen, bevor sie das nächste Mal zuschlagen. Er gehört damit in Deutschland zu den Pionieren des Predictive Policing, der vorausschauenden Polizeiarbeit – ein Trend. Weltweit experimentieren Polizeieinheiten damit. Doch überwiegen bei Kommissar Algorithmus, der Verbrechen in Codes zerlegt, die Vorteile, oder sind die Gefahren am Ende größer? Die Antwort hängt davon ab, wen man fragt.

Okon gehört zu den erklärten Befürwortern. Er erlebt den Nutzen bei seiner Arbeit regelmäßig. Das System basiert auf der Annahme von Near Repeats. Unter bestimmten Voraussetzungen treten nach Einbrüchen in zeitlicher und räumlicher Nähe Folgedelikte auf. Wohlhabende Villenviertel sind für Banden nicht unbedingt attraktiv – weil sie auch mit besserer Sicherheit ausgerüstet sind. Oft hätten Täter Reihenhäuser mit guter Verkehrsanbindung im Visier, lautet das Fazit der Ermittler. In den von Precobs ermittelten Brennpunkten werden dann die Streifen verstärkt. So konnten Fahnder etwa Verdächtige festnehmen, die Einbruchswerkzeug dabeihatten.

Den Blick in die Glaskugel, die die Zukunft wie im Science-Fiction-Thriller Minority Report mit Tom Cruise magisch genau vorhersagt, leistet die Datenanalyse allerdings nicht. Predictive Policing unterstützt beim Ressourcen-Management, sie ersetzt aber keine Polizei-Expertise. In Bayern bewerten Kriminalisten die Lage, wenn Precobs einen Alarm auslöst – erst dann briefen sie Einsatzteams. Oder Beamte justieren die Software nach, wenn sie ein Phänomen entdecken, bei dem das Programm nicht angeschlagen hat. So werden die Teams zielgerichteter eingesetzt. „Es wird nicht die ganze Stadt beobachtet. In München decken wir zwölf Prozent der Fläche ab“, sagt Okon.

Nichts, was Polizisten nicht früher schon gemacht hätten, aber ohne Software hätte man die Erkenntnisse erst viel später

Bernhard Egger, LKA Bayern

Der zweite Vorzug: Die Polizei spart Zeit. „Precobs macht nichts, was Polizisten nicht früher auch schon gemacht hätten. Aber ohne Software hätte man die Erkenntnis zwei Wochen später“, sagt Bernhard Egger, Abteilungsleiter Zentrale Kriminalpolizeiliche Dienste beim Bayerischen LKA, der sich mit neuen Technologien beschäftigt.

Nach eigener Aussage verlief die Testphase erfolgreich. Im Sommer 2015 berichtete der bayerische Innenminister Joachim Herrmann, dass die Einbrüche in Precobs-Analyse-Gebieten um 42 Prozent zurückgegangen seien. Inzwischen kommt die Software in den Großräumen München und Nürnberg/Fürth dauerhaft zum Einsatz.

Egger ist bewusst, dass im Zusammenhang mit Predictive Policing Datenschutzprobleme und Bedenken wegen Überwachung auftauchen. Der Einsatz sei aber vom Bayerischen Datenschutzbeauftragten freigegeben, und Precobs arbeite nicht mit personenbezogenen, nur mit sachbezogenen Daten, betont er – ein Szenario wie etwa in den USA hält Egger in Deutschland für undenkbar.

Dort sind die Big-Data-Ansätze tatsächlich von einem anderen Kaliber. In Hightechzentren wie in Los Angeles oder Chicago fließen immense Datenmengen ein, die in Echtzeit verarbeitet werden – auch aus Überwachungskameras, Bodycams, sozialen Netzwerken, in Zukunft wohl auch zunehmend aus dem Internet of Things. In den USA und in England analysiert die Polizei auch Einzelpersonen. In Chicago wurde 2013 die Heat List eingeführt: eine als „Ranking der gefährlichsten Personen von Chigaco“ bekannt gewordene Liste mit 420 Personen, die in Zukunft mit hoher Wahrscheinlichkeit in Gewalttaten verwickelt werden. Bisherige Verhaftungen, Bewährungsstrafen, Drogen- oder Waffenbesitz, ihr soziales Netzwerk, ob Bekannte verhaftet oder erschossen wurden, flossen in die Bewertung ein. Dann folgte ein Hausbesuch der Polizei.

Die Unternehmensberatung Accenture hat 2014 für die Londoner Polizei in einem Pilotprojekt berechnet, ob Gangmitglieder zu Wiederholungstätern werden. Sie nutzte dafür Falldaten von 3000 straffällig gewordenen Personen, aber auch Social-Media-Kommentare von Kriminellen.

Im kalifornischen Fresno schätzt die Software Beware bei jedem Notruf das Risiko ab: Was könnte das Einsatzteam in dem Viertel erwarten, in das es gerufen wird? Müssen sie mit einem Kontrahenten rechnen, der eine Waffe besitzt? Die Software bewertet Bürger nach einem Ampelsystem: von grün, ungefährlich, bis rot, potenziell gefährlich. Um das Risiko abzuschätzen, durchforstet sie dem Hersteller Intrado zufolge „innerhalb von Sekunden Milliarden öffentlich zugängliche, kommerzielle Daten“, darunter wohl auch Kommentare aus sozialen Netzwerken.

Als sich der Stadtrat Clinton J. Olivier der Washington Post zufolge von der Polizei in Fresno sein Beware-Scoring demonstrieren ließ, wurde er selbst als ungefährlich eingestuft. Doch sein Haus erhielt aufgrund des Vorbesitzers einen gelben Status. „Obwohl ich nicht der gelbe Typ bin, würde die Polizei jeden, der in Boxershorts aus dem Haus kommen würde, wie einen gelben Typen behandeln“, so Olivier.

Diese Analysen sind in Formeln und Code gegossene Vorurteile

Anna Biselli, netzpolitik.org

In Chicago sagte ein 22-Jähriger gegenüber der Chicago Tribune: „Ich habe nichts gemacht, was das Kid von nebenan nicht auch gemacht hätte.“ Vermutlich führte sein soziales Netzwerk dazu, dass er sich im Ranking wiederfand, womöglich, weil es in seinem Bekanntenkreis einen Mord gegeben hatte. Mit Big Data ist es möglich, erweiterte soziale Netzwerke zu analysieren und größere Muster zu erkennen als bisher. „Es geht nicht nur um deine Freunde, sondern auch um die Strukturen ihrer Netzwerke“, sagt Andrew Papachristos, der an der Yale University Netzwerktheorien im Kontext von Gewalt erforscht.

Kritiker warnen, dass Predictive Policing Diskriminierung und Racial Profiling digital verstärke. Die Analysen seien „in Formeln und Code gegossene Vorurteile“, kritisiert Anna Biselli von netzpolitik.org. Robindra Prabhu vom Norwegian Board of Technology sagt: „Die Frage ist, wie man diese Algorithmen so kontrolliert, dass sie keine Black Boxes mit Nebenwirkungen bleiben.“ Sein Think Tank berät die norwegische Regierung und hat für eine jüngst veröffentlichte Studie den Status quo und potenziellen Nutzen von Predictive Policing analysiert.

Das Fazit: Von personenbezogener Datenanalyse raten die Experten ab, ortsbezogene Tools halten sie für interessant. „Man braucht aber Checks und Balances: Wenn die Polizei mit bestimmten statistischen Modellen arbeitet, sollte sie diese offenlegen“, sagt Prabhu. Zudem müsste der Einsatz von Prognosesoftware von unabhängigen Experten wissenschaftlich begleitet werden. Derzeit gebe es keine fundierten Studien, die öffentlich zugänglich sind, und den Erfolg von Prognosesoftware wirklich belegen. Viele Erfolgszahlen stammen von Herstellern, die ihr Produkt vermarkten wollen.

Man könne der Software nicht allein Erfolge nachweisen. Aber man könne gewisse Effekte zuweisen, glauben die Polizisten vom Bayerischen LKA dennoch. Auch wenn sich die Prognosesoftware ihre gesellschaftliche Akzeptanz noch erkämpfen muss: Die Tools, die Verbrechen vorhersagen, sind selbst längst schon Gegenwart. 

GQ Empfiehlt