Hinweis zu Affiliate-Links: Alle Produkte werden von der Redaktion unabhängig ausgewählt. Im Falle eines Kaufs des Produkts nach Klick auf den Link erhalten wir ggf. eine Provision.

In Großbritannien soll eine KI der Polizei bei der Strafauswahl helfen

von Michael Förtsch
Die Polizei im britischen Durham wird bald von einer Künstlichen Intelligenz unterstützt. Sie soll den Beamten in einem Experiment helfen, über den Umgang mit Straftätern zu entscheiden. Dafür hat der digitale Polizist mehrere Jahre an Erfahrung aufgesaugt.

Schon in wenigen Monaten wird das Harm Assessment Risk Tool, kurz HART, in der 50.000-Einwohner-Stadt Durham seinen Dienst aufnehmen. Das System soll prognostizieren, mit welcher Wahrscheinlichkeit ein Straftäter wieder straffällig oder auffällig wird. Dafür ist die Künstliche Intelligenz, hinter der Forscher der University of Cambridge stehen, mit Daten aus mehreren Jahren polizeilicher Aufzeichnungen gefüttert worden. Darunter die Historie von tausenden Verhafteten, die zwischen 2008 und 2012 gesammelt wurden. Aus ihren Informationen soll das System nun ableiten, wie stark der Hang eines Menschen zur Kriminalität ist.

Während eines Kurzexperiments im Jahr 2013 sagte HART bereits voraus, ob ein Festgenommener innerhalb von zwei Jahren erneut Probleme machen würde. Dabei lag die Künstliche Intelligenz in rund 90 Prozent der Fälle richtig. Nun soll das Computersystem im Zuge eines ausgedehnten Testlaufs die Beamten bei ihrer regulären Arbeit unterstützen. Vor allem wenn es darum geht, den Zeitraum für eine Untersuchungshaft festzulegen oder zu entscheiden, ob eine Person auf Kaution freigelassen werden soll. Dabei gäbe HART laut Co-Entwickler Lawrence Sherman „nur eine Entscheidungshilfe“, in dem es Menschen mit einem niedrigen, mittleren oder hohen Risikofaktor bewertet. Die finale Wahl träfe letztlich aber immernoch der Richter.

Dennoch ist Skepsis angebracht. Wissenschaftler des Alan Turing Institute in London, der University of Oxford und University of Pennsylvania warnen seit langem, dass auch Künstliche Intelligenzen rassistische oder vorurteilsbehaftete Entscheidungen treffen. Erfasst eine KI beispielsweise, dass Personen aus einem Vorort besonders oft straffällig werden, könnte sie plötzlich einem sonst unbescholtenen Bürger seine Postleitzahl als Negativpunkt anlasten. Gleiches könnte für dessen Hautfarbe oder Religion gelten. Laut den HART-Entwicklern soll das Live-Experiment genau das klarstellen, wer nun besser und objektiver urteilt. Der Mensch oder die Maschine.

GQ Empfiehlt