/Life

Rassismus im Code? US-Justiz-Algorithmen benachteiligen systematisch Schwarze

Benedikt Plass-Fleßenkämper 24.05.2016

Die US-Justiz setzt Software ein, die die Rückfallgefahr von Straftätern berechnen soll. Wie die Investigativ-Plattform ProPublica herausgefunden hat, benachteiligt diese systematisch Afroamerikaner – ihnen wird fälschlicherweise fast doppelt so häufig ein Rückfallrisiko bescheinigt wie Weißen. Der Fall dürfte in den USA eine gesellschaftliche Debatte auslösen.

Können Computer rassistisch sein? Die Konsequenzen ihrer Berechnungen jedenfalls schon. Das zeigen die jüngsten Nachforschungen des unabhängigen Rechercheportals ProPublica. Wie die Journalisten der Plattform anhand einer ausführlichen Analyse herausgefunden haben, benachteiligt die in den USA zur Risikobewertung von Angeklagten eingesetzte Software Compas (Correctional Offender Management Profiling for Alternative Sanctions) systematisch Menschen mit schwarzer Hautfarbe.

Die vom Unternehmen Northpointe entwickelten Algorithmen berechneten ProPublica zufolge bei Schwarzen fast doppelt so häufig wie bei Weißen fälschlicherweise eine hohe Rückfallgefahr. Gleichzeitig wurde eine tatsächliche erneute Straftat von weißen Kriminellen demnach fast doppelt so oft nicht vorhergesagt wie bei Schwarzen.

Erschreckend niedrige Trefferquote
ProPublica analysierte Risikobewertungen von mehr als 10.000 Personen, die in den Jahren 2013 und 2014 in Broward County, Florida festgenommen wurden. Das Ergebnis: In den beiden Folgejahren wurden lediglich 61 Prozent der von der Software als Wiederholungstäter eingestuften Personen tatsächlich wieder straffällig, wobei Schwarzen ein vielfach höheres Rückfallrisiko berechnet worden war.

Noch höher ist die Fehlerquote der Software in Bezug auf Gewaltdelikte – lediglich 20 Prozent der als rückfallgefährdet eingestuften Personen begingen wieder solche Taten. Und auch hier wurde Afroamerikanern zu Unrecht ein vielfach höheres Risiko bescheinigt.

Fehlerhafte Algorithmus-Voraussagen
Anhand konkreter Beispiele schildert ProPublica, wie die fehlerhaften Analysen im Einzelfall aussehen können. So wird in dem öffentlich einsehbaren Report der Fall einer 18-jährigen Schwarzen geschildert, die ein fremdes Kinderfahrrad zu fahren versuchte, dieses aber nicht stahl. Die Software berechnete für die junge Frau, die bis dato vier leichte Vergehen begangen hatte, ein hohes Wiederholungstäter-Potenzial – sie wurde bis heute allerdings nicht rückfällig.

Im Gegensatz zu einem 41-jährigen Weißen, der schon wegen zwei bewaffneter Überfälle und einem versuchten bewaffneten Überfall verurteilt wurde. Ihm wurde nur ein geringes Rückfallrisiko zugeschrieben, mittlerweile sitzt er eine achtjährige Haftstrafe wegen schweren Diebstahls ab.

Fatale Folgen für Justizsystem und Gesellschaft
Die Software kategorisiert zwar nicht die Hautfarbe der Angeklagten, sehr wohl fließen aber Aspekte wie Wohngebiete, soziale Netzwerke und Arbeitslosigkeit in die Auswertung ein. Dass es dabei zu solch starken Verzerrungen kommt, ist laut ProPublica äußerst problematisch.

Risikobewertungs-Tools werden in verschiedenen Bereichen des US-Justizsystems schon seit Jahren benutzt und die berechnete Wahrscheinlichkeit, ob straffällig gewordene Personen zu Wiederholungstätern werden, fließen direkt in ihre Verurteilungen ein. Ob die Höhe des Strafmaßes, festgelegte Kautionen oder eine mögliche frühere Haftentlassung auf Bewährung – wenn der Algorithmus Alarm schlägt, hat das für den Angeklagten womöglich schwerwiegende Folgen.

Hersteller Northpointe hat die Anschuldigungen von ProPublica zwar zurückgewiesen, doch die Enthüllungen könnten in den USA eine neue gesellschaftliche Debatte um Sinn und Unsinn solcher Algorithmen auslösen. Gerade die mangelnde Transparenz von Analysesoftware ist ein zentrales Problem, da die Hersteller oft keinen Einblick geben, auf Basis welcher Aspekte die Risikobewertung erfolgt.

+++ Mehr von WIRED regelmäßig ins Postfach? Hier für den Newsletter anmelden +++