Correctional Offender Management Profiling for Alternative Sanctions
Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) ist ein Algorithmus, der auf Basis von 137 Merkmalen eine Wahrscheinlichkeit dafür errechnet, ob Straftäter rückfällig werden oder nicht. Der Algorithmus ist proprietär, d. h. er gehört der Firma Equivant und ist daher nicht öffentlich zugänglich. Es ist damit unbekannt, wie er genau funktioniert und COMPAS ist somit eine Black Box.[1]
Kritik
[Bearbeiten | Quelltext bearbeiten]Eine Studie („Pro Publica“-Studie) 2016 ergab jedoch, dass COMPAS besonders häufig und in einer bestimmten Richtung irrte, wenn man die Hautfarbe der Betroffenen einbezog. Personen mit „schwarzer Hautfarbe“ wurden demnach von dieser Software fast doppelt so häufig fälschlicherweise als rückfallgefährdet eingestuft wie Personen mit „weißer Hautfarbe“. Ebenso wurde umgekehrt bei Personen mit „weißer Hautfarbe“ das Rückfallrisiko von COMPAS als niedriger eingeschätzte.[2] Bei Überprüfung durch unbeteiligte, nicht juristisch gebildete Testpersonen ergab sich, dass diese ähnlich gute „Vorhersagen“ zur Rückfallhäufigkeit von Straftätern erreichen, wie dieses Programm.[3]
Eine ähnliche Software wurde entwickelt, um mittels eines Algorithmus (Public Safety Assessment) festzulegen, wer eine Geldkaution zu hinterlegen hat und wer nicht (Siehe: US-Kautionssystem).
Hersteller
[Bearbeiten | Quelltext bearbeiten]Das Programm wurde von der Fa. Northpointe entwickelt. Das Unternehmen wurde in die Fa. Equivant umfirmiert.
Loomis v. Wisconsin
[Bearbeiten | Quelltext bearbeiten]In der Rechtssache Loomis v. Wisconsin wurde eine Überprüfung der Entscheidung an den Obersten Gerichtshof der Vereinigten Staaten gerichtet, um das zuvor vom Wisconsin Supreme Court gefällte Urteil Staat Wisconsin gegen Loomis aufheben zu lassen.[4] In der Eingabe wurde die Verwendung der COMPAS-Software bei der Verurteilung von Eric Loomis zu sechs Jahren Gefängnis beanstandet[5], weil dadurch das Recht des Beschuldigten auf ein ordnungsgemäßes Verfahren verletzt worden sei.[6][7][8]
Der Oberste Gerichtshof hat jedoch die Behandlung des Falles am 26. Juni 2017 abgelehnt.[9][10]
Weblinks
[Bearbeiten | Quelltext bearbeiten]- Christian Stöcker: Menschen sind so schlau wie die teure Maschine, Spiegel online vom 28. Januar 2018.
- „Pro Publica“-Studie – Machine Bias (englisch).
- Are programs better than people at predicting reoffending?. The Economist, 17. Januar 2018.
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ Algorithmen entscheiden über Haft oder Bewährung, Webseite der Verwaltungsrichter-Vereinigung vom 30. Januar 2018.
- ↑ Christian Stöcker: Menschen sind so schlau wie die teure Maschine, Spiegel online vom 28. Januar 2018.
- ↑ Studie von Julia Dressel, Hany Farid: The accuracy, fairness, and limits of predicting recidivism (englisch)
- ↑ Loomis v. Wisconsin, Petition for certiorari denied, 26. Juni 2017.
- ↑ Mitch Smith: In Wisconsin, a Backlash Against Using Data to Foretell Defendants’ Futures, 22. Juni 2016.
- ↑ State v. Loomis, Harvard Law Review, 10. März 2017.
- ↑ STATE of Wisconsin, Plaintiff–Respondent, v. Eric L. LOOMIS, Defendant–Appellant., Supreme Court of Wisconsin, 13. Juli 2016.
- ↑ Rebecca Wexler: When a Computer Program Keeps You in Jail.
- ↑ ORDER LIST: 582 U.S., 26. Juni 2017.
- ↑ Eric L. Loomis, Petitioner v. Wisconsin, 12. Oktober 2016.