In den USA lässt sich die Justiz gerne von künstlicher Intelligenz helfen.

Häufig berechnet zum Beispiel ein Algorithmus, wie hoch das Risiko ist, dass ein Straftäter rückfällig wird. Aber dieser Algorithmus funktioniert offenbar gar nicht so gut wie gedacht: Forscher konnten jetzt zeigen, dass 400 zufällig ausgewählte Internetnutzer fast genauso treffsicher waren. Zuerst haben die Wissenschaftler an den Biografien von 700 Straftätern überprüft, wie oft die Software richtig lag. Ergebnis: 65 Prozent der Vorhersagen stimmten.

Während der Algorithmus 137 Kriterien auswertet, zum Beispiel Alter oder Zahl der Vorstrafen, bekamen die Internetnutzer sehr viel weniger Information. Trotzdem war ihre Trefferquote mit 63 Prozent fast genauso gut. Und die Internetnutzer waren auch weniger voreingenommen: Der Algorithmus hat nämlich die Tendenz, weiße US-Bürger optimistischer und schwarze kritischer zu beurteilen.

Fazit der Wissenschaftler: Diese Ergebnisse sind beunruhigend und wecken erhebliche Zweifel an der Praxis, eine Software über das Schicksal von Straftätern entscheiden zu lassen.