Worum geht's?
Die App «Justice.exe» funktioniert so: Der Spieler übernimmt die Rolle eines Richters und urteilt über 50 kleine und schwere Verbrechen.
Zu sehen ist jeweils ein Bild des Verbrechers sowie Angaben zu Straftat, Herkunft, Alter, Beruf, Vorbestrafungen etc. Wählen kann man zwischen der minimalen oder der maximalen Strafe.
Am Schluss werden die Entscheide ausgewertet: Hat der Spieler härter geurteilt, wenn der Verbrecher schwarz war? War er gnädiger, wenn der Verurteilte eine Arbeit hatte?
Warum ist's interessant?
Jede Voreingenommenheit wird registriert und beeinflusst den Algorithmus. Und auch wenn der Spieler völlig unbefangen urteilt, leitet der Algorithmus ein Muster ab – in diesem Fall agiert der Algorithmus also genau so willkürlich.
Entwickelt wurde das Spiel von Studenten der University of Utah, um das Bewusstsein zu stärken, dass Algorithmen im Justizsystem gefährlich sein können. Denn diese werden in US-amerikanischen Gerichtssälen zum Teil angewendet, um ein Gerichtsurteil zu stützen.
Die Absicht hinter dieser juristischen Methode ist eine gut gemeinte: Durch den Algorithmus sollen fairere Urteile gefällt werden. «Justice.exe» aber zeigt: Auch Maschinen sind nur Menschen.