Zum Inhalt springen

Header

Video
«Precrime»: Ist das sinnvoll?
Aus Kultur Webvideos vom 15.10.2019.
abspielen
Inhalt

«Precrime» Ich weiss, wie gefährlich du bist

Verbrechen vorhersagen, bevor sie passieren: Das versucht die Polizei schon heute mit Computersystemen und künstlicher Intelligenz. Doch das wirft auch Fragen auf.

Es klingt nach Science-Fiction, ist aber bereits Realität: Algorithmische Vorhersagesysteme unterstützen die Polizei bei ihrer Arbeit. Diese Systeme helfen, Verbrechen zu verhindern. Wenn es sich um Delikte handelt, die mit Daten gut erfassbar sind – wie etwa Einbrüche –lassen sich auch schon Erfolge verzeichnen.

Die Stadtpolizei Zürich setzt seit fünf Jahren auf «Precobs», ein System, das Einbrüche vorhersagen kann. Es vergleicht Deliktdaten aus vergangenen Einbrüchen und prognostiziert Orte und Zeiten für mögliche Folgedelikte.

«In den gefährdeten Gebieten der Stadt haben sich die Einbruchszahlen in den letzten fünf Jahren halbiert», sagt Dominik Balogh, der Leiter Analyse und Entwicklung bei der Stadtpolizei Zürich. Obschon wohl nicht jeder Einbruch dank «Precobs» vereitelt wurde, könne man den Erfolg zu grossen Teilen dem System zusprechen.

Einbrüche eher, Menschen weniger

Schwieriger wird der algorithmische Ansatz bei Personen. Die Polizei von Chicago setzt ein Tool ein, das die Neigung zu Gewalt bei Personen einschätzt. Grundlage dafür ist die Verhaftungshistorie einer Person und Informationen aus den sozialen Netzwerken. Auch andere Polizeicorps in den USA setzen automatische Algorithmen ein.

Doch solche Tools stehen in der Kritik. «Verhaftungszahlen sind eine denkbar schlechte Grundlage. Viele werden nie verhaftet und solche, die verhaftet wurden, werden nicht verurteilt – das verzerrt das Bild», sagt Karen Yeung, Expertin für Recht, Ethik und Informatik an der University of Birmingham. Gehe ein Algorithmus bereits von falschen Annahmen aus, könne das Resultat fatal ausfallen.

Grundlegende Bedenken bei automatisierten Algorithmen

«Es stellen sich zudem Fragen der Fairness, der Transparenz und der Nachvollziehbarkeit solcher Systeme», sagt Abraham Bernstein, Professor für Informatik an der Universität Zürich und Experte für Künstliche Intelligenz.

Wer ist verantwortlich, wenn Algorithmen aus dem Ruder laufen? Bernstein fragt: «Wer erhebt die Daten? Wer definiert die Modelle und Methoden? Wer trainiert die Systeme? Wer wertet sie aus und wer setzt sie ein? Und an jeder Schnittstelle kann ein Prognosesystem beeinflusst werden.»

Menschenrechte schützen – jetzt

An diesen Fragen arbeitet derzeit eine Expertengruppe aus Vertretern der Wissenschaft, Staaten, privaten Unternehmen und NGO für den Europarat in Strassburg. Das Ziel liegt vor allem darin, die Menschenrechte rund um den Einsatz automatisierter Algorithmen zu schützen. Bereits wurden Richtlinien für Staat und Privatsektor zuhanden des EU-Ministerrats als Empfehlung definiert.

Meistgelesene Artikel

Nach links scrollen Nach rechts scrollen

9 Kommentare

Navigation aufklappen Navigation zuklappen

Sie sind angemeldet als Who ? (whoareyou) (abmelden)

Kommentarfunktion deaktiviert

Uns ist es wichtig, Kommentare möglichst schnell zu sichten und freizugeben. Aktuell sind keine Kommentare unter diesem Artikel mehr möglich.

  • Kommentar von Alex Volkart  (Lex18)
    Solche Systeme bringen nichts denn sie berechnen Wahrscheinlichkeiten, keine Tatsachen. Der Mensch neigt dazu sich viel zu häufig. Wahrscheinlichkeiten zu verlassen statt auf seinen gesunden Verstand. Wenn ein Computer berechnet das der Mensch neben mir zum Mörder wird heisst dass noch lange nicht dass es auch mal passiert.
  • Kommentar von Samuel Müller  (Samuel Müller)
    Schon mal die Begriffe „Hörner abstossen“ oder „Flegelalter“ gehört?
    Menschen befinden sich in unterschiedlichen Lebensphasen. Sie vor zu verurteilen nimmt jede Chance auf Erkenntnis und Besserung.
    Das Precrime Thema ist eine unglaubliche Horrorvorstellung für eine natürliche Entwicklung des Sozialverhaltens der Menschen. Unser Rechtsystem funktioniert. Warum daran rumbasteln? Der Mensch ist nicht perfekt und wird es nie sein. Precrime hingegen wäre ein Verbrechen an der Menschheit.
  • Kommentar von Rolf Künzi  (Unbestimmt)
    Wissen wir wirklich wer ein Psychopath ist. Die menschliche Psyche, verstehen wir sie wirklich. Es gibt zum Beispiel die Empathie die kein homogenes Phänomen ist, sie ist quasi schizophren. Und Starbombenentschärfer haben wie Mystiker die Fähigkeit in gewissen Situationen den Puls runter zu fahren und alle Gefühle auszuschalten. Genau wie Spitzenkrieger. Es ist nicht die Technologie die wie nicht verstehen es die menschliche Psyche.