Wir müssen über Algorithmen reden

Aus unserem Alltag sind Algorithmen kaum mehr weg zu denken. Sie erleichtern vieles, verursachen aber auch neue Probleme. Die deutsche Informatikerin Katharina Zweig der Initiative «Algorithm Watch» will ihnen auf die Finger schauen, denn die Anwendungen werden immer zahlreicher und komplexer.

Gesicht eines Mannes im Schein eines Tablets. Bild in Lightbox öffnen.

Bildlegende: Preise bei Uber, News auf Facebook: Was und wie wir konsumieren, entscheiden häufig Algorithmen. Keystone

  • Algorithmen bestimmen immer mehr Aspekte unseres digitalen Alltages: individualisierte Preise, Berechnungen der Kreditwürdigkeit oder Newsfeeds.
  • Der Prozess hinter den algorithmusbasierten Entscheidungen bleibt den Benutzern meist verborgen.
  • Die neu lancierte Initiative «Algorithm Watch» mehr Transparenz und eine Diskussion über die Verantwortung.
  • Algorithmen auf Facebook, Uber oder anderen Plattformen können durch Crowdsourcing-Projekte auf Diskriminierung oder Fehler überprüft werden.

Bessere Jobs für Männer

Algorithmen gliedern unsere Facebook-Timeline, zeigen Suchergebnisse oder empfehlen uns «Bücher, die andere Kunden auch angesehen haben». Die vielen Algorithmen und Programme laufen still im Hintergrund unseres Alltags wirken ob ihrer mathematischen Natur neutral. Sie sind jedoch nicht unfehlbar.

Das Thema ist nicht nur technisch, sondern auch gesellschaftlich relevant: Ein Bilderkennungsprogramm sollte Menschen mit dunkler Hautfarbe nicht als Gorillas identifizieren. Googles Suchalgorithmus sollte bei Männern nicht automatisch die besseren Jobangebote anzeigen als bei Frauen. Beides ist jedoch schon vorgekommen.

Aus Versehen Terrorist?

«Viele Algorithmen treffen Entscheidungen über Menschen, da können Fehler passieren», sagt die Informatikerin Katharina Zweig. Das Anwendungsgebiet ist gross: von fahrerlosen Autos über Kreditvergaben und individualisierte Preise bis zur Terrorbekämpfung.

«Es gibt auch Geheimdienste, die mit Algorithmen versuchen Terroristen zu identifizieren. Da interessiert mich die Falsch-Positiv-Rate. Also, wie viele der Identifizierten tatsächlich verdächtig sind. Als Bürger sollte uns das interessieren.»

Darum und weil immer komplexere Prozesse unseren Alltag beeinflussen, lancierte Katharina Zweig mit zwei Journalisten und einer Rechtsphilosophin Anfang Mai die Initiative «Algorithm Watch». Die Initiative will sich für mehr Transparenz bei Algorithmen und der Auswertung grosser Datenmengen einsetzen.

100 Sekunden Wissen «Algorithmus»

2:23 min, aus 100 Sekunden Wissen vom 20.12.2013

Hinterfragen und verbessern

Zweig verteufelt Algorithmen keineswegs. Algorithmen seien automatische Problemlöser, erklärt Zweig. «Dem Algorithmus ist egal, welche Daten er sortiert. Je nach Art der Daten, die er gefüttert kriegt, ist die Bedeutung durchaus anders.» Damit Algorithmen nicht unbedarft Vorurteile zementieren, wie im Falle der Jobanzeigen auf Google, müssten die Prozesse immer wieder hinterfragt und verbessert werden.

Zusatzinhalt überspringen

Zur Person

Katharina Zweig

zvg

Katharina Anna Zweig ist Professorin für «Graphentheorie und Analyse komplexer Netzwerke» an der technischen Universität Kaiserslautern. Sie erforscht Netzwerke und Algorithmen im Bezug auf Verantwortlichkeiten und Diskriminierungsfreiheit.

Transparenz bedeute für «Algorithm Watch» nicht eine vollständige Offenlegung der Algorithmen, ergänzt Zweig. Es komme darauf an, wie viel Transparenz möglich ist, ohne einer Manipulation Tür und Tor zu öffnen: «Wenn jeder wüsste, wie die Google-Suche genau funktioniert, könnte jeder seine Website so präparieren, dass sie in Suchresultaten zuoberst landet. Auch wenn sie dort inhaltlich nichts verloren hat.»

Transparenz, die jeden betrifft

Transparenz will «Algorithm Watch» in erster Linie mit Kommunikation erreichen. Auf ihrer Website veröffentlichen sie Blogbeiträge zum Thema. Die Initianten sehen sich auch als Anlaufstelle für Politik und Medien, aber auch für einzelne Bürger, die als Internetnutzer direkt betroffen sind.

Geplant seien Crowdsourcing-Projekte, die Resultate von Algorithmen testen. Zum Beispiel könne man prüfen, wie fair die variierenden Preise der Mitfahr-Dienst Uber tatsächlich sind. Mit der Hilfe von Usern könnte «Algorithm Watch» auch die Auswirkung des Facebook-Algorithmus auf die Medienvielfalt testen.

Die Algorithmen und Prozesse des Tech-Unternehmens beeinflussen den Informationsfluss von weltweit über einer Milliarde Nutzern. Eine Milliarde Nutzer, die ihrereseits Unmengen neuer Daten generieren. Spätestens da dürfte
jedem einzelnen klar werden, warum sich die vier Initianten zu «Algorithm Watch»
formiert haben: «Wir sind einfach vier Bürger, die sagen, dass Algorithmen ein
wichtiges Thema sind.»