Zum Inhalt springen

Header

Foto eines Tablet-Computers, auf dem ein Twitter-Account zu sehen ist.
Legende: Weiblich, um die 20 Jahre alt, aus den USA – und Roboter. SRF
Inhalt

Netzwelt Chat-Roboter sollte Liebe austeilen, wurde aber zur Hass-Maschine

Microsoft schuf eine künstliche Intelligenz, die so intelligent dann doch nicht war: Der Chat-Roboter «Tay» sollte im Netz lernen, wie junge Menschen kommunizieren. Doch er hatte eine Schwachstelle: Er wiederholte ungefiltert Hass-Kommentare. Nach 24 Stunden musste das Experiment abgebrochen werden.

Um was geht's?

Microsoft hat einen Chat-Roboter auf die Netzgemeinde losgelassen, mit ein paar Floskeln wie «Hallo, wie geht's?» oder «Schickt mir ein Foto». Im Austausch mit Twitter-Usern sollte dieser dazulernen, wiederholen, kombinieren.

Statt «smart» – wie Microsoft ihn geplant hatte –, wurde er innerhalb weniger Stunden zu einer Hass-Maschine. User fanden heraus, dass sie den Roboter dazu bringen konnten, Aussagen zu wiederholen.

Nachdem sich auf Tays Twitter-Account Posts häuften wie «Feministen sollten in der Hölle verbrennen» oder «Hitler hatte recht. Ich hasse Juden», schaltete Microsoft den Bot aus und löschte alle politisch unkorrekten Einträge. Das Unternehmen entschuldigte sich und versprach, die künstliche Intelligenz zu überarbeiten.

Warum ist's interessant?

Das Experiment zeigt, dass Unternehmen fleissig an künstlicher Intelligenz arbeiten, die vom Menschen lernen und diesem dadurch näherkommen soll. Während in China ein Chat-Roboter, Link öffnet in einem neuen Fenster seit 2015 zum mitfühlenden Freund von Millionen Chinesen gehört, ist er in der englischen Version zum Feind politischer Korrektheit geworden.

Es zeigt aber auch, dass Bots nicht klüger sind als die Menschen, die sie programmieren, bzw. beeinflussen – und keine Moral haben. Und dass die Gefahr des Missbrauchs und der Manipulation dementsprechend gross ist.

Screenshot

Box aufklappen Box zuklappen

Wir sprechen über aktuelle Geschichten und Debatten im Internet. Von Montag bis Donnerstag um 17.40 Uhr in der Rubrik «Screenshot» bei Radio SRF 2 Kultur.

Meistgelesene Artikel

Nach links scrollen Nach rechts scrollen

4 Kommentare

Navigation aufklappen Navigation zuklappen

Sie sind angemeldet als Who ? (whoareyou) (abmelden)

Wir haben Ihren Kommentar erhalten und werden ihn nach Prüfung freischalten.

Einen Kommentar schreiben

verfügbar sind noch 500 Zeichen

Mit dem Absenden dieses Kommentars stimme ich der Netiquette von srf.ch zu.

Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.

  • Kommentar von Ruben S. , Thurgau
    ''zum mitfühlenden Freund von Millionen 'Chinesen Menschen' gehört''?
    Antworten anwählen um auf den Kommentar zu antworten
    1. Antwort von SRF Kultur (SRF)
      Vielen Dank für den Hinweis auf den Fehler, wir haben ihn korrigiert.
  • Kommentar von Goldman.jacob , Fribourg
    Offenbar hat dieser AI-Roboter mit seinen Recherchen, die er offenbar imstande war auszuführen, Dinge gefunden, die nicht ganz ins heutige Narrativ passen. Warum wohl schreibt der Bot "Hitler hatte recht"? Nur ein Programmierfehler, oder wurde wirklich das GANZE Internet durchsucht und dabei auch Dokumente und Unterlagen gefunden, die den Holocaust zumindest teilweise in Frage stellen? Hm spannend, wenn das ein Mensch so sagen würde, gäbe es wohl die sofortige Verhaftung und Gefängnis.
    Antworten anwählen um auf den Kommentar zu antworten
    1. Antwort von Peter Meier , Zürich
      Der Holocaust fand statt, daran gibt es jetzt aber wirklich keinen Zweifel. X Zeitzeugen, Dokumente und die noch existierenden (!!!) Vergasungsräume belegen das. Unglaublich, dass Sie sowas anzweifeln können. Der Tweet Bot war nicht so intelligent wie Sie zu glauben scheinen, er hat lediglich die ihm gefütterten Textfetzen rekombiniert, sprich die besagten Stellen wurden ihm von Usern gefüttert, die mit dem Bot interagierten in der Absicht seine Schwächen aufzuzeigen (kennen Sie Twitter..?).