Zum Inhalt springen

Fake News und Hassrede Informationskrieg: Wikipedias Erfolgsmodell für Inhaltsmoderation

Die grossen Internetkonzerne kämpfen mit künstlicher Intelligenz gegen Fake News – vergeblich. Wikipedia setzt auf Freiwillige – mit Erfolg.

In Krisenzeiten tobt auf sozialen Medien ein Propagandakrieg, etwa während der Pandemie oder aktuell während des Nahostkonflikts.

Im Kampf gegen Hassrede und Fake News setzen grosse Internetkonzerne wie X (vormals Twitter) oder Instagram auf künstliche Intelligenz und professionelle Moderatoren – mit mässigem Erfolg. Immer wieder verbreiten ihre Algorithmen Lügen oder Hassrede.

Anders Wikipedia: Das Online-Lexikon, das von Freiwilligen gepflegt wird, schneidet im Allgemeinen gut ab bei der Moderation problematischer Inhalte. Zu diesem Schluss kommt eine Studie der Universität Harvard .

Dabei geniessen Schreibende auf Wikipedia grosse Freiheiten. Sie können im Online-Lexikon nicht nur Artikel publizieren, sondern auch Texte anderer Autoren und Autorinnen abändern, ergänzen, korrigieren oder löschen. Trotzdem werden problematische Inhalte meist schnell erkannt und gelöscht.

Dahinter steckt ein mehrstufiges Moderationssystem, das Freiwillige in den letzten zwei Jahrzehnten entwickelt und verfeinert haben.

Durchsetzen der Regeln

Eine zentrale Rolle spielen die Administratoren, erfahrene Wikipedianerinnen, die seit Jahren auf der Plattform aktiv sind und demokratisch gewählt werden.

Rund 180 freiwillige Admins achten darauf, ob die Regeln auf der deutschsprachigen Wikipedia-Seite eingehalten werden, ob ein Artikel auf vertrauenswürdigen Quellen basiert und ob ausgewogen berichtet wird.

Sie löschen unangemessene Beiträge, greifen in gehässige Diskussionen ein und sorgen dafür, dass die Plattform ein sicherer und informativer Ort bleibt.

Hürde für Unerfahrene

Neulinge auf der deutschsprachigen Wikipedia sind jederzeit willkommen. Ihre Texte oder Änderungen werden aber erst publiziert, nachdem eine erfahrene Wikipedianerin den Text freigegeben hat, eine sogenannte Sichterin.

Auf diese Weise wolle man den Schüler-Vandalismus verhindern, erklärt ein erfahrener Administrator (Wikipedia-Name: Wir-Ing). Er erzählt von gelangweilten Teenagern, die einfach zum Spass «PENIS» eintippten. Sie würden dann aber enttäuscht, weil der Text noch vor der Publikation von einem Sichter gelöscht werde.

Einigt Euch!

Im Gegensatz zu Posts in sozialen Medien, müsse ein Wikipedia-Artikel ausgewogen abgefasst werden, so Wir-Ing: «Schaut man sich auf Youtube ein Video von Rechtsextremen an, schlägt Youtube gleich 20 weitere ähnliche Videos vor – und nicht etwa Videos von Linksextremen. In einem Wikipedia Artikel müssen beide Seiten vorkommen.»

Kommt es zu einem Streit über eine Textstelle, müssen die Autorinnen so lange diskutieren, bis sie sich auf eine Formulierung einigen können. Erst dann wird die Änderung im Artikel sichtbar. Die Diskussion ist öffentlich einsehbar.

Ziele und Werte

Ob eine Plattform problematische Inhalte verbreitet, hängt nicht nur von der Moderation ab, auch die Ziele spielen eine wichtige Rolle.

Die Algorithmen der kommerziellen sozialen Medien sind darauf trainiert, ihre Nutzer möglichst lange auf der Plattform zu halten und Informationen möglichst schnell zu verbreiten. 

Für Wikipedia steht die Verbreitung objektiver Informationen im Zentrum. Ist dieses Ziel gefährdet, greifen Admins ein, sperren die Seite für eine bestimmte Zeit und entschleunigen so die Diskussion. Für Stimmungsmache ist das offene Lexikon weniger geeignet. Das wiederum vereinfacht die Moderation.

Holen Sie sich SRF News in Ihr Whatsapp

Box aufklappen Box zuklappen
Legende:

Die wichtigsten und spannendsten News jetzt bequem auf Whatsapp – einmal morgens (Montag bis Freitag), einmal abends (die ganze Woche): Abonnieren Sie hier den SRF-News-Kanal auf Ihrem Smartphone.

Radio SRF 4 News, News plus, 1.12.2023, 16:00 Uhr

Meistgelesene Artikel