Zum Inhalt springen

Fake News Wie funktioniert Facebooks neue Strategie gegen Impf-Fake-News?

Der Social-Media-Riese Facebook will falsche Behauptungen zu Covid-19-Impfungen auf seiner Plattform künftig rigoroser entfernen. Wie soll das funktionieren? Und warum kommt Facebook mit dieser Neuerung erst jetzt? Die wichtigsten Fragen und Antworten.

Was genau hat Facebook angekündigt?

Die Social-Media-Plattform will stärker gegen Falschinformationen rund um Covid-19-Impfungen und andere Impfungen vorgehen. Falsche Behauptungen zu den Impfungen würden entfernt, teilte das Unternehmen mit. Wenn eine Person oder eine Gruppe wiederholt Fake News verbreiteten, würden die entsprechenden Accounts gelöscht. Zudem will Facebook Informationen zu Ort und Zeitpunkt von Impfungen leichter zugänglich machen.

Wie will Facebook vorgehen?

Im Update eines Blogeintrags geht Facebook darauf ein. Es weitet seine Kriterien für gefährliche Desinformation aus. So ist etwa nicht erlaubt, die Covid-19-Impfung als gefährlich zu bezeichnen, ihr eine Schutzwirkung abzusprechen oder zu behaupten, sie löse Autismus aus oder verändere die DNA des Menschen. Die Liste weiterer Impf-Falschbehauptungen ist lang. Allerdings ist die Vollversion dieses Blogeintrags bislang noch nicht auf Deutsch verfügbar. Man muss die Sprache auf Englisch umstellen, um die ganze Liste zu sehen.

Ausserdem wolle Facebook die Suchergebnisse zu Corona-Themen überarbeiten und relevante, verlässliche Informationen prominenter anzeigen, sagen die Digital-Journalisten Martin Fehrensen und Simon Hurtz vom Social Media Watchblog. «Auf Instagram soll es zusätzlich schwerer werden, Accounts zu finden, die aktiv von Impfungen abraten», so die Digital-Journalisten.

Wie findet Facebook löschwürdige Inhalte?

«Facebook setzt Programme ein, die den Newsfeed nach bestimmten Stichworten oder Inhalten durchsuchen und dann entweder löschen oder menschlichen Moderatoren zur Prüfung vorlegen», erläutert SRF-Digitalredaktor Jürg Tschirren das Prozedere. Zudem können andere User Inhalte melden, die sie gelöscht sehen wollen. Auch diese Inhalte werden dann von einem Moderator oder einer Moderatorin beurteilt. Beim Löschen ist Facebook keinen länderspezifischen Gesetzen unterworfen, es gelten die Nutzungsbedingungen.

SRF-Digitalredaktor Jürg Tschirren zum Gelingen der Strategie

Box aufklappen Box zuklappen

«Zur Durchsetzung seiner Richtlinien kann Facebook entweder auf Menschen setzen oder auf Algorithmen, die nach unerlaubten Inhalten suchen. In der Praxis ist beides der Fall.

Wenn man bedenkt, dass täglich rund 350 Millionen Fotos und dazu noch zahlreiche Textinhalte bei Facebook gepostet werden, wird klar, dass Menschen allein niemals alle Inhalte prüfen und so die Richtlinien durchsetzen können.

Doch selbst Maschinen können das nicht befriedigend lösen, auch wenn Facebook dort auf künstliche Intelligenz setzt. Es werden immer wieder Inhalte, die nicht gelöscht werden müssten, fälschlicherweise gelöscht, und Inhalte, die eigentlich gelöscht werden müssten, werden von den Algorithmen nicht entdeckt.

Es ist also anzunehmen, dass sich die Richtlinien nicht zu 100 Prozent durchsetzen lassen werden. Die Frage ist daher, ob es nicht vielleicht schon reicht, wenn bereits 80 Prozent der kritischen Inhalte erkannt werden und so die Sichtbarkeit der entsprechenden Informationen stark eingeschränkt wird.»

Warum ändert Facebook seine Strategie gerade jetzt?

Facebook verweist auf das Facebook Oversight Board, das Ende Januar seine ersten Urteile verkündete und unter anderem forderte, Facebook müsse neue Kommunikationsstandards gegen Falschmeldungen aus dem Gesundheitsbereich definieren. Diesem Gremium, einer Art unabhängigem obersten Gerichtshof für inhaltliche Entscheidungen, gehören prominente Mitglieder wie die ehemalige dänische Premierministerin Helle Thorning-Schmidt an.

Welche Kritik gibt es an der Strategie?

Ein Problem, so Kritiker, sei, dass die Definitionen zu Falschbehauptungen zu weit gefasst seien. Nach den neuen Massstäben müsste Facebook zahlreiche Empfehlungen und Informationen offizieller Stellen wie der Weltgesundheitsorganisation (WHO) aus den ersten sechs Monaten der Corona-Pandemie löschen – einfach, weil vieles veraltet ist. Zum Teil fielen sogar zutreffende Informationen unter Facebooks Lösch-Policy, etwa dass es klinische Studien gebe, bei denen der Impfstoff nicht gegen ein Placebo getestet werde.

Schliesslich wird moniert, dass Behauptungen auf politischer Ebene wie «Impfungen sind tyrannische Eingriffe der Regierung» nicht unter Facebooks neue Kriterien fallen.

SRf 4 News, 09.02.2021, 6 Uhr

Meistgelesene Artikel