Worum geht’s
Der «Guardian» ist an interne Dokumente gelangt, die für die Schulung von Facebook-Moderatoren eingesetzt werden.
Die geleakten Dokumente zeigen, wie Facebook mit den Themen Gewalt, Hassreden, Pornografie, Terrorismus und Selbstverletzung umgehen will.
Gemäss den Unterlagen müssen zum Beispiel Kommentare wie «Jemand sollte Trump erschiessen» gelöscht werden. Es sei jedoch erlaubt, «Lasst uns fette Kinder verprügeln» zu schreiben.
Bei brutalen Bilder müssen die Moderatoren oft abschätzen, ob sie in einem sadistischen oder verherrlichenden Kontext stehen.
Auch bei Selbstverletzung sind die Richtlinien sehr schwammig. Facebook wolle Menschen, die leiden nicht bestrafen. Gleichzeitig müssen die Moderatoren verhindern, dass Selbstverletzung verherrlicht wird.
Darum ist’s interessant
Bei weltweit fast zwei Milliarden Nutzern ist es nicht einfach, Richtlinien zu definieren, die eindeutig und nachvollziehbar sind. Für zu viele Inhalte haben die Moderatoren schlicht zu wenig Zeit. «Facebook kann die Inhalte nicht unter Kontrolle halten. Es wurde zu schnell zu gross», zitiert der «Guardian» eine anonyme Quelle.
Der «Guardian» hat die Facebook-Dokumente sorgfältig aufbereitet. In einem kleinen Quiz kann man selbst Moderatorin spielen: Das Quiz «ignore or delete» zeigt Bilder, die tatsächlich gepostet und moderiert wurden.
Ist das Bild einer Leiche im Sarg zulässig? Ja, ist es. Darf man ein Bild veröffentlichen, auf dem Häftlinge von Soldaten schikaniert werden? Ja, aber nur solange die Tat nicht verherrlicht wird.
Das Quiz und die Facebook-Dokumente zeigen, wie undurchsichtig die Entscheide der Moderatoren anmuten – trotz oder gerade wegen der Richtlinien.
Die Dokumente zeigen einmal mehr, wie schwierig es ist, genaue Richtlinien für ein globales Publikum zu definieren. Vor allem, wenn dabei kulturelle Unterschiede zu berücksichtigen sind und eigene Werte nicht verloren gehen sollen.