Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

Soziale Medien und Gewalt Nach Kirk-Attentat: Macht des Algorithmus und dürftige Moderation

Auf Social Media verbreiten sich Videos vom Kirk-Attentat und extreme Kommentare rasant. Warum reagieren die Online-Plattformen nicht stärker?

Worum geht es? Gewalt ist nur bei Selbstverteidigung legitim: Das ist Grundkonsens in demokratischen Staaten. Der tödliche Anschlag auf den rechtsextremen Influencer Charlie Kirk in den USA wirft in diesem Zusammenhang Fragen auf. Videos des Attentats haben sich rasant und millionenfach verbreitet und in den sozialen Medien zahlreiche, auch extreme Wortmeldungen ausgelöst.

Was genau geschieht da gerade? Das Attentat auf Charlie Kirk ist ein extremes Ereignis, ein neuer Tiefpunkt in einer sich immer schneller drehenden Gewaltspirale der inneramerikanischen Auseinandersetzung. Das sind unbestritten News, die weltweit interessieren. Zudem fand das Attentat vor einem Publikum statt, das maximal online ist. Ein Personenkreis, der es gewohnt ist, das Smartphone draufzuhalten und Inhalte zu teilen. «Die enorme Verbreitung und Sichtbarkeit von Videos, ist nicht überraschend», sagt Guido Berger von der SRF-Digitalredaktion dazu. Auch, dass sofort eine politische Instrumentalisierung stattfindet, sei in diesem Zusammenhang kein Wunder.

Was ist die Rolle der sozialen Medien? Für die Plattformbetreiber bringt der Vorfall Klicks und Beachtung. Guido Berger: «Ein Ereignis dieser Tragweite interessiert die Algorithmen. Die verbreiten das dann zusätzlich und verstärken die Sichtbarkeit.» Im Zusammenhang mit dem Mordanschlag finden sich in den sozialen Medien nun auch extreme Wortmeldungen. Das reicht von ungefiltertem Hass und Gewaltaufrufen bis zu fixfertigen Schuldzuweisungen, obwohl die polizeiliche Untersuchung gerade erst angelaufen ist.

Warum greifen die sozialen Medien nicht stärker ein? Eigentlich sollten die Plattformen, auf denen die Inhalte verbreitet werden, reagieren: Kommentare moderieren und allfällige extreme Posts sogar löschen. Zumindest wird diese Haltung vor allem von der EU vertreten. Hier versucht man schon länger, Facebook, Tiktok, Youtube und Co. zu regulieren und dazu zu bringen, stärker zu moderieren. Das stellt für Guido Berger jedoch Problem dar: «Ob ein Tweet ein Aufruf zu Gewalt ist, das ist im Einzelfall einfach sehr schwierig zu beurteilen». Eine sorgfältige Interessenabwägung vor Gericht ist dann bei tausenden Millionen von Posts gar unmöglich. «In der Realität wählen dann Maschinen aus. Und Personen mit Niedriglohn aus Indien oder Kenia entscheiden im Sekundentakt.» Dass so ein gerechtes System entsteht, das rechtsstaatlichen Erwartungen entspricht, ist zumindest nicht sehr realistisch.

Wollen die Plattformen mehr Regulierung? Bereits vor dem Wechsel zur aktuellen Administration unter Donald Trump setzten die Plattformbetreiber sozialer Medien nur ein Minimum an Kontroll- und Moderationsmechanismen um. Und unter der aktuellen US-Regierung habe sich diese Tendenz noch verstärkt, so Berger. «Die Plattformen können nicht, selbst wenn sie wollten. Aber sie wollen auch nicht.»

SRF 1, Tagesschau kompakt, 12.9.2025, 12:45 Uhr ; 

Meistgelesene Artikel