Zum Inhalt springen

Corona-Massnahmengegner Hassmaschine Telegram: Tausende von Gewaltaufrufen entdeckt

  • Eine SRF-Datenanalyse zeigt: In Kanälen von Corona-Massnahmengegnern auf Telegram kursieren mehrere Tausend Gewaltaufrufe und Morddrohungen.
  • Sie richten sich gegen Politikerinnen, Journalisten, Wissenschaftlerinnen oder die Polizei.
  • Die Stimmung in den Kanälen wird toxischer – beeinflusst von Verschwörungsideologen, Rechtsextremen und einem kleinen Kreis radikalisierter Massnahmengegner.

Manchmal sagt ein Emoji mehr als tausend Worte. Ein roter Kopf 😡, eine Bombe 💣, eine Explosion 💥. Solche mit Aggressionen aufgeladenen «Hass»-Emojis wurden während der Pandemie immer häufiger verwendet. Dies zeigt eine Datenanalyse von rund einer Million Telegram-Nachrichten aus über 90 Kanälen von Massnahmengegnern in der Schweiz.

Insbesondere auf politische Massnahmen wie die Maskenpflicht (Herbst 2020), die Zertifikatspflicht (Herbst 2021) und den Start der Impfkampagne (Anfang 2021) reagierten die Nutzer auf Telegram mit Hass.

Telegram ist ein sogenannter 'Dark Social'-Kanal , ein Messengerdienst, der auch als Soziales Netzwerk genutzt werden kann. Gegner der Coronamassnahmen treffen sich inzwischen vor allem dort, weil viele der von ihnen geteilten Inhalte auf Plattformen wie Facebook gelöscht wurden. Verschiedene Schätzungen gehen von 50'000 bis 70’000 Deutschschweizerinnen und Deutschschweizern aus, die sich dort in Kanälen und geschlossenen Chat-Gruppen austauschen oder zumindest mitlesen. Die SRF-Datenanalyse zeigt: Die Telegramkanäle der Massnahmengegner sind in den letzten zwei Jahren immer grösser geworden und haben stark an Reichweite ausgebaut. Und: Die Stimmung dort ist toxischer geworden.

Was heisst «toxisch» und wie wurde das gemessen?

Box aufklappen Box zuklappen

SRF Data hat einen Algorithmus des Google-Projektes PerspectiveAI verwendet. Damit lassen sich die gesammelten Nachrichten auf ihre Toxizität, sprich: Giftigkeit, überprüfen. Als toxisch gelten dabei unhöfliche, respektlose oder unangemessene Bemerkungen, die dazu führen können, dass ein Gruppenmitglied eine Diskussion verlässt. Zum Beispiel Beleidigungen, Drohungen, vulgäre Sprache – alles, was man auch in einem persönlichen Gespräch als grob und unangenehm empfinden würde. Zusätzlich identifiziert der Algorithmus die Nachrichten auch Gewaltaufrufe und Drohungen.

Minderheit der Nutzer schreibt Mehrheit der Hassnachrichten

Am Anfang der Pandemie lag der Anteil von toxischen Nachrichten in den untersuchten Kanälen bei rund einem Prozent. Nach der Impfkampagne hat sich der Anteil verdoppelt. Inzwischen ist jede 50. Nachricht toxisch. Dabei gibt es aber grosse Unterschiede je nach Gruppen/Kanälen und Nutzern. Rund acht Prozent der Nutzerinnen und Nutzer sind für etwa 82 Prozent der toxischen Nachrichten verantwortlich – das sind rund 860 Personen. Was auffällt: Diese Personen haben auch sonst viele Nachrichten geschrieben. Dies legt den Schluss nahe, dass jene Leute, die viel in diesen Kanälen kommentieren, auch eher dazu geneigt sind, Hassnachrichten zu verbreiten.

Die Analyse zeigt aber auch: 85 Prozent der Telegram-Nutzerinnen und Nutzer haben keine einzige toxische Nachricht geschrieben. Und es gibt zahlreiche Kanäle bei den Massnahmengegnern, deren Stimmung friedlich ist. Es ist also ein kleiner, höchst aktiver Teil, der immer toxischer wird – aber der verschlechtert die Stimmung und normalisiert den aggressiven Ton.

Wachsender Einfluss vom rechten Rand

Ein Grund für den hohen Anteil von toxischen Nachrichten ist in der direkten Umgebung der Telegramgruppen der Massnahmengegner zu finden. In ihrem Umfeld befinden sich zahlreiche Chat-Gruppen von Verschwörungsideologen und rechtsextremen Gruppierungen. Inhalte, die in diesen Chats gepostet werden, finden ihren Weg auch oft in die Corona-Gruppen, darunter auch antisemitische, homophobe und rassistische Inhalte. Viele der Abonnenten dieser Gruppen sind auch aktive Nutzer der Corona-Gruppen. Dies belegt eine Netzwerkanalyse. Von rund 30 Chat-Gruppen, deren aktive Mitglieder sich überschneiden, weisen 15 eine sehr hohe Überlappung auf – darunter die Chatgruppe einer bekannten rechtsextremen Organisation. Viele Mitglieder aus dieser Organisation, die schon vor der Pandemie aktiv war, sind also auch Corona-Gruppen beigetreten und posten dort aktiv Inhalte.

Und auch ein Teil der 860 besonders toxischen Nutzer findet sich im Dunstkreis der rechtsextremen Szene wieder. Ein Teil davon ist einer Gruppierung zuzuordnen, die in den letzten Monaten für Aufmerksamkeit gesorgt hat. Der «Swiss Mens Club of Freedom» oder «MännerWG». Sie tauchen auf Corona-Demos auf, fungieren teilweise als Sicherheitsdienst. Viele Mitglieder dieses Klubs finden sich auch auf Telegram und gehören dort zu den am besten vernetzten Personen. Sie pflegen Kontakte in die verschiedenen Gemeinschaften, sind teilweise Wortführer. Ihre toxischen Nachrichten finden so grosse Aufmerksamkeit.

Tausende von Gewaltaufrufen und Morddrohungen identifiziert

Unter den untersuchten Nachrichten befinden sich auch tausende von Gewaltaufrufen und Morddrohungen. Jede 200. Nachricht auf Telegram ist inzwischen eine Drohung oder ein Gewaltaufruf. Rund 90 Prozent dieser Aufrufe finden sich dabei in 10 der über 90 Gruppen und Kanäle. SRF hat hunderte von Drohungen klassifiziert. Diese richten sich gegen konkrete Einzelpersonen, vor allem Politikerinnen und Politiker, Wissenschaftlerinnen und Wissenschaftler oder Journalistinnen und Journalisten, aber auch gegen Institutionen wie die Polizei. Im untenstehenden Kasten werden konkrete Beispiele von Gewaltaufrufen und Morddrohungen genannt, um zu zeigen, wie der Algorithmus sie bewertet. SRF hat Drohende und Bedrohte anonymisiert und in [Klammern] Kontext eingefügt.

Ein Teil der Drohenden ist einfach zu identifizieren, etwa weil sie selbst mit Klarnamen auf Telegram sind oder sonst identifizierende Informationen gepostet haben. Die «Rundschau» hat mehrere davon besucht und vor der Kamera konfrontiert . Sie argumentieren mit Notwehr oder streiten ab, die Inhalte geschrieben zu haben.

Sechs Mal mehr Meldungen als vor der Pandemie

Auch beim Bundesamt für Polizei stellt man eine Radikalisierung eines Teils der Massnahmengegner fest. Stéphane Theimer, Chef Bundessicherheitsdienst des Fedpol, sagt gegenüber SRF: «Wir merken, dass der Ton immer schärfer und aggressiver geworden ist.»

Das Fedpol sichtet selbst nur öffentlich zugängliche Plattformen. Bei teilweise geschlossenen Plattformen wie Telegram bekommt es Unterstützung des Nachrichtendienstes des Bundes. Eine grosse Herausforderung dabei sei die Masse an Nachrichten. Man müsse jeden Tag tausende von Posts sichten, sagt Theimer. «Wir analysieren und beurteilen jede Meldung, die bei uns eingeht. Wenn wir einen Straftatbestand feststellen, wird polizeilich ermittelt und ein Strafverfahren eröffnet. Das geht bis zur nationalen Fahndung, Verhaftung und Verurteilung.»

Das Fedpol wird insbesondere bei Drohungen gegen den Bundesrat, Teile der Regierung oder des Parlaments aktiv. Und das ist immer mehr der Fall. Sind im Jahr 2019 noch 246 Meldungen wegen potenziellen Drohungen gegen Bundesräte oder Parlamentarier beim Fedpol eingegangen, waren es im Jahr 2021 mehr als 1200 solcher Meldungen über alle sozialen Medien hinweg. Davon wurden 120 als tatsächliche Drohungen identifiziert und verfolgt, etwa mit einem Strafverfahren und polizeilichen Ermittlungen, oder durch eine sogenannte Gefährderansprache. Das entspricht einer Versechsfachung im Vergleich zu 2019.

Ob man die Drohenden identifizieren kann, hängt aber auch von der Kooperation der einzelnen Plattformen ab. Telegram zeige sich wenig kooperativ, das mache die Sache schwieriger. Trotzdem würde man auch dort Drohende identifizieren können, sagt Stéphane Theimer: «Die Leute haben das Gefühl, wenn sie Telegram benutzen, bleiben sie anonym und sicher – was nicht der Fall ist.»

Doch längst nicht alle Gewaltaufrufe und Drohungen werden verfolgt. Etwa dann, wenn die Drohung zu vage bleibt – oder der Bedrohtenkreis zu gross. Die meisten Hassnachrichten bleiben auf Telegram stehen und inspirieren Nachahmer.

Über Daten und Methodik

Box aufklappen Box zuklappen

SRF Data hat rund 1 Million Nachrichten aus über 90 wichtigen Telegramkanälen und -Gruppen von Schweizer Massnahmengegnern analysiert. Weil die Gruppen teilweise geschlossen sind, wurde über ein Undercover-Profil Zugang gefunden. Dann wurde der Chatverlauf der Text-Nachrichten gespeichert und klassifiziert. Das Modell von Perspective API gibt dafür die Wahrscheinlichkeit zurück, dass eine Nachricht toxisch ist oder Drohungen enthält. Die Klassifizierung in toxisch, nicht-toxisch resp. enthält Drohungen oder enthält keine Drohungen wurde mittels Schwellenwerten vorgenommen. Liegt die Wahrscheinlichkeit über dem Schwellenwert, so wurde die Nachricht als toxisch klassifiziert resp. als Drohung. Der Schwellenwert wurde manuell justiert, um sicher zu stellen, dass die Falsch-Positiv-Rate tief bleibt.

Dazugehörige Podcast-Serie: 'Dark Social' von SRF Data

Rundschau, 20:05 Uhr, 9.2.2022

Meistgelesene Artikel