Zum Inhalt springen

Header

Inhalt

Online-Diskussionen Diskussionskultur im Internet – was tun?

Die Worte «Internet» und «gesittet diskutieren» werden selten zusammen gebraucht. Wie lässt sich das ändern?

Schon 2004 stellte der US-Psychologe John Suler fest, dass Diskussionen im Internet schneller ausarten können als im richtigen Leben. Suler prägte darauf den Begriff «Online Disinhibition Effect» – zu Deutsch etwa «Online-Enthemmungseffekt».

Verschiedene Faktoren tragen laut Suler zu dieser Enthemmung bei: Die Anonymität, die manche Nutzer:innen dazu treibt, sich online weit gehässiger zu äussern als gewohnt, weil sie sich hinter einem Pseudonym verstecken können.

Ein Screenshot einer Internet-Seite mit beleidigenden Kommentaren.
Legende: Der US-Psychologe John Suler hat den Begriff «Online Disinhibition Effect» geprägt. Er besagt, dass wir uns im Internet oft gehässiger äussern als wenn uns im echten Leben jemand gegenübersteht. imago images

Auch dass die Kommunikation im Internet asychron abläuft und wir unserem Gegenüber dabei kaum je ins Gesicht sehen, kann eine Diskussion negativ beeinflussen. Denn weil es keine nonverbale Kommunikation gibt – Mimik, Gestik – und eine unmittelbare Reaktion unserer Gesprächspartner:innen ausbleibt, geht oft auch unsere Empathie flöten.

Voll.Idiot statt Vollidiot

Schon lange gibt es darum Versuche, Diskussionen im Internet zu entgiften. Doch ein Universalmittel ist noch nicht gefunden. Der sogenannte Klarnamenzwang – die Pflicht, sich bei einer Diskussion mit richtigem Namen zu melden – wirkt zwar der Anonymität entgegen. Doch die Praxis zeigt, dass es deswegen nicht zu einem anhaltend positiven Einfluss auf die Diskussionskultur kommt.

Wenn wir den Leuten erklären, was sie falsch gemacht haben, sind sie in der Regel sehr einsichtig.
Autor: Silja Kornacher Leiterin SRF-Community-Desk

Auch künstliche Intelligenz, die toxische Beiträge automatisch erkennt und löscht, hat sich als unzureichend erwiesen. Es ist zu einfach, die Algorithmen mit alternativen Schreibweisen zu überlisten. Wird eine Beschimpfung wie «Vollidiot» noch leicht erkannt, versagt das System bereits bei alternativen Schreibweisen wie «Voll.Idiot» oder «V o l l i d i o t».

In manchen Fällen wird auch angerufen

Sollen Diskussionen im Internet nicht aus dem Ruder laufen, geht das nicht ohne menschliche Moderator:innen. Sie müssen stets daran erinnern, was in einer Kommentarspalte oder in einem Diskussionsforum erlaubt ist und was nicht. Im Notfall müssen sie durchgreifen und bestimmte Inhalte löschen oder sogar Nutzer:innen sperren.

Die Netiquette gibt vor, was erlaubt ist – und was nicht

Box aufklappen Box zuklappen

Damit Diskussionen im Internet nicht aus dem Ruder laufen, müssen die Nutzer:innen wissen, was sie dürfen und was nicht. Dazu dient die Netiquette – ein ; Kofferwort aus dem englischen «Net» für das Internet und dem französischen «Etiquette» für die Verhaltensregeln. Die Netiquette von SRF findet man hier.

«Das wichtigste Werkzeug ist die Netiquette», sagt darum Silja Kornacher. Sie leitet bei SRF den Community-Desk, der sich um die gut 2000 täglich eingehenden Kommentare kümmert. Wiederholungstäter:innen werden direkt angeschrieben oder in manchen Fällen auch per Telefon kontaktiert. «Wenn wir den Leuten erklären, was sie falsch gemacht haben, sind sie in der Regel sehr einsichtig», so Kornacher.

Willst du das wirklich so veröffentlichen?

Auf grossen Plattformen wie Facebook, Twitter oder Instagram, wo täglich Millionen neuer Inhalte publiziert werden, ist so eine intensive Pflege der Diskussionskultur dagegen nicht möglich. Solche Unternehmen setzen deshalb auf die Zusammenarbeit von Mensch und Computer: Bestimmte Kommentare werden von Algorithmen direkt gelöscht oder menschlichen Moderator:innen zur Prüfung vorgelegt.

Die Anmeldeseite des sozialen Netzwerkes Facebook
Legende: Facebook setzt beim Moderieren auf die Zusammenarbeit von Mensch und Maschine. Mit fast 3 Milliarden monatlichen Nutzer:innen hat das soziale Netzwerk aber eine Grösse erreicht, die eine vernünftige Kontrolle der Inhalte kaum mehr zulässt. imago images

Instagram kennt noch eine weitere Methode: Auch dort versuchen Algorithmen, beleidigende Kommentare zu erkennen. Doch statt sie zu löschen oder zur weiteren Prüfung weiterzuleiten, wird den Nutzer:innen die Frage gestellt, ob sie ihren Kommentar tatsächlich in diesem Wortlaut veröffentlichen wollen.

Gut ein Drittel aller Kommentator:innen überlegt es sich daraufhin noch einmal besser. Allerdings: Nur die Hälfte von ihnen ändert den Kommentar wirklich entsprechend der Netiquette. Ein Viertel versucht, den Algorithmus auszutricksen und den Kommentar inhaltlich gleich zu formulieren, allerdings die Schreibweise bestimmter Worte zu ändern. Und das restliche Viertel scheint gar nicht erst zu verstehen, was sie falsch gemacht haben. Sie ändern ihren Kommentar zwar – allerdings an einer Stelle, die gar nicht problematisch war.

Podcast Digital Podcast

Der Technologie-Podcast von SRF über Internet, Smartphones, soziale Netzwerke, Computersicherheit und Games.

Weitere Audios und Podcasts

Meistgelesene Artikel