Zum Inhalt springen

Header

Navigation

Zwei Orang Utans, die sich mit Facebook-Stinkefinger und Twitter-Vogel anbrüllen.
Legende: Soziale Netzwerke sind oft kein Ort, an dem gute Manieren zum Alltag gehören. Auf der Strecke bleiben die Anständigen. Flickr (Vlad[T] / Ryan Summers) / Collage SRF
Inhalt

Digital Internet-Kommentare: So sollen die Hässigen anständiger werden

In Kommentaren und Diskussionsforen mitzureden, ist zermürbend, weil Pöbler und Trolle die Atmosphäre mit aggressiven Texten vergiften. Das ist die schlechte Meldung. Die Gute ist: Es gibt vielversprechende Werkzeuge, um die Spielverderber in ihre Schranken zu weisen.

Jedes Mal, wenn die Teenagerin Lucy in Facebook einen feministischen Beitrag postete, wurde sie mit hässigen Kommentaren und Drohungen zugebombt. Student Julian engagiert sich bei einer heimatlich gesinnten Partei, trägt ab und zu Edelweiss-Hemden und twitterte davon Fotos. Weil auch ihm grosse Wellen der Abneigung in den sozialen Medien entgegenschlugen, hat er sein Profil mittlerweile gelöscht.

Selbst-Zensur aus Angst vor Aggressionen

Lucy und Julian sind frei erfundene Beipiele. Dass sich Menschen in Foren selber zensurieren, ist aber eine Tatsache. Für Idealisten wie den World Wide Web-Begründer Tim Berners-Lee, Link öffnet in einem neuen Fenster ist das eine Katastrophe, schliesslich hielt er Technologie und das Internet immer für ein Mittel, die Welt zu verbessern und nicht sie zu einem hässlicheren, aggressiveren Ort zu machen. Und auch für Betreiber von Foren, Kommentarspalten und Social Media-Plattformen, allen voran Facebook, ist das hässige Getue ein Problem. Denn wo sich die Menschen nicht mehr wohl fühlen wegen Anfeindungen, werden sie sich zurückziehen – und dann ziehen sich auch die Werbekunden zurück, sagte ein Facebook-Manager letzthin im The Guardian, Link öffnet in einem neuen Fenster.

Was tun, wenn moderieren alleine nichts nützt und vor allem bei der Masse von Kommentaren und Posts viel zu aufwändig ist? Automatisierte Lösungen bieten sich an – doch Algorithmen, die wirklich zuverlässig Inhalt und Kontext verstehen und Beiträge nach inakzeptablen Stichworten filtern können, gibt es nicht.

Verroht das Internet? Nein! Ansätze, die auf Bewertungs-und Reputationsmechanismen setzen, versprechen Erfolg und sind bei verschiedenen Anbietern bereits im Einsatz.

Die Pöbler bei ihrer eigenen Eitelkeit packen

Bei Reddit, der Jodel-App oder auch Imgur läuft das Konzept unter dem Begriff «Karma» (oder einer ähnlichen Bezeichnung). Werden die eigenen Beiträge und Kommentare positiv von anderen Benutzern bewertet, sogenannte Up-Votes, steigt das jeweilige Karma des Benutzers. Umgekehrt sinkt es bei negativen Bewertungen, einem sogenannten Down-Vote.

Der Vorteil dieses Systems: Da jeder die Karmapunkte des anderen sehen kann, hat der jeweilige Benutzer ein grosses Interesse daran, sich anständig zu verhalten und so möglichst viele Karmapunkte zu sammeln – nicht nur mit Beiträgen, sondern eben auch mit jedem einzelnen Kommentar. Mehr Karmapunkte bedeuten ein höheres Ansehen. Ein Benutzer wird sich also zweimal überlegen, Hasskommentare abzugeben und damit zu riskieren, dass ihm durch massives Down-Voting Punkte abgezogen werden.

Die Pöbler zum Nachdenken zwingen

Noch eine Spur raffinierter ist die – eigentlich simple – Idee von Christa Mrgan, Mitbegründerin des amerikanischen Startup Civil Comment. Zusammen mit Aja Bogdanoff hat sie eine Software entwickelt, bei der der Benutzer zwei fremde Kommentare bewerten muss, bevor er seinen Eigenen abschicken kann. Nicht der Inhalt steht dabei im Zentrum, sondern die «Civility»: wie «zivilisiert» oder anständig er verfasst wurde.

Das hat zwei Effekte: Einerseits kann der Anbieter eines Dienstes so die Bearbeitung von Kommentaren kostenlos an die Benutzer auslagern, andererseits beginnt der Benutzer, über seinen eigenen Kommentar nachzudenken. Etwa fünf Prozent der Benutzer machen von der Möglichkeit Gebrauch, ihren eigenen Kommentar zu überarbeiten und allenfalls zu entschärfen, bevor sie ihn abschicken. Der Grund: Sie haben durch den Bewertungsprozess realisiert, dass sie ein Publikum vor sich haben – alle andere Benutzer, die sie ebenfalls bewerten.

Da ist ein Publikum!

Das erzwungene «Innehalten» erzeugt bei den Benutzern eine Hemmung. «Wenn du jemandem ein Mikrophon in die Hand drückst und ihm ein paar Minuten Aufmerksamkeit auf der Bühne gibst, wird er sich sicher intensiver überlegen: 'Will ich das wirklich sagen?', als wenn er glaubt, er spreche ins Leere», sagt Christa Mrgan.

Das scheint tatsächlich zu funktionieren: Nach einer erfolgsversprechenden Testphase setzen nun seit kurzem drei regionale Zeitungen in den USA den Kommentar-Filter der Firma Civil Comment ein, darunter die Alaska Dispatch News. , Link öffnet in einem neuen Fenster«Die Arbeit der Moderatoren ist dadurch um 90 Prozent gesunken», sagt Christa Mrgan. Gleichzeitig hat die Zahl der Kommentare um 20 Prozent zugenommen, weil das Niveau gestiegen ist und sich deshalb mehr Leute an der Diskussion beteiligen. Keiner der Kunden von Civil Comments war für eine Stellungnahme erreichbar.

Die Bewertung der Kommentare an die Verfasser auszulagern – und so gleichzeitig auch noch das Bewusstsein für Qualität zu schärfen – das findet Konrad Weber von SRF einen interessanten Ansatz, auch wenn srf.ch diese Lösung nicht einfach so übernehmen kann: «Wir müssen bei zensurierten Kommentaren immer begründen können, warum wir so entschieden haben» meint der Spezialist für soziale Netzwerke.

Ob der Filter von Civil Comments das leidige Problem mit den Kommentaren ein für alle Mal löst, lässt sich zurzeit noch nicht sagen. Es wäre schön, wenn die Vision der beiden Gründerinnen von Civil Comments in Erfüllung ginge: Dass sich Menschen im Internet mit dem gleichen Respekt begegnen wie im richtigen Leben auch. Denn Christa Mrgan ist überzeugt, dass das an den meisten Orten der Welt die Regel ist.

22 Kommentare

Navigation aufklappen Navigation zuklappen

Sie sind angemeldet als Who ? (whoareyou) (abmelden)

Wir haben Ihren Kommentar erhalten und werden ihn nach Prüfung freischalten.

Einen Kommentar schreiben

verfügbar sind noch 500 Zeichen

Mit dem Absenden dieses Kommentars stimme ich der Netiquette von srf.ch zu.

Es ist ein Fehler aufgetreten. Bitte versuchen Sie es erneut.

  • Kommentar von Gamer, Bern
    Dieses "Phänomen" des beleidigenden Dialoges habe ich vor 10 jahren nicht gekannt. Damals haben wir in den "Foren" noch Sachlich "gestritten". Als erstes ist es mir im Playstation-Forum aufgefallen. Da wurde nun lauthals und mit kurzen Worten gefochten. (Kiddis per Gamepad?) Heute ist es normal, dass alle wissen sollten dass ich grad auf'm Klo bin, und einen hässlichen Tag loswerden muss? Für's Internet 6.0 wünsch ich mir deshalb - Weniger Interaktivität! (Erspart uns euer erbärmliches mitLeben)
    Ablehnen den Kommentar ablehnen Antworten anwählen um auf den Kommentar zu antworten
  • Kommentar von Christian Mohler, Embrach ZH
    Ich bin der Meinung, dass der Verfasser eines Artikels/einer Publikation unbedingt selbst die Moderation der Kommentare zu seinem Geschreibsel moderieren muss, er hat die Verantwortung für die Reaktionen, die durch seine Meinung ausgelöst wurden. Ein gutes Beispiel finde ich Reda Philippe El Arbi (Stadtblog etc.), der sich den Kommentaren seiner Leser stellt und mit seinem Publikum kommmuniziert. Hasskommentare rassistischen und beleidigenden Inhalts hingegen gehören immer umgehend gelöscht.
    Ablehnen den Kommentar ablehnen Antworten anwählen um auf den Kommentar zu antworten
    1. Antwort von Hans Knecht, Torny
      Das Problem sehe ich darin, dass dann jemand, der gegen Bezahlung beim Medienunternehmen bzw. der Öffenlichkeit sein Produkt oder seine Nation promoten oder Propaganda gegen ein Land betreiben will, dann so kritische Kommentare rausfiltern kann.
      Ablehnen den Kommentar ablehnen
    2. Antwort von Guido Berger
      @Mohler: Das machen wir hier in der Digital-Redaktion auch so. Wir haben kein separates Team, das sich um die Kommentare kümmert; es sind stattdessen die Autoren selbst oder ich. Ich bin einverstanden, dass Kommentare mehr Sinn machen, wenn wir sie auch lesen und darauf eingehen. Dass wir die Verantwortung tragen für jede Reaktion, die ausgelöst wird, finde ich aber etwas hoch gegriffen. Bei gewissen Themen kann man sagen, was man will, die Reaktionen sind immer die gleichen. Wir können das nicht wirklich kontrollieren.
      Ablehnen den Kommentar ablehnen
    3. Antwort von Guido Berger
      @Knecht: Nichts von dem tun wir hier, wir promoten nichts, wir machen keine Propaganda. Ich zitiere gerne aus unseren Publizistischen Leitlinien: «Unsere Programme [...] sind sachgerecht, vielfältig und unabhängig.» Und wir filtern keine kritischen Kommentare, sondern nur die, welche gegen die Netiquette verstossen. Detaillierter hier: http://www.srf.ch/radio_srf_3/digital/srf-digital-publizistische-leitlinien
      Ablehnen den Kommentar ablehnen
  • Kommentar von Susanne Lüscher, Gossau
    Bei den Zeitungen ist immer die Frage was als Hass bewertet wird. Die meisten lassen bei Themen, wo sie genau wissen, dass es heftige Reaktionen geben wird, keine Kommentare zu. Ich spreche hier bewusst von Zeitungen und nicht von Facebook und Co. Gerade die Medien des Westens mit ihrer Berichterstattung müssen sich über Hassmails nicht wundern. Es sind auch die Medien die ihre Leserschaft mit Troll beschimpfen, wenn diese Trolle belegen können, dass die Berichterstattung so nicht stimmen kann.
    Ablehnen den Kommentar ablehnen Antworten anwählen um auf den Kommentar zu antworten