Worum geht's?
Google-Chefjurist Kent Walker hat gestern vier Massnahmen zur Bekämpfung von Terrorpropaganda angekündigt:
- Die Forschung zur Videoanalyse durch Künstliche Intelligenz wird ausgeweitet. Die automatische Erkennung von extremistischen Videos soll in Zukunft viel besser werden – ähnliche Massnahmen hat Facebook bereits letzte Woche angekündigt .
- Google wird sein Expertenteam erweitern und die Zusammenarbeit mit NGOs ausbauen. Nun sollen 50 zusätzliche NGOs mit ihren Experten Youtube dabei unterstützen, potenziell radikalisierende Videos zu löschen.
- Bei Videos, bei denen unklar ist, ob sie radikale Inhalte aufweisen, soll statt Werbung eine Warnung vorgeschaltet werden. Ausserdem wird die Kommentarfunktion deaktiviert. Dadurch sollen diese Videos weniger Interaktionen erhalten.
- Durch zielgerichtete Werbung sollen potenzielle Extremisten zukünftig vermehrt Anti-Terror-Videos empfohlen bekommen.
Warum ist's interessant?
Internet-Unternehmen wie Facebook oder Google spüren zunehmenden Druck aus der Politik, härter gegen Terror-Inhalte vorzugehen. Nach den jüngsten Terroranschlägen kündigten die britische Premierministerin Theresa May und der französische Präsident Emmanuel Macron letzten Dienstag an, Druck auf Internetunternehmen aufzubauen .
Die Massnahmen von Youtube oder Facebook werden aber weiter zu reden geben: Youtube muss den Spagat schaffen zwischen Meinungsfreiheit und freiem Zugang zu Information und der Verbreitung von extrem offensiven Inhalten.
Werden zu viele Videos gelöscht, gibt es Kritik wegen willkürlicher Löschpolitik. Werden zu wenige extremistische Inhalte entfernt, steigt der politische Druck auf die Plattformen. Ab wann ist etwas extremistisch oder radikal? Und ab wann ist es Zensur, solche Inhalte zu löschen? Diese Balance zu finden, ist alles andere als leicht.