Das Wichtigste in Kürze
- Youtube geriet in Kritik, weil es voller Kinder-Videos mit verstörenden Inhalten war.
- Die Videoplattform hat reagiert und viele der Videos und die dazugehörenden Kanäle gelöscht. Die Regeln dafür, welche Inhalte gelöscht werden und welche nicht, sind unklar.
- In Zukunft sollen Menschen mithilfe von Algorithmen entscheiden, welche Videos auf die Plattform geladen werden dürfen. Ein schwieriges Unterfangen.
Youtube hat ein Problem. Und das hat sich herumgesprochen. Durch Artikel in der New York Times, bei Buzzfeed und Medium ist bekannt geworden, dass auf der Plattform Videos zu sehen sind, die sich an Kinder richten und verstörende Gewalt-Szenen, krude Sex-Fantasien oder Kannibalismus zeigen. Auch SRF Digital hat darüber berichtet .
Kurze Zeit später deckten die BBC und die Times auf, dass Youtubes Schutzmechanismen auch anderswo versagt hatten. So konnten Pädophile obszöne Kommentare unter Videos mit Kindern hinterlassen – Videos, die von Werbung bekannter Unternehmen begleitet wurden. Firmen wie die Deutsche Bank, Lidl, Adidas oder Mars zogen deshalb ihre Anzeigen von Youtube zurück.
Daraufhin reagierte die Videoplattform schnell: Ende November löschte Youtube über 270 Konten, entfernte über 150'000 Anzeigen und stellte die Kommentarfunktion bei mehr als 625'000 Videos ab, in denen Kinder zu sehen sind. Ausserdem strich Youtube die Werbung bei mehr als 2 Millionen Videos und 50'000 Kanälen, die sich an Kinder richten.
Ein 25-prozentiger Ausbau
In einem Blogeintrag verspricht Youtube-Chefin Susan Wojcicki nun, künftig noch entschiedener gegen missbräuchliche Inhalte auf der Plattform vorzugehen. Algorithmen sollen menschliche Mitarbeiterinnen beim Erkennen von problematischen Inhalten unterstützen. Menschen alleine würden der Menge an Videos längst nicht mehr Herr werden, jeden Tag werden gut eine Milliarde Stunden Videos auf Youtube geschaut und gut eine halbe Million Stunden neues Material hochgeladen.
Youtube will von Erkenntnissen profitieren, die bei der Bekämpfung von Videos mit terroristischen und extremistischen Inhalten gewonnen wurden. Dank der Unterstützung durch maschinelles Lernen könnten menschliche Mitarbeiterinnen in diesem Bereich heute fünfmal mehr Videos entfernen als früher. Und 98 Prozent der entfernten Videos würden zuerst von den Algorithmen erkannt.
Doch Wojcicki setzt auch auf den Faktor Mensch: Sie verspricht, bis 2018 die Zahl der Beschäftigten, die bei Google (also nicht nur bei Youtube) nach problematischen Inhalten suchen, auf über 10'000 zu erhöhen. Dazu gehören vor allem Leute, die Videoinhalte prüfen. Die Zahl umfasst aber auch andere Stellen, die sich mit der Einhaltung der Richtlinien beschäftigen und Ingenieure, die an den Algorithmen für das maschinelle Lernen arbeiten. Es wird geschätzt, dass der Ausbau einem 25-prozentigen Stellenwachstum in diesem Bereich entspricht.
Was ist zu freizügig?
Youtube hofft, mit diesen Massnahmen problematische Inhalte auf der Plattform drastisch einzudämmen. Ein Erfolg ist aber alles andere als sicher. Schliesslich hat sich schon in der Vergangenheit gezeigt, dass auf Youtubes Algorithmen nicht immer Verlass ist. Bei Videos, die sich an Kinder richten, haben sie es zudem mit einem Graubereich zu tun. Die Einteilung in gut und böse dürfte den Programmen viel schwerer fallen als bei terroristischen Inhalten.
Denn auch mit Techniken wie maschinellem Lernen können Algorithmen die Inhalte von Videos nicht wirklich eigenständig erkennen und bewerten. Die Maschinen orientieren sich nur daran, was menschliche Mitarbeiterinnen zuvor als problematische Inhalte gekennzeichnet haben. Später suchen sie in neu hochgeladenen Videos nach Mustern, die solchen Inhalten entsprechen. Mit neuen Inhalten, auf die sie nicht trainiert wurden, kommen sie nicht zurecht.
Nicht weniger schwierig ist das algorithmische Erkennen, wenn es um Videos mit ähnlichen, aber in ihrer Absicht und Wirkung völlig unterschiedlichen Inhalten geht. Das Problem lässt sich am Beispiel der «Flu Shots» zeigen, einer beliebten Youtube-Kategorie. Die Videos zeigen Kinder bei der Grippeimpfung, einige von ihnen reagieren auf die Spritze mit Tränen und lautem Wehklagen. Handelt es sich hier um Videos, in denen Kinder gequält werden? Die korrekte Entscheidung fällt schon Menschen schwer. Von einem Algorithmus ist sie kaum zu erwarten.
Oder was ist mit Mädchen, die auf Youtube stolz den Spagat und andere Turnübungen zeigen und dabei hautenge Trikots tragen? Ist das schon zu freizügig? Und falls ja, müssten dann nicht auch die Videos offizieller Sportveranstaltungen bei Youtube gesperrt werden, an denen minderjährige Sportlerinnen im gleichen Outfit zu sehen sind? Hier kommen Fragen auf, die weit über Youtube hinausgehen.
Löschaktion nach unklaren Regeln
In nützlicher Zeit konnte uns bei Google Schweiz niemand Auskunft darüber geben, wie Youtube seine Algorithmen trainieren wird, um in Zukunft problematisches Material besser und schneller zu erkennen. Auch darüber, wie die menschlichen Mitarbeiterinnen ausgesucht und ausgebildet werden, konnte uns aus Zeitgründen niemand etwas sagen. Ebenso wenig zur Frage, wie die Richtlinien aussehen werden, nach denen diese Mitarbeiterinnen über problematische Inhalte entscheiden werden.
Ein Blick Richtung Facebook lässt jedoch ahnen, wie schwierig es ist, ein Handbuch mit allgemeingültigen Regeln zu definieren. Wer bei Facebook prüft, welche Inhalte auf der Seite veröffentlicht werden dürfen und welche nicht, tut das deshalb oft nach eigenem Gutdünken. Dies zeigt eine Recherche des Guardian. Die Gefahr ist gross, dass dieselben Inhalte so einmal verboten und einmal erlaubt werden – je nach Weltbild der prüfenden Person.
Auch die jüngste Löschaktion von Youtube sorgte für Ärger. Kanäle seien gelöscht worden, ohne dass den Betreibern der Grund dafür klar war – während Kanäle mit vergleichbaren Inhalten weiterbestünden. Andere Kanalbetreiber beklagen sich, dass sie aus unerfindlichen Gründen nun keine Werbung mehr zeigen dürfen. Dazu gehörten auch Kanäle, deren Videos erst wenige Tage zuvor noch als jugendfrei und für alle Werbetreibenden geeignet eingestuft wurden.
Das alles sei ohne vorherige Mitteilung durch Youtube geschehen und ohne die Möglichkeit, den Entscheid wieder rückgängig zu machen. Auf eine Anfrage von Buzzfeed, warum das so passiert sei, wollte Youtube keine Antwort geben.
Keine Werbung mehr bei Videos mit Kindern?
Youtube profitiert davon, dass immer mehr Material hochgeladen wird. Dadurch steigt die Zahl der Werbung, Youtube ist mit 45 Prozent an allen Einnahmen beteiligt. Wenn es aber um die Erkennung von problematischen Inhalten geht, ist Youtube von der schieren Zahl der täglich hochgeladenen und konsumierten Videos überfordert.
Eine Lösung könnte sein, Videos in Zukunft erst zu veröffentlichen, nachdem ein Mensch sie geprüft hat. Dadurch würde die Plattform aber von einem sozialen Medium, an dem jeder sich beteiligten kann, zu einem Medienkanal im herkömmlichen Sinn. Und ohne eine massive Personalaufstockung wäre so ein Vorhaben nicht umzusetzen. Anderenfalls würde es Jahre dauern, bis ein Video veröffentlicht wird.
Eine andere Lösung wäre, Kinder nach denselben Regeln zu schützen, die auch für den Einsatz von Kinderschauspielern in Film oder Fernsehen gelten. Doch auch dieses Vorgehen ist in der Praxis kaum durchzusetzen.
Bleibt ein letzter Vorschlag: Bei allen Videos mit Kindern darf in Zukunft keine Werbung mehr gezeigt werden. Schliesslich profitieren nur in seltenen Fällen tatsächlich die Kinder von den daraus resultierenden Einnahmen. So eine Lösung wäre technisch einfach durchzusetzen, weil ein Algorithmus recht zuverlässig auf die Erkennung von Kindern trainiert werden kann.
Es würde aber bedeuten, dass die Betreiber der entsprechenden Kanäle ihren Lebensunterhalt verlieren. Dabei kann es um viel Geld gehen: Es wird geschätzt, dass alleine «Toy Freaks» – einer der in den letzten Wochen gelöschten Kanäle – über 1 Million Dollar im Monat mit seinen Kindervideos verdient hat.
Sendebezug: SRF Virus, 11:25 Uhr, 13.12.2017; «Espresso» auf SRF 1, 08:12 Uhr, 15.12.2017