Schweizer Deepfakes: Eine Recherche des «Tages-Anzeigers» zeigt: In öffentlichen Telegram-Foren wurden über längere Zeit hinweg sexualisierte KI-Deepfakes von Schweizer Influencerinnen verbreitet. Betroffen sind mindestens 14 Frauen; acht von ihnen haben Anzeige erstattet. In den Foren tauschten sich Männer auf Schweizerdeutsch darüber aus, wie sich solche Deepfakes am einfachsten erstellen lassen.
Kein Einzelfall: Für Angela Müller von der Organisation Algorithm Watch zeigt der Fall, dass KI-Deepfakes keine Randerscheinung sind. «Das Problem ist grösser als einige Einzelfälle», sagt Müller. Sexismus und sexualisierte Gewalt im Netz seien zwar kein neues Phänomen. Aber KI-Technologie wirke als Verstärker. Die Organisation fordert deshalb: Social-Media-Plattformen und die Anbieter von KI-Tools müssten stärker in die Verantwortung genommen werden.
Welche Gesetze greifen? Deepfake-Pornos herzustellen und zu verbreiten, ist in der Schweiz kein eigener Straftatbestand. Der Bundesrat geht davon aus, dass bestehendes Recht grundsätzlich auch auf Deepfakes anwendbar ist. Je nach Fall kommen heute bereits bestehende Straftatbestände infrage, etwa Identitätsmissbrauch oder Ehrverletzungsdelikte. Auch das unbefugte Weiterleiten intimer Inhalte kann strafrechtlich relevant sein. «Meines Erachtens decken die bestehenden Straftatbestände schon einiges ab», sagt Kommunikationsanwalt Manuel Bertschi. Entscheidend sei, dass die Justiz diese Straftatbestände auch konsequent auf solche Fälle anwendet.
Fehlende Durchsetzung: Aus Sicht von Anwalt Bertschi liegt das Kernproblem vor allem bei der juristischen Durchsetzung. Denn Betroffene wissen meist nicht, wer hinter anonymen Accounts steckt, die Deepfake-Pornos verbreiten. Es braucht aber eine private oder juristische Person, die für eine Straftat belangt werden kann. «Ich plädiere stark dafür, eine Haftbarkeit für Plattformen ins Gesetz zu schreiben», sagt Bertschi. Denn momentan sei eines der Hauptprobleme, dass die Plattformen nicht haftbar seien, wenn Deepfake-Inhalte gepostet werden. Auch Angela Müller von Algorithm Watch ist der Meinung, dass die Plattformen zur Rechenschaft gezogen werden müssten, wenn sie von illegalen Inhalten wüssten, diese aber nicht entfernen.
Tools verbieten: Im Nationalrat sind Motionen hängig, die ein Verbot von sogenannten Nudify-Apps verlangen. Dabei handelt es sich um Apps, mit denen sich aus vorhandenen Fotos einer Person einfach Deepfakes erstellen lassen. SRF-Digitalredaktor Guido Berger warnt davor, zu viel von einem Verbot einzelner Dienste zu erwarten. Viele Angebote wechselten rasch Namen, Webadressen oder Infrastruktur. «Sperrt man eine Seite oder einen Dienst, taucht rasch ein neues Angebot an anderer Stelle auf», so Berger.
Gesellschaftliches Problem: Verbote und Gesetze können also höchstens Teil einer Lösung sein. Für Angela Müller von Algorithm Watch greift eine rein strafrechtliche Debatte ohnehin zu kurz. Der Schaden sei meist bereits entstanden, wenn Deepfake-Inhalte im Netz kursierten. Nötig seien deshalb auch Prävention, Anlaufstellen für Betroffene und mehr Verantwortung für Plattformen, deren Design und Algorithmen problematische Inhalte begünstigen könnten. Deepfake-Pornos seien Ausdruck eines gesellschaftlichen Problems, das nicht nur mit Gesetzen gelöst werden könne.