In Dänemark plant die Regierung ein neues Gesetz. Im Fokus dabei sind sogenannte Deepfakes, also zum Beispiel Videos, in denen Künstliche Intelligenz (KI) eine Person etwas sagen lässt, das sie in Wahrheit gar nie gesagt hat. Das neue Gesetz soll jedem Menschen das Recht auf seinen eigenen Körper, seine eigene Stimme und seine eigenen Gesichtszüge geben. Guido Berger über die Hintergründe.
Wer steht im Zentrum dieser Diskussion zur Bekämpfung von Deepfakes?
Guido Berger: Der dänische Vorschlag zielt auf zwei Gruppen ab: Die erste wäre Schauspieler, Synchronsprecher oder Autorinnen. Also alle, die etwas produzieren und die sich jetzt berechtigterweise fürchten, dass jemand mithilfe von KI sie nachahmen kann, ohne dass sie darüber die Kontrolle haben oder auch entschädigt würden. Dänemark möchte aber auch den normalen Bürgern helfen. Sie sollen ebenfalls davor geschützt werden, dass ihr Antlitz oder ihre Stimme kopiert und böswillig eingesetzt werden, beispielsweise bei Identitätsdiebstahl, Betrügereien oder Rache-Pornografie.
Greifen die bestehenden Gesetze gegen Identitätsmissbrauch und das Recht am eigenen Bild zu kurz?
Das ist eine grundsätzliche Frage, die aktuell in vielen Ländern diskutiert wird. In Dänemark ist man offenbar der Meinung, dass die aktuelle Gesetzgebung nicht reiche und es ein zusätzliches Gesetz brauche. Soweit ich das aus der Distanz beurteilen kann, gibt es für diesen Vorschlag von links bis rechts eine breite politische Unterstützung. Bemerkenswert finde ich, dass der Vorschlag nicht bei der Herstellung von Deepfakes ansetzt, sondern bei der Verbreitung.
Man will damit die Grundlage schaffen, dass Verbreitungsplattformen wie zum Beispiel soziale Netzwerke verpflichtet werden, Deepfakes zu löschen, wenn man sie dazu auffordert. Wenn also ein Deepfake von mir auf Tiktok herumflattert, muss ich diese Plattform auffordern können, das Video zu löschen. Kommt Tiktok dieser Forderung nicht nach, muss die Firma eine Busse bezahlen. Ähnlich also, wie es in der EU bereits gehandhabt wird bezüglich Hassrede. Die Frage wird sein, wie das Ganze umgesetzt wird, also wie entschieden wird, was ein Deepfake ist. Dies wird im Einzelfall komplizierter werden, als man sich das vorstellt, und ich wage hier eine gewisse Willkür zu prophezeien.
Wo steht die Schweiz in der Diskussion um Deepfake-Regulierungen?
Diesen Mai gab es im Nationalrat eine entsprechende Motion von den Grünen, die ebenfalls eine Regulierung von Deepfakes forderte. Sie wurde aber abgelehnt. Gemäss Bundesrat würden die bestehenden Gesetze im Bereich Straf- und Zivilrecht ausreichen. Zudem arbeitet der Bundesrat aktuell an einer allgemeineren KI-Regulierung. Dadurch, dass Rösti eine Minimalregulierung als Ziel vorgegeben hat, erwarte ich nichts Wesentliches, und keine Regulierung wie in der EU.
Kürzlich in den Medien war der Fall des SVP-Nationalrats Andreas Glarner, welcher ein Deepfake-Video der Grünen-Nationalrätin Sibel Arslan publiziert hatte. Glarners Immunität wurde aufgehoben, damit ist der Weg frei für ein Verfahren. Dieses Verfahren wird Aufschluss darüber geben, wie man bestehende Gesetze auf ein solches Deepfake-Video anwenden kann. Es sieht im Moment also eher danach aus, dass die Schweiz den Weg über bestehende Gesetze und Präzedenzfälle wählt, um das Thema zu handhaben, und nicht über ein zusätzliches Gesetz wie Dänemark oder eventuell die EU.