Zum Inhalt springen

Header

Audio
Fälschen leicht gemacht mit künstlicher Intelligenz
Aus Rendez-vous vom 02.02.2024. Bild: Kevin Winter / Getty Images / TAS Rights Management
abspielen. Laufzeit 4 Minuten 29 Sekunden.
Inhalt

Betroffene wie Taylor Swift Deepfake-Pornos: Ein manipuliertes Video kann ein Leben ruinieren

Jetzt traf es Taylor Swift, aber es könnte alle treffen: Deepfake-Pornos, die sich im Netz verbreiten. Welche Spuren hinterlässt es bei Betroffenen?

17 Stunden lang kursierten KI-generierte pornografische Bilder von Taylor Swift Ende Januar auf der Plattform X. Bis zu 47 Millionen Mal sollen die Deepfakes aufgerufen worden sein, bis die Suche nach Taylor Swift von der Plattform gesperrt wurde. Deepfakes sind – meist mithilfe von Künstlicher Intelligenz (KI) – manipulierte Bilder oder Videos.

Der Fall sorgte für Schlagzeilen auf der ganzen Welt. Taylor Swifts Deepfakes sind aber nur die Spitze des Eisbergs, denn Fälle von sogenannter bildbasierter sexueller Gewalt im digitalen Raum gibt es seit Jahren. Opfer waren K-Pop-Stars, TikTokerinnen, Journalistinnen oder Mädchen an US-amerikanischen High-Schools.

Neue Form sexualisierter Gewalt – im digitalen Raum

Laut einer Studie von Deeptrace, einer auf Deepfakes spezialisierten Firma, sind 96 Prozent aller Deepfakes pornografischer Natur. Und von 100 Fällen zielen 99 auf Frauen ab. Aller Befürchtungen zum Trotz, dass Deepfakes politische Prozesse wie Wahlen unterwandern, werden sie also hauptsächlich als Waffe gegen Frauen eingesetzt.

Video
Archiv: Wie Frauen Opfer von künstlicher Intelligenz werden
Aus NZZ Format vom 31.08.2023.
Bild: SRF/NZZ Format abspielen. Laufzeit 29 Minuten 40 Sekunden.

«Wenig erstaunlich», findet das Jolanda Spiess-Hegglin von #NetzCourage. Ihr Verein berät Menschen, die sexuelle Gewalt im digitalen Raum erlebt haben. Es handle sich um ein Machtinstrument im Patriarchat: «Mit Pornografie kann man eine Frau im Innersten treffen», sagt Spiess-Hegglin. Es sei eines der ältesten Mittel, eine Frau zum Schweigen zu bringen: Sie zu einem Objekt zu machen und zu sexualisieren.

Ähnlich tönte es nach dem Swift-Skandal bei vielen Aktivistinnen auf X. Und so sieht das auch Jürg Tschirren von der SRF-Digitalredaktion: «Mittels KI können Deepfakes potenziell schneller und einfacher verbreitet werden. Aber es konnte schon immer jede Frau – ob Popstar oder nicht – treffen.»

Je mehr Bilder, desto einfacher

Einzig: Bei Taylor Swift ist es einfacher, eine KI mit Bildern von ihr zu trainieren, da es viel Bildmaterial des Popstars im Netz gibt.

Es ist kein KI-Problem. Es ist ein Sexismus-Problem, das es seit Jahrhunderten gibt.
Autor: Jürg Tschirren SRF-Digitalredaktor

Wie gut ist denn die Technologie heute schon? «Man muss zwischen Deepfake-Fotos und Videos unterscheiden», so Jürg Tschirren. Fotos können mit heutigen Online-Bildgeneratoren schon sehr überzeugend erstellt werden. Videos hingegen seien noch sehr schlecht.

«Das Perfide an der Sache ist, dass Deepfake-Pornos technisch gar nicht gut gemacht sein müssen», so Tschirren. Egal wie realistisch oder unrealistisch die Montage aussehe, gedemütigt sei man trotzdem. Deshalb resümiert er: «Es ist kein KI-Problem. Es ist ein Sexismus-Problem, das es seit Jahrhunderten gibt.»

Tausende Views, ein Leben ruiniert

«Es zieht einem den Boden unter den Füssen weg, wenn man solche Inhalte von sich entdeckt», erzählt Jolanda Spiess-Hegglin, die selbst sexualisierte Gewalt im Netz erlebt hat. «Man fühlt sich – und ist es leider oft auch – machtlos.»

Video
Archiv: Täuschend echt – Deepfakes
Aus Gesichter & Geschichten vom 25.04.2023.
abspielen. Laufzeit 3 Minuten 21 Sekunden.

Denn: Sobald die pornografischen Inhalte ihren Weg in Chat-Foren oder soziale Netzwerke finden, verbreiten sie sich rasant. «Solche Inhalte sind kaum aus dem Netz wegzubringen», sagt SRF-Digitalredaktor Jürg Tschirren.

Thema beim Bewerbungsgespräch

Angenommen, es gäbe unter den abertausenden Pornos im Netz einen Deepfake-Porno von mir, der Autorin dieses Artikels, einer nicht öffentlich bekannten Person. Die Wahrscheinlichkeit, dass ihn viele in meinem Bekanntenkreis sehen, ist klein.

«Aber dennoch ist die Möglichkeit da», so Tschirren. Das kann einen Verfolgungswahn auslösen. Man weiss, dieses Material ist da draussen, potenziell könnte es jeder sehen: mein neuer Freund, mein neuer Tennislehrer, mein neuer Arbeitgeber.

«Es ist die pure Abschreckung. Als Firma zögert man sofort, diese Person einzustellen, oder nicht?», gibt Spiess-Hegglin zu bedenken. Sie erzählt, dass sie sich selbst schon bei Auftraggebern oder Sponsoren erklären musste.

Die Rechtslage: Sind Deepfakes illegal?

Box aufklappen Box zuklappen

Grundsätzlich sind Deepfakes nicht illegal. Es gilt jedoch: Wer Deepfakes einer Person erstellt, verstösst gegen deren Recht am Bild, deren Persönlichkeitsrecht oder gegen das Urheberrecht.

Zudem könnte beim Verbreiten pornografischer Darstellungen mithilfe von künstlicher Intelligenz Artikel 197 Absatz 1 und 2 StGB (Pornografie) im Schweizerischen Strafgesetzbuch zur Anwendung kommen. Unter anderem wird bestraft, wer pornografische Darstellungen «öffentlich ausstellt oder zeigt oder sie sonst jemandem unaufgefordert anbietet».

Ob Fälle wie jener von Taylor Swift tatsächlich «pornografisch» im Sinne von Artikel 197 sind, müsste die zuständige Strafbehörde beurteilen, teilt das Bundesamt für Justiz auf Anfrage mit.

Schliesslich sei in dieser Frage auch der Grundsatz der Richtigkeit der Daten nach Artikel 6 Absatz 5 des neuen Datenschutzgesetzes (nDSG; SR 235.1) zu erwähnen. Demnach muss jede Person, die Personendaten bearbeitet, sich über deren Richtigkeit vergewissern.

Bei einer widerrechtlichen Datenbearbeitung stehen der betroffenen Person verschiedene Rechtsansprüche, wie die Löschung oder Vernichtung der Daten, zu (Art. 30 ff. DSG).

Das Opfer trägt also die Verantwortung – und muss Deepfake-Erlebnisse beim Bewerbungsgespräch oder ersten Date ansprechen. Als Betroffene habe man weder guten Schutz durch Gesetze noch versierte technische Möglichkeiten, um schnell zu reagieren, sagt Spiess-Hegglin. «Oftmals sind diese Frauen sich selbst überlassen.»

Was kann man machen?

Die Opferhilfe oder Vereine wie #NetzCourage versuchen, Betroffene aufzufangen und psychologisch zu betreuen. «Bei digitaler Gewalt spielt der Vertrauensverlust eine grosse Rolle. Man fühlt sich allein, wenn Leute sich nicht für dich starkmachen beim Auftauchen solcher Inhalte», so Spiess-Hegglin.

Es sei wichtig, dass die Betroffenen jemanden an der Seite haben, der sie ernst nimmt und sie unterstützt. Konkret heisst das: Wenn pornografische Inhalte auftauchen, soll so rasch wie möglich alles gesichert werden: Screenshots machen, inklusive URL und Zeitangaben.

«Am besten fragt man eine vertraute, aber nicht zu nahestehende Person im Umfeld um Hilfe», so Spiess-Hegglin. Damit man selbst nicht die Inhalte anschauen muss und re-traumatisiert werde.

Digitale Gewalt kann Menschen zu Suizid verleiten.
Autor: Jolanda Spiess-Hegglin Gründerin von #NetzCourage

Auch mit Fachstellen und der Polizei soll Kontakt aufgenommen werden, empfiehlt Spiess-Hegglin. «Am besten sucht man einen Polizeiposten in einer grösseren Stadt auf.» In kleineren Orten würden bei der Polizei die Kompetenz und die Kapazitäten für Opfer digitaler Gewalt fehlen.

Anerkennung und Engagement

So erhofft sich Jolanda Spiess-Hegglin, dass in Zukunft digitale Gewalt in der breiten Masse als Gewaltakt anerkannt werde und mehr passiere auf Gesetzesebene. «Digitale Gewalt kann Menschen zu Suizid verleiten.»

Solange die Gesellschaft nicht an den Ursachen, wie Sexismus und Misogynie, etwas ändert, werde sexualisierte Gewalt gegen Frauen nicht aufhören. Nur neue Formen annehmen.

Die Kultur-Highlights der Woche im Newsletter

Box aufklappen Box zuklappen

Entdecken Sie Inspirationen, Geschichten und Trouvaillen aus der Welt der Kultur: jeden Sonntag, direkt in Ihr Postfach. Newsletter jetzt abonnieren.

Radio SRF 1, Rendez-vous, 2.2.2024, 12:30 Uhr

Meistgelesene Artikel