Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

KI-generierte Bilder KI-Bilder: Meloni warnt vor «gefährlichen» Deepfakes

Online kursieren KI-Bilder von Italiens Ministerpräsidentin. Sie reagiert mit Kritik und warnt vor den Gefahren.

Italiens Ministerpräsidentin Giorgia Meloni hat sich am Dienstagabend erstmals öffentlich zu mehreren Deepfake-Bildern geäussert, die derzeit von ihr im Internet kursieren.

Die mithilfe künstlicher Intelligenz erzeugten Bilder zeigen Meloni in sexualisierten Darstellungen. Auf einem der Bilder sitzt sie in Dessous auf einem Bett. Dies veröffentlichte Meloni selbst online, um auf das Problem von Deepfakes aufmerksam zu machen und zu kritisieren. Dazu schreibt sie: «Zurzeit kursieren mehrere gefälschte Fotos von mir, die mit künstlicher Intelligenz erstellt und von einem übereifrigen Gegner als echt verbreitet werden.»

Von Desinformation bis Fake News – die Definitionen

Box aufklappen Box zuklappen

Desinformation: Ein falscher oder irreführender Inhalt, der mit der Absicht verbreitet wird, zu täuschen. Ziel kann ein wirtschaftlicher oder politischer Gewinn sein. Der Begriff wird vor allem in der Wissenschaft gebraucht.

Misinformation (Fehlinformation): Eine vom Absender versehentlich verbreitete Falschmeldung, aufgrund von Nichtwissen oder Nichtkenntnis des Fehlers.

Fake News: Der Begriff wird im alltäglichen Gebrauch unterschiedlich genutzt und ist zugleich umstritten. Er kann als Synonym für Desinformation oder als Kampfbegriff in der Politik und gegenüber Medien genutzt werden. Ebenso wird er auch für falsche Inhalte mit kommerziellen Zielen gebraucht.

Mehr dazu auch bei #UseTheNews.

Ironisch ergänzt sie: «Ich muss zugeben, dass mich derjenige, der die Bilder erstellt hat, zumindest im vorliegenden Fall deutlich verschönert hat.» Doch die Tatsache bleibe bestehen, «dass heute alles genutzt wird, um anzugreifen und Unwahrheiten zu verbreiten».

Gleichzeitig warnte Meloni vor den Gefahren. «Das Ganze geht über meine Person hinaus. Deepfakes sind ein gefährliches Werkzeug, weil sie täuschen, manipulieren und jeden treffen können. Ich kann mich verteidigen. Viele andere können das nicht», schreibt sie.

«Deshalb sollte immer eine Regel gelten: überprüfen, bevor man glaubt, und nachdenken, bevor man etwas teilt. Denn heute trifft es mich, morgen kann es jede andere Person treffen.»

Wie erkenne ich Deepfakes?

Box aufklappen Box zuklappen

Werden unglaubliche Versprechen gemacht? Passen die Aussagen der gezeigten Person überhaupt zu dem, was sie üblicherweise sagt (z.B. SRF-Mitarbeitende, die Werbung machen, was sie normalerweise nicht tun)? Und müsste ein Video aus dem SRF-Nachrichtenstudio nicht auch auf srf.ch zu finden sein? Solche inhaltlichen Fragen können oft helfen, einen zweifelhaften Beitrag zu identifizieren.

Daneben können auch formale Aspekte Hinweise liefern:

  1. Gesichtsausdruck überprüfen: Eine unnatürliche Mimik oder ein leerer Blick können ein Hinweis darauf sein, dass es sich um ein Fake handelt. Gleiches gilt für eine unnatürlich glatte Haut, besondere Augenbrauen oder Lippenbewegungen.
  2. Blick auf die Augen: Überprüfen Sie die Augen des Sprechenden. Wirkt das Blinzeln natürlich?
  3. Stimme und Tonfall: Wenn die Stimme nicht zur Person passt oder sich unnatürlich anhört, könnte das ein Hinweis sein.
  4. Unterschiedliche Qualität: Wenn die Qualität des Gesichts und des Hintergrunds stark variiert oder zwischen Gesicht und Hals ein unscharfer Übergang auffällt, könnte es sich um ein Deepfake handeln.
  5. Licht und Schatten: Unregelmässige Schatten oder Lichtreflexionen könnten auf eine Bearbeitung hinweisen.
  6. Bewegungen und Hintergrund: Passt der Hintergrund nicht zur Situation oder sind die Bewegungen nicht flüssig?

Hinweis der Redaktion: Diese Tipps wurden am 1. Juni 2024 erstmals veröffentlicht und für diesen Artikel adaptiert.

Den Namen und das Profilbild der Person, die die Bilder verbreitet haben soll, verpixelte Meloni in ihrem Beitrag.

Frauen stärker von sexualisierten Deepfakes betroffen

Giorgia Meloni ist nicht die erste europäische Politikerin, die Ziel von KI-generierten Deepfakes wurde. Besonders Frauen in der Öffentlichkeit und in Führungspositionen sind betroffen. Während KI-generierte politische Inhalte weltweit stark zunehmen, richten sich anzügliche oder sexualisierte Fälschungen fast ausschliesslich gegen Frauen. Männer in vergleichbaren Positionen sind deutlich seltener betroffen.

Darauf weist auch ein Bericht von «UN Women» hin, der Anfang Mai veröffentlicht wurde. Demnach sind Frauen im öffentlichen Leben zunehmend digitaler Gewalt ausgesetzt – verstärkt durch den rasanten Fortschritt künstlicher Intelligenz.

Bericht von «UN Women» zu Online-Gewalt

Box aufklappen Box zuklappen

Für einen Bericht befragte «UN Women» Journalistinnen, Aktivistinnen, Menschenrechtsverteidigerinnen, Autorinnen und andere Frauen, die öffentlich sichtbar sind. Die Untersuchung zeigt, dass KI-gestützte Gewalt – darunter Deepfakes, manipulierte sexualisierte Bilder und Videos sowie andere Formen bildbasierter Übergriffe – bestehende Formen von Belästigung weiter verschärft.

Zudem berichteten Teilnehmerinnen einer Umfrage aus dem Jahr 2025, an der Frauen aus 119 Ländern teilnahmen, von Täter-Opfer-Umkehr und fehlenden Möglichkeiten, sich rechtlich gegen solche Angriffe zu wehren. All dies beeinträchtigt laut der Umfrage letztlich die Teilhabe von Frauen am öffentlichen Leben.

Regierungen ringen um Regulierung von KI

Kalliopi Mingerou, Leiterin Abteilung zur Bekämpfung von Gewalt gegen Frauen der «UN Women», sagte: «KI macht Missbrauch einfacher und schädlicher. Das beschleunigt den Abbau hart erkämpfter Rechte – in einem Umfeld, das von demokratischem Rückschritt und vernetzter Misogynie geprägt ist.» Es sei die Verantwortung von Staaten, Plattformen und Gesetzgebern, mit der nötigen Dringlichkeit auf diese Entwicklung zu reagieren.

Weltweit versuchen Regierungen, gesetzliche Regeln für den Umgang mit künstlicher Intelligenz zu schaffen. Italien war 2025 das erste EU-Land, das ein eigenes Gesetz zur Regulierung von KI verabschiedete. Dieses sieht Freiheitsstrafen von einem bis fünf Jahren für die illegale Verbreitung KI-generierter oder manipulierter Inhalte vor, wenn dadurch Schaden entsteht. Höhere Strafen gelten, wenn KI für Straftaten wie Betrug oder Identitätsdiebstahl eingesetzt wird.

Dem vorausgegangen war der europäische AI Act von 2024 – der weltweit erste umfassende Rechtsrahmen für künstliche Intelligenz. Die Umsetzung und Anpassung der neuen Regeln verzögert sich jedoch teilweise, obwohl sie ab August 2026 in Kraft treten sollen.

SRF 4 News, 7.5.2026, 6 Uhr;weds

Meistgelesene Artikel