Zum Inhalt springen

Header

Audio
Warnungen sind schädlicher als die Deepfakes
Aus Digital vom 02.06.2023. Bild: Mit der KI-Software Midjourney generierter Deepfake
abspielen. Laufzeit 15 Minuten 43 Sekunden.
Inhalt

KI und Deepfakes Gefälschte Bilder: Warnungen sind schädlicher als Fälschungen

Anders als viele KI-Experten glaubt der Philosoph Joshua Habgood-Coote nicht an die grosse Vetrauenskrise.

Der Papst in modischer Winterkleidung oder Donald Trump, der sich gegen seine Verhaftung wehrt: Solch fotorealistischen Bilder sorgten vor kurzem für Schlagzeilen. Die mit KI generierten Darstellungen – sogenannte Deepfakes – machen deutlich, wozu Bildgeneratoren der neusten Generation fähig sind. Experten, wie der renommierte KI-Forscher Geoffrey Hinton, warnen vor einer Welle manipulierter Aufnahmen, die von echten Fotos kaum zu unterscheiden sind und deshalb zur totalen Verunsicherung führten.

Viel gelassener sieht das der Philosoph Joshua Habgood-Coote, der an der Universität Leeds lehrt und zur Erkenntnistheorie forscht. Warnungen vor einem Vertrauenskollaps hält er für übertrieben, ja sogar für schädlicher als die gefälschten Bilder selbst. Und die Angst vor dem Vertrauensverlust ist für ihn nichts Neues.

Bildmanipulationen sind nichts Neues

Ein Blick in die Geschichte der Fotografie zeigt: Fälschungen gab es schon immer.

Fotomontage eines überdimensionierten Pferdes und einem riesigen Maiskolben auf einem Güterwagen.
Legende: Überdimensionierte Natur ca. 1910: Ein beliebtes Sujet für Fotomontagen um die Jahrhundertwende. The Met; Colllage SRF

1869 wurde zum Beispiel der amerikanische Fotograf William Mumler in New York wegen Betrugs verurteilt. Er hatte Porträts angefertigt, auf denen neben Lebenden auch der Geist eines Verstorbenen zu sehen war – eine Fotomontage in der Dunkelkammer.

Als der Betrug aufflog, sei die Empörung gross gewesen, sagt Joshua Habgood-Coote: «Die Zeitungen publizierten entsetzte Kommentare zu diesen gefälschten Fotografien. Sie warnten, dass nun das Vertrauen in alle möglichen Medien komplett zerstört sei.»

John J. Glover sitzend, hiner ihm halbtransparent das Bild einer älteren Frau.
Legende: William H. Mumler wurde wegen Betrugs verurteilt, weil er manipulierte Fotos anfertigte, die Menschen mit dem Geist eines Verstorbenen zeigen. Getty

Die Reaktionen auf die Fälschungen vor fast 150 Jahren hätten grosse Ähnlichkeiten mit den aktuellen Warnungen vor Deepfakes. Sie führten zu grösseren Verunsicherungen als die Fälschungen selbst, denn sie würden das Vertrauen in unsere Fähigkeiten, echte von falschen Bildern zu unterscheiden, untergraben.

Diese Fähigkeiten hätten wir durchaus, ist der Philosoph überzeugt. Etablierte Medien spielen dabei eine wichtige Rolle. Stösst man etwa auf das Bild der Verhaftung Donald Trumps und merkt dann nach kurzer Recherche, dass weder Schweizer Zeitungen noch internationale Medien den Vorfall erwähnen, so ist klar, dass es sich um eine Fälschung handelt.

Deepfakes sind fehlerhaft und aufwändig

Mit den neusten KI-Techniken zur Bildgenerierung ist zwar mit viel weniger Aufwand viel mehr möglich als zu Zeiten der analogen Fotografie in der Dunkelkammer, doch trivial ist die Herstellung realistisch wirkender Bilder auch heute nicht. Es brauche dazu einiges an Fertigkeiten. Bei Videos steigt der Aufwand nochmals erheblich, da man oft sehr viel Bildmaterial beschaffen muss.

Prompt: open hand, detailed, ultra photo realistic, 8k, award winning photography
Legende: Sechs Finger und Nägel auf der Handinnenseite: ein eher einfach durchschaubares Fake-Bild. Michael King

Deepfakes sind denn auch meistens nicht perfekt. Schaut man mit KI generierte Bilder genau an, so sieht man oft grobe Fehler. So ist Donald Trump auf einem Bild mit nur neun Fingern zu sehen. Auch kleinere Unstimmigkeiten weisen auf Fälschungen hin: Der Kopf passt nicht genau auf den Körper oder mit Licht und Schatten stimmt etwas nicht.

Joshua Habgood-Coote bestreitet nicht, dass es Probleme geben wird mit Deepfakes, zum Beispiel in Zusammenhang mit pornografischen Inhalten, wo meistens die Frauen Opfer sind. Wo die bestehenden Gesetze nicht greifen, schlägt er Anpassungen vor. Technologie einzusetzen, um Deepfakes zu bekämpfen, ist für ihn keine Lösung.

SRF 1, 31. Mai 2023 , 18:25 Uhr

Jederzeit top informiert!
Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden.
Schliessen

Jederzeit top informiert!

Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden. Mehr

Push-Benachrichtigungen sind kurze Hinweise auf Ihrem Bildschirm mit den wichtigsten Nachrichten - unabhängig davon, ob srf.ch gerade geöffnet ist oder nicht. Klicken Sie auf einen der Hinweise, so gelangen Sie zum entsprechenden Artikel. Sie können diese Mitteilungen jederzeit wieder deaktivieren. Weniger

Sie haben diesen Hinweis zur Aktivierung von Browser-Push-Mitteilungen bereits mehrfach ausgeblendet. Wollen Sie diesen Hinweis permanent ausblenden oder in einigen Wochen nochmals daran erinnert werden?

Meistgelesene Artikel