Zum Inhalt springen

Header

Audio
Bilder vom Krieg – Zwischen Fakt und Fake
Aus Kultur-Aktualität vom 10.11.2023. Bild: Adobe Stock
abspielen. Laufzeit 3 Minuten 43 Sekunden.
Inhalt

Expertin über KI im Krieg «Fake-Bilder schockieren so sehr, dass man nicht genau hinsieht»

Der Krieg ist immer auch einer um die Bilder. Anfang November wurde publik, dass die Software-Firma Adobe Fotos vom Nahostkrieg angeboten hat, die mit KI erzeugt wurden. Viele Newsportale veröffentlichten sie – teilweise ohne Kennzeichnung.

Wie stellt SRF sicher, dass auf seinen Plattformen keine Fakebilder veröffentlicht werden? Stefanie Strahm vom Netzwerk Faktencheck von SRF erklärt, wie man Fakebilder erkennt und was man gegen sie tun kann.

Stefanie Strahm

Stefanie Strahm

Personen-Box aufklappen Personen-Box zuklappen

Stefanie Strahm ist bei SRF in der Abteilung Recherche und Archive tätig.

SRF: Hat das Netzwerk Faktencheck von SRF beim Thema Nahostkonflikt schon mit Fakebildern zu tun gehabt?

Stefanie Strahm: Bis jetzt hatten wir keine KI-generierten Bilder, aber wir hatten mit anderen Fakes zu tun. Das waren vor allem alte Bilder aus früheren Konflikten im Nahen Osten, die dann in einem falschen Zusammenhang gepostet wurden. Die Gefahr bei solchen Bildern ist, dass Aussagen suggeriert werden, die nicht stimmen. Gerade bei den KI-Bildern: Die wirken echt und sind oft sehr dramatisch. Gerade darum werden sie auch gerne verwendet. Vor allem auf Social Media, weil sie Klicks generieren.

Bild einer Strasse mit einem Auto und Trümmern. Im Hintergrund Personen, im Vordergrund Flammen
Legende: Real oder fake? Auch Bild-KIs werden immer besser. Fakebilder wie dieses kursierten infolgedessen sogar auf News-Portalen – ohne Kennzeichnung. Adobe Stock / KI-generiert

An welchen Merkmalen erkennt man KI-Fake-Bilder?

Gerade bei Händen hat KI nach wie vor grosse Probleme. Sie generiert etwa zu viele Finger oder die Hände wirken total unrealistisch. Auch Zähne sind schwierig für KI. Aber es gibt noch viele andere Faktoren, wie beispielsweis ein sehr verzerrter Hintergrund. Auch Beleuchtungen oder Schattenwürfe passen oftmals nicht zusammen.

Wieso erkennt man den Fake trotz der Auffälligkeiten nicht?

Es gibt den Grundsatz, dass ein KI-Fake immer nur auf den ersten Blick überzeugen muss, weil es in der Regel eben nur kurz angeschaut wird. Man ist dann vom Inhalt oder von der Aussage des Bildes so geschockt, dass man es sich nicht mehr genauer anschaut. Und der zweite Grundsatz ist, dass trotz der Summe all dieser Auffälligkeiten – komische Finger, merkwürdige Bildränder und so weiter – dennoch ein stimmiges Gesamtbild entsteht.

Wie geht das Netzwerk Faktencheck vor, um solche Bilder zu entlarven?

Wir schauen ganz genau hin und achten auf die gerade genannten Merkmale. Wir schauen uns jedes Bild sehr kritisch an. Neben den inneren Auffälligkeiten eines solchen KI-Bildes muss man sich auch immer fragen, welche äusseren Faktoren es gibt: Wo soll das Bild überhaupt aufgenommen worden sein? Kann das stimmen? Bei den von Adobe in Umlauf gebrachten Bildern gab es eine ganze Serie, die angebliche Kämpfe in Jerusalem zeigte. Dort finden aber zurzeit überhaupt keine Kämpfe statt.

KI-generierte Szene mit einer grossen Stadt mit zwei Wolkenkratzern. Im Vordergrund zwei Rauchwolken oder Explosionen
Legende: KI-generierte Szene mit der Beschreibung «Israel at war with Hamas». Ein genauer Blick lohnt sich. Die Häuser im Hintergrund sind sehr verschwommen, Elemente werden oft wiederholt. Adobe Stock / KI-generiert

Überprüft das Netzwerk Faktencheck, ob dieses Bild tatsächlich dort gemacht worden sein kann?

Ja, denn ist ein weiterer Schritt im Faktencheck. Das nennt sich Geolokalisierung. Dabei wird mittels Kartenmaterial oder Satellitenbildern versucht, herauszufinden, wo ein Bild genau entstanden ist. Das ist allerdings nicht immer möglich. Wenn wir keine eindeutige Antwort finden oder wenn erhebliche Zweifel bestehen, raten wir auf jeden Fall davon ab, das Bild zu publizieren. Die einfache Regel lautet: Lieber ein Bild nicht verwenden, auch wenn es passen würde, als ein Bild verwenden, das Fake ist.

Das Gespräch führte Ruth Wili.

Radio SRF 2 Kultur, Kultur Aktualität, 10.11.2023, 07:07 Uhr ;

Meistgelesene Artikel