Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

29.01.2026, 11:08 Uhr Fake News: Woran erkennt man künstliche Intelligenz?

Wasserzeichen auf Videos nützen wenig, perfekte Hände auf Bildern sind längst Realität. Die Hinweise auf KI-generierte Inhalte werden subtiler. Doch es gibt sie noch.

Download
Bei Videos lohnt sich der Blick auf die Physik: Bewegen sich Menschen, Tiere und Gegenstände so, wie sie es in der echten Welt tun würden? KI hat kein Verständnis für die physikalische Realität und macht deshalb Fehler bei Bewegungsabläufen. Auch Schriften und Beschriftungen bereiten ihr Mühe. Ein weiteres Problem ist die sogenannte Objektpermanenz: Während eine Kamera einfach filmt, was da ist, muss KI jedes Bild neu berechnen. Dabei kann sie vergessen, was im vorherigen Bild noch zu sehen war – Gegenstände verschwinden plötzlich oder tauchen aus dem Nichts auf.

Wasserzeichen, die manche KI-Generatoren inzwischen einblenden, helfen nur bedingt. Versuche zeigen: Viele Menschen übersehen sie oder wissen nicht, was sie bedeuten. Bei Bildern ist die Lage noch schwieriger. Während vor zwei, drei Jahren Hände mit der falschen Anzahl Finger sofort auffielen, sind die Systeme heute deutlich besser geworden. Manchmal verraten noch unleserliche Schriften, verschmolzener Schmuck oder verschwommene Zähne die KI-Herkunft. Doch wichtiger als die Inhalte selbst ist meist der Kontext: Wer hat etwas veröffentlicht? Von welchem Konto stammt es? Was sagen andere Quellen dazu? Wer unsicher ist, sollte vor allem eines nicht tun: den Inhalt selbst weiterverbreiten.

Mehr von «Ratgeber»