Zum Inhalt springen

Fake-Hasen und -Zeitzeugen Fotorealistisch und gefährlich: Die Macht von KI-Videos

Immer mehr von Künstlicher Intelligenz geschaffene Inhalte erscheinen auf Instagram und Tiktok. Wie man sie erkennt und was die Gefahren sind – ein Überblick.

Darum geht es: In den sozialen Medien sind immer häufiger KI-generierte Inhalte zu sehen. Eine Studie der europäischen Organisation AI Forensics zeigt, dass Tiktok und Instagram mit KI-Videos regelrecht geflutet werden. Die Studienautoren warnen, das Desinformationspotenzial sei hoch und könnte bald Demokratien gefährden.

Von wem stammen die KI-Inhalte?

Box aufklappen Box zuklappen

Der Grossteil der analysierten KI-Videos stammen nicht von Einzelpersonen, sondern von Accounts, die ausschliesslich oder mehrheitlich KI-Inhalte posten. Die Studienautorinnen und -autoren nennen sie «Agentic AI Acounts». Diese würden nahezu automatisiert und in Serie KI-Inhalte produzieren. Auf Tiktok gingen über 80 Prozent der untersuchten KI-Videos auf solche Accounts zurück. Auf Instagram waren es rund 15 Prozent.

Die Ergebnisse der Studie: Die Forscher analysierten Top-30-Suchergebnisse zu 13 populären Hahstags (Suchbegriffen) auf Tiktok und Instagram in Deutschland, Spanien und Polen. Darunter Hahstags wie #Trump oder #History. Rund ein Viertel der Treffer auf Tiktok zeigte Inhalte, die mit generativer KI erstellt wurden. Auf Instagram waren fünf Prozent der analysierten Videos KI-generiert. In rund 80 Prozent der Fälle waren die Bilder und Videos so fotorealistisch, dass sie auf den ersten Blick nicht als KI-Inhalte zu erkennen waren.

Smartphone-Bildschirm mit Tiktok-Video-Vorschauen.
Legende: Aus demokratiepolitischer Sicht wird es laut dem Forscherteam dann gefährlich, wenn KI-Videos gezielt vor Wahlen oder bei der Berichterstattung über Kriege eingesetzt würden. Keystone/ Gaetan Bally

KI wird selten gekennzeichnet: Viele der KI-Videos haben laut den Forschungsteams das Ziel, als wirklichkeitsgetreue Faktendarstellungen wahrgenommen zu werden. So würden beispielsweise Clips mit manipulierten Bildern aus der Zeit des Naziregimes vermeintlich die Perspektive von Opfern im Konzentrationslager Auschwitz zeigen. Das Problem: Die Plattformen markieren viele dieser Inhalte nicht als künstlich erzeugt. Auf Tiktok fehlte eine Kennzeichnung bei etwa der Hälfte der analysierten Beiträge. Bei Instagram waren nur ein Viertel der KI-Videos als solche gekennzeichnet.

Tiktok und Instagram fordern Nutzer auf, KI zu kennzeichnen

Box aufklappen Box zuklappen

Bereits jetzt fordern Tiktok und Instagram ihre Nutzerinnen und Nutzer auf, KI-Inhalte als solche zu kennzeichnen. Kontrolliert wird dies aber erst, wenn ein Inhalt gemeldet wird. Bei Instagram wird dann ein KI-Label beim Beitrag angezeigt.

Auch Tiktok hat solche Kennzeichnungen. Zudem können bei der Plattform auch Hahstags oder Wörter in der Beschreibung benutzt werden. Doch die Hashtag-Reihen sind oft sehr lange. Nutzerinnen und Nutzer müssten die Beitragsbeschreibung öffnen, damit ihnen alle Hashtags angezeigt werden.

Das sagt die SRF-Digitalredaktorin: Die KI-Flut könne weitreichende Folgen auch auf gesellschaftlicher Ebene haben, sagt Tanja Eder von der SRF-Digitalredaktion. «Die Leute wissen nicht mehr, was real ist. Es kann passieren, dass man etwas glaubt, was nicht stimmt. Oder man glaubt einfach gar nichts mehr». Sie warnt davor, dass die Leute irgendwann die Plattformen verlassen würden, weil sie nur noch «Mist» sehen. «Kurzfristig profitieren die sozialen Netzwerke von den KI-Inhalten. Längerfristig wird es aber zum Problem, weil es die Menschen vergrault.»

Das sagt ein KI-Experte: Die KI-Generatoren hätten ein Level erreicht, bei dem es immer schwieriger werde, KI-Inhalte zu erkennen, sagt Patrick Karpiczenko. «Kürzlich bin ich selbst bei einem Hasen-Video reingefallen.» Das Problem liege auch darin, dass die Zuschauer glauben wollen. «Ich wollte glauben, dass die Hasen auf dem Trampolin echt sind und schaute gar nicht erst, ob es überhaupt Sinn macht». Dies berge Gefahren. «Eine Einzelperson kann heute in einer Demokratie sehr viel Schaden anrichten», sagt Karpiczenko und fügt an: «Der einzige Weg ist Bildung und Aufklärung, gerade bei den Jüngsten und den Ältesten.»

Das sagt SRF-Faktencheck: Ein KI-Video zu erkennen sei nicht einfach, aber es gebe ein paar Klassiker, weiss Manuel Haldi von SRF-Faktencheck. «Bei den Menschen sind es beispielsweise die Finger, Haare oder die Kleidung. Was auch immer wieder falsch wiedergeben wird, sind Schriften.» Oft würden bei KI-Videos Menschen oder Bäume im Hintergrund dupliziert. «Was auch häufig vorkommt sind Objekte, die plötzlich auftauchen und wieder verschwinden, wie beim Hasen-Video. Solche simulierten Überwachungskameras sehen oft harmlos aus.» Noch schwieriger werde es bei Inhalten, die aus KI-generierten und echtem Material bestehen würden. «Diese wirken tendenziell echter, weil ein Teil davon wirklich echt ist.»

Podcast «News Plus»

Box aufklappen Box zuklappen
«News Plus»-Logo

In einer Viertelstunde die Welt besser verstehen – ein Thema, neue Perspektiven und Antworten auf Ihre Fragen. Alle Folgen des «News Plus»-Podcasts finden Sie hier.

News Plus, 31.07.2025, 16:00 Uhr ; 

Meistgelesene Artikel