Darum geht es: Es sind blutige, schockierende Aufnahmen, die derzeit auf Tiktok, Facebook und X kursieren. Ein Video zeigt die Orca-Tainerin Jessica Radcliffe, die im «Pacific Blue Marine Park» während einer Show von einem Schwertwal unter Wasser gezogen und getötet wird. Die Szenerie ist untermalt mit dramatischen Kommentaren und wirkt auf den ersten Blick extrem real.
Das Problem daran: So echt die Aufnahmen auf den ersten Blick auch wirken mögen, es gibt da einen Haken. Denn es gibt weder eine Orca-Trainerin namens Jessica Radcliffe, noch existiert ein Vergnügungspark mit dem Namen «Pacific Blue Marine Park». Das Video ist ein Deepfake und sowohl die Bilder als auch die Tonaufnahmen vollständig KI-generiert.
Die schockierenden Bilder im Faktencheck (New York Post, engl.)
Ein exemplarisches Beispiel: Fake Videos wie jenes der Orca-Attacke häufen sich auf sozialen Medien. Ein weiteres aktuelles Beispiel sind Bilder von Superstar Paul McCartney, der am Bett des todkranken Musikers Phil Collins sitzt. Nicht nur werden solche Deepfakes in ihrer Qualität immer besser, sondern es werden auch immer mehr. Die grosse Menge an Online Content mache es den meisten Menschen unmöglich, zwischen echten und unechten Inhalten zu unterscheiden, sagt SRF-Digitalredaktor Guido Berger. «Die meisten sehen etwas nur ein paar Sekunden lang und haben dann bereits entschieden, ob sie das glauben oder nicht. In der Zeit, in der professionelle Faktenchecks stattfinden, haben andere 100’000 neue Inhalte erstellt.»
Die Frage der Wahrheit wird irrelevant: Ein Effekt dieser Masse an Onlineinhalten ist, dass auch echte Videos und Bilder vermehrt angezweifelt werden. Denn in Zukunft werde man wohl oft nicht mehr zwischen wahr oder falsch unterscheiden können, glaubt Berger. «Die Frage, ob etwas wahr ist oder nicht, ist komplett irrelevant geworden. Es geht vielmehr darum, was die Gruppe glaubt, der ich mich zugehörig fühle. Und das glaube ich dann auch.»
Anzweifeln aller Inhalte ist keine Lösung: Sollten wir heute grundsätzlich davon ausgehen, dass Bilder oder Videos im Internet nicht echt sind? Digitalredaktor Guido Berger hält diese Herangehensweise nicht für zielführend. Denn: «Es würde ja bedeuten, dass ich grundsätzlich Dinge anzweifle, auch die, die wahr sind. Besser wäre es, als Gesellschaft eine Resilienz zu entwickeln gegenüber dem Umstand, dass wir viele Inhalte wahrnehmen und nie wirklich wissen können, ob sie echt sind oder nicht.»
Geringe Chancen durch technische Fake-Erkennung: Es gibt technische Anstrengungen, um gefälschte Inhalte besser erkennen zu können. So sollen Bilder und Videos mit Wasserzeichen als echt verifiziert werden. Dies kann beispielsweise einem Kriegsfotografen als Beweis dienen, dass seine Bilder nicht künstlich generiert oder verändert wurden. Auch bei Gerichtsfällen oder breit diskutierten Themen in der grossen Öffentlichkeit könne die Technik helfen, glaubt Berger. Doch im Grossen und Ganzen verspreche er sich wenig davon. «Die Inhalte fliegen im Feed in Sekundenschnelle vorbei und erzielen eine Wirkung – unabhängig davon, ob sie wahr oder falsch sind.» Dass man in naher Zukunft mittels technischer Mittel alle Fake-Inhalte erkennen kann, hält der Digitalexperte für unrealistisch. Zu gross sei der Wettkampf um neue Technologien und zu schwierig die zweifelsfreie Verifikation der Masse an Onlineinhalten.