Das Netzwerk Faktencheck von SRF hat vom 26. bis zum 30. Januar 2026 Inhalte von Userinnen und Usern geprüft. Wir haben über 400 Einsendungen – Videos, Audios und Textnachrichten – erhalten. Von vielen KI-Inhalten über Verschwörungserzählungen bis zu echten, aber kuriosen Szenen war alles dabei. In diesem Artikel finden Sie eine Auswahl unserer Ergebnisse und weitere Recherchen.
Echte Feuerwehrübung auf Eisschollen in Toronto
Eine Userin zweifelt an der Echtheit des folgenden Videos aus Kanada:
Mithilfe einer Bild-Rückwärtssuche stossen wir auf ein Video, das die gleiche Szene aus anderer Perspektive zeigt:
Während in einigen Kommentaren von Bauarbeitern zu lesen ist, schreiben andere, es sei ein Training von Rettungskräften. Ein Kommentar zum ersten Video nennt auch gleich die Strasse, wo sich die Szene zugetragen haben soll. Die Suche auf Google Maps bestätigt «Queen's Quay» in Toronto als Ort. In unmittelbarer Nähe befindet sich die Wasserschutzpolizei.
Die Wasserschutzpolizei hat auf ihrem Facebook-Konto ein Video von einer anderen Rettungsübung veröffentlicht, aufgenommen bei einem weiteren Polizeigebäude in der Nähe (rechter Pfeil im Bild oben).
Die Kleidung passt zum Video, das die Userin eingereicht hat, und auch die geografische Nähe zur Wasserschutzpolizei sowie die verschiedenen Perspektiven sprechen dafür, dass es sich um eine authentische Übung handelt.
Fazit:
- Es lohnt sich, bei Videos auch die Kommentare zu lesen. In diesem Fall hat es die Geolokalisierung deutlich vereinfacht.
- Videos aus anderen Perspektiven helfen bei der Einordnung.
- Den Kontext zu verstehen («Wen sieht man auf dem Bild?»), hilft bei der Einschätzung der Plausibilität («Die Wasserschutzpolizei befindet sich in der Nähe und trainiert öfter in der Umgebung»).
Brief von US-Präsident Trump an den norwegischen Ministerpräsidenten
Der US-amerikanische Präsident Donald Trump soll dem norwegischen Ministerpräsidenten Jonas Gahr Støre einen Brief geschrieben haben. Userinnen und User haben uns geschrieben und wollten wissen, ob dieser Brief wirklich verschickt und mit roten Korrekturen versehen wurde.
Eine Userin fand auf TikTok ein Bild, das den angeblichen Brief von Trump mit roten Korrekturen zeigen soll. Diese Korrekturen sollen vom norwegischen Ministerpräsidenten Jonas Gahr Støre vorgenommen worden sein.
Online findet man verschiedene Versionen dieses Briefes, mit und ohne Korrekturen. Bei unserer Recherche fanden wir heraus, dass es sich bei dem Austausch um Textnachrichten und nicht um einen Brief handelt. Deshalb gehen wir davon aus, dass dieser offiziell aussehende Brief – ob mit oder ohne Korrekturen – nicht echt ist.
Auf der offiziellen Website der norwegischen Regierung wurde am 19. Januar ein Statement von Ministerpräsident Jonas Gahr Støre veröffentlicht. Darin erklärt Støre, dass es sich um eine Textnachricht handelt, die er von Donald Trump erhalten habe, nachdem er ihm ein Telefonat zusammen mit dem finnischen Präsidenten Alexander Stubb vorgeschlagen hatte.
Die Nachrichtenagentur Reuters publizierte die beiden Textnachrichten und wies darauf hin, dass diese von der norwegischen Regierung unter dem «Freedom of Information Act» veröffentlicht wurden. Von Donald Trump oder vom Weissen Haus konnten wir auf der offiziellen Website und auf Truth Social, Trumps eigenem Sozialen Netzwerk, kein Statement dazu finden.
Grosse Versprechen und Fake-Bewertungen für smarte Brille
Ein User hat uns einen Link zu einer smarten KI-Brille auf einem Online-Shop «alpinewearshop.com» geschickt. Als Erstes fallen die hochtrabenden Versprechen auf: Die Brille soll sich in Echtzeit an die Sehstärke anpassen können, Smartphone-Benachrichtigungen direkt auf den Brillengläsern sichtbar machen, eine integrierte Übersetzungsfunktion beinhalten – und das alles in schlankem Formfaktor und mit langer Batterielaufzeit.
Eine Firma, die wirklich solch ein starkes Produkt auf den Markt gebracht hätte, müsste eigentlich weltbekannt sein. Nur: Eine Internetsuche nach der Brille ergibt kaum brauchbare Resultate, geschweige denn vertrauenswürdige Produktrezensionen.
Die Produktseite zur Brille ist gespickt mit KI-generierten Bildern. Auch die Bilder der Käuferinnen und Käufer in den Produktbewertungen sind fake. Die Bilder-Rückwärtssuche findet einige der Fake-Personen auf einem anderen Online-Shop mit anderen Namen.
-
Bild 1 von 3. Die Software «Hive Moderation» prüft, ob Inhalte KI-generiert sind. Bei Bildern vom Online-Shop schlägt sie an. Bildquelle: Screenshot/Hive Moderation.
-
Bild 2 von 3. Noch sicherer ist das Werkzeug bei diesem Bild des Online-Shops. Es gibt eine Wahrscheinlichkeit von 99.9 Prozent für KI-generierte Inhalte an. Bildquelle: Screenshot/Hive Moderation.
-
Bild 3 von 3. Dasselbe Bild findet sich in Kundenbewertungen auf zwei verschiedenen Online-Shops. Die Namen sind unterschiedlich. Ein klarer Hinweis, dass die Bewertungen fingiert sind. Bildquelle: Screenshots.
Verdächtig ist auch das Sortiment des Online-Shops. Neben Brillen werden auch diverse Elektronik und wenige Kleidungsstücke verkauft. Eine fokussierte Auswahl sieht anders aus.
Auffällig sind nicht zuletzt die schleierhaften Firmenangaben. Eine Telefonnummer fehlt gänzlich. Das Impressum nennt die Firma «Katazz Group LLC» als Betreiberin. Sie ist im Internet nicht wirklich auffindbar, einzig andere Online-Shops verweisen darauf.
Fazit: Das Online-Angebot ist fake. Die hochtrabenden Versprechen, die gefälschten Kundenbewertungen und fehlende Informationen zur Betreiberin sind Warnsignale.
Bild von Riesenregenwurm führt in faszinierende Welt der Biologie
In dieser Woche hat uns auch ein Bild erreicht, von dem sich die meisten wohl wünschen, dass es KI generiert ist. Zu sehen ist ein Mann, der einen Regenwurm von beeindruckender Länge in die Kamera hält – ein Anblick, der zunächst vor allem eines auslöst: Ekel.
-
Bild 1 von 2. Wer Regenwürmer nicht mag, insbesondere sehr grosse, sollte sich das nächste Bild nicht anschauen. Bildquelle: SRF.
-
Bild 2 von 2. Voilà: Hier ist das Bild eines Prachtexemplars, das uns ein User eingeschickt hat. Bildquelle: Reddit/CrisperKoleslaw.
Mit einer Bilder-Rückwärtssuche ist schnell klar, dass das Bild echt ist. Der anfängliche Ekel ist überwunden und die Recherche verlagert sich von der Frage nach der Authentizität zur biologischen Einordnung des Tiers. Und die führt tief in Fachforen und Diskussionen über Riesenregenwürmer, deren Lebensräume und Grössenrekorde.
Zunächst deutet vieles darauf hin, dass es sich um einen Megascolides australis handeln könnte – eine der weltweit grössten Regenwurmarten. Es zeigen sich aber auch Widersprüche: Das Exemplar auf dem Foto ist deutlich massiger, und die feuchten Kleider des Mannes sowie die Schleimschicht des Tiers passen eher in eine tropischere Gegend als Australien.
Entscheidend weiter bringt die Spur schliesslich ein Facebook-Post:
Weitere Bilder im Beitrag zeigen denselben Mann mit denselben Handschuhen und einer US-Flagge auf dem Ärmel. Mit dem Post ist auch die Identität des Mannes klar: Mickey Grosman, ein Abenteurer und Survivaltrainer. Durch die Namenssuche tauchen zusätzliche Fotos und sogar ein Video der Szene auf:
Die exakte Bestimmung von Riesenregenwürmern bleibt trotzdem anspruchsvoll. Hunderte Arten kommen infrage, ihre Grösse und Erscheinung variieren je nach Lebensraum stark. Doch der Fundort liefert in diesem Fall einen entscheidenden Hinweis. Da klar ist, dass die Szene in Ecuador aufgenommen wurde, lässt sich das Tier mit hoher Wahrscheinlichkeit der Art Martiodrilus crassus zuordnen.
Uns haben in dieser Woche jedoch nicht nur Regenwurmbilder erreicht, sondern auch viele KI-generierte Inhalte von Tieren, die uns in ihrer Machart oft ins Staunen versetzt haben:
KI-Musikerin verrät sich durch ihren Internetauftritt
Auf Musik-Streamingplattformen tauchen immer mehr KI-Songs auf, einzelne wie Papaoutai (Afro Soul) erobern sogar die Charts. Doch wie lässt sich KI-Musik überhaupt noch von echter Musik unterscheiden? Diese Frage beschäftigte auch die Userinnen und User, und entsprechende Fragen gelangten an das Netzwerk Faktencheck.
Tatsächlich ist es schwierig bis unmöglich, KI-Songs nur allein anhand des Audiomaterials zu entlarven. Dies bestätigt auch eine Studie im Auftrag der Streamingplattform Deezer: 97 Prozent der Musikhörenden können nicht unterscheiden, ob ein Musikstück KI-generiert ist oder einen menschlichen Ursprung hat.
Viel eher lassen sich KI-Künstlerinnen und -Künstler durch eine fehlende oder unglaubwürdige Social-Media- und/oder Webpräsenz entlarven. Im Falle der KI-Musikerin Sienna Rose sind es subtile KI-Fehler in ihren Selfie-Videos, die sie verraten: So verschieben sich einzelne Objekte im Hintergrund, oder aber ihre Haare wirken an einzelnen Stellen unnatürlich. Fehlende Live-Auftritte oder Tourdaten – bei Sienna Rose ebenfalls der Fall – verstärken den Verdacht zusätzlich.
-
Bild 1 von 3. An der linken Hand der Frau befindet sich in diesem Frame kein Ring. Bildquelle: Screenshot/Instagram/siennarosely.
-
Bild 2 von 3. Im Frame darauf taucht plötzlich ein Ring auf. Bildquelle: Screenshot/Instagram/siennarosely.
-
Bild 3 von 3. Im nächsten Frame verändert der Ring sogar seine Form. Bildquelle: Screenshot/Instagram/siennarosely.
Auch andere KI-Musikprojekte hinterlassen verräterische Spuren. Bei der angeblichen 1950er-Bluessängerin Bertha Mae Lightning entlarvt das KI-generierte Albumcover den Schwindel: Ihre rechte Hand zeigt einen Finger zu viel.
Auch ist der «zu cleane» Sound schlicht zu gut für einen Song aus den 50er-Jahren. Dennoch wurde auch dieser Song bereits millionenfach gestreamt.
KI-generierter Mönch verbreitet auf Social Media spirituelle Ratschläge
Der Mönch Yang Mun erfährt online grosse Aufmerksamkeit. Millionen folgen dem spirituellen Ratgeber im buddhistischen Stil. Das Problem: Er wurde mit künstlicher Intelligenz erschaffen. Hier lesen Sie den Faktencheck unserer Kollegin der Europäischen Rundfunkunion (EBU), zu der SRF gehört:
Olympia 2008: Studie zu Zwangsräumungen in Peking
Das «Sportpanorama» von SRF hat am 25.1.2026 über die «unrühmliche Olympia-Geschichte» berichtet. Im Beitrag heisst es etwa: «In Peking wurden für Bauprojekte rund um die [Olympischen] Spiele Hunderttausende Menschen aus ihren Wohnungen vertrieben.» Ein User fragt nach den genauen Zahlen und der Quelle.
Eine einfache Internetsuche führt zu Medienberichten über eine Studie von Centre on Housing Rights and Evictions (COHRE) mit Sitz in Genf. Zwar scheint es das Forschungszentrum nicht mehr zu geben, aber über RUIG (Réseau universitaire international de Genève) sind wir auf die Studie gestossen.
COHRE-Studie
Auf Seite 154 der Studie heisst es, dass in Peking schätzungsweise insgesamt 1.5 Millionen Menschen durch Olympiabauprojekte vertrieben worden seien. Die Studienautoren haben unter anderem chinesische Medienberichte, Blogs, offizielle Statistiken sowie Behördenpläne herangezogen.
Etablierte Medien wie die «BBC» oder die Nachrichtenagentur Reuters haben über die Studie berichtet. «The Guardian» schrieb, dass das Internationale Olympische Komitee (IOC) an einem Workshop des COHRE teilnehmen würde, um sich mit der Studie auseinanderzusetzen. Die Studie dürfte also auch für das IOC glaubwürdig gewesen sein.
Retuschierte Fotos von Prominenten und Todesmeldung
Ein User berichtet uns, er habe kürzlich ein Foto eines Popstars – Lady Gaga oder Katy Perry – mit einem Pullover gesehen, auf dem «we hate him too» geschrieben gestanden sein soll. Wohl eine Anspielung auf US-Präsident Donald Trump. Der User möchte wissen, ob es echt oder KI-generiert ist.
Leider liegt uns das konkrete Foto nicht vor, aber wir haben im Netz weitere Beispiele mit gefälschten oder manipulierten Bildern von Prominenten in Kleidung mit Anti-Trump-Slogans gefunden. Ein Beispiel ist eine Bildmontage mit der Musikerin Taylor Swift. Darauf zu sehen ist ein weiblicher Oberkörper mit blauem T-Shirt. Auf dem Aufdruck steht «nope – not again». Die blonde Frisur von Trump und eine rote Krawatte ergänzen ikonisch das Motiv. Die Nachrichtenagentur Reuters hat das Bild bereits als Fake identifiziert. Das echte Porträt von Swift wurde demnach in das Bild hineinretuschiert.
-
Bild 1 von 2. Ein echtes Porträt von Taylor Swift wurde in dieses Bild hineinmontiert. Bildquelle: Screenshot.
-
Bild 2 von 2. Das ist das Originalbild, das für die Fälschung verwendet wurde. Bildquelle: Getty Images/FilmMagic/Taylor Hill.
Ein weiteres Beispiel ist die Aufnahme des Musikers Bruce Springsteen. Das Originalfoto zeigt ihn bei einem Konzert. Darauf trägt er ein graues T-Shirt ohne jeglichen Aufdruck. Bei der Bildfälschung wurden nachträglich der Schriftzug «Keep America Trumpless» und eine US-Landkarte eingefügt. Auch hier hat die Nachrichtenagentur Reuters das Bild als Fake identifiziert.
-
Bild 1 von 2. Die Fälschung: Die Aufschrift auf dem T-Shirt wurde nachträglich hinzugefügt. Bildquelle: X/DavidCayJ.
-
Bild 2 von 2. Das Originalbild des Konzerts von Bruce Springsteen. Bildquelle: Getty Images/Kevin Mazur.
Es ist also sehr wahrscheinlich, dass es sich bei dem eingangs erwähnten Promifoto ebenfalls um eine Fälschung handelt. Die Suche bei den gängigen Bildagenturen ergibt weder zu Katy Perry, noch zu Lady Gaga einen Treffer mit entsprechender Kleidung.
Dem Fall ähnlich ist eine andere Zusendung eines Users. Das Bild zeigt Schauspieler Robert De Niro, der eine Kappe mit Anti-Trump-Slogan in die Kamera hält. Online haben wir davon verschiedene Varianten gefunden, also mit Kappen in anderer Farbe oder abweichendem Schriftzug. Auch hier handelt es sich um eine Kombination aus echtem Bildmaterial und nachträglich hinzugefügten Elementen. KI-Erkennungstools schlagen beim Bild an und andere Faktenchecker haben die Fälschung entlarvt.
-
Bild 1 von 2. Das Originalfoto von Schauspieler Robert De Niro. Aufgenommen von Fotograf Michael Schwartz. Bildquelle: Instagram/mschwarzphoto.
-
Bild 2 von 2. Die rote Kappe mit dem Anti-Trump-Slogan wurde im Nachhinein reinretuschiert. Von dem Bild gibt es verschiedene Varianten. Bildquelle: ZVG.
Promis sind nicht nur Opfer von Bildfälschungen, sondern auch von Falschmeldungen zu ihrem Gesundheitszustand. Teils wird sogar ihr Tod fälschlicherweise verbreitet. So hat sich auch eine Userin erkundigt, ob Schauspieler Bruce Willis noch lebt.
Willis' Demenzerkrankung ist bereits seit einiger Zeit bekannt und durch die Familie bestätigt. Seine Frau Emma Heming Willis spricht im aktuellen Podcast «Conversations with Cam» (veröffentlicht am 28.1.2026) über den aktuellen Gesundheitszustand von Bruce, wodurch Todesmeldungen eindeutig widerlegt sind.
Gesunde Skepsis bei medizinischen Produkten angebracht
Unter den zahlreichen Zuschriften, welche das Netzwerk Faktencheck von SRF erhalten hat, gab es auch viele Gesundheitsfragen. Die Fragen umfassen alle möglichen Themenbereiche, von verschiedenen Nahrungsergänzungsmitteln über zahlreiche Therapieformen und diverse Hormonpräparate bis hin zu Beautyprodukten.
Zu einzelnen Fragen hat SRF bereits Beiträge und Recherchen publiziert. Gleichzeitig gilt: Gesundheitsfragen sind immer individuell. Wer konkrete Beschwerden oder Unsicherheiten hat, sollte diese deshalb immer mit einer medizinischen Fachperson besprechen.
Es lohnt sich immer, eine kurze Recherche mit den folgenden Fragestellungen zu unternehmen: Gibt es wissenschaftliche Belege für das Produkt? Ist der Anbieter seriös und welche finanziellen Absichten hat der er? Gerade bei Produkten, die schnelle Erfolge versprechen, lohnt sich eine gesunde Portion Skepsis.
Corona-Berichterstattung
Neben vielen Gesundheitsthemen haben uns auch Anfragen zur Corona-Berichterstattung erreicht. Unter anderem wird kritisiert, dass Personen mit Impfschäden im Stich gelassen würden und Medien – insbesondere SRF – dies nicht thematisieren.
Vom Post-Vac-Syndrom im «Tagesgespräch» oder Impfnebenwirkungen im «Rendez-vous» über die langen Anerkennungsfristen für Impfschäden in der «Tagesschau» bis hin zur ersten Entschädigung durch den Bund sowie einer «Tagesschau»-Rückschau – diese Einzelbeispiele aus unserem Archiv zeigen die vielfältige Berichterstattung im TV, Radio und online.
Interviews mit KI-generierten Indigenen
Eine Userin hat uns ein Video zur Überprüfung geschickt. Es zeigt Interviewausschnitte mit verschiedenen Indigenen von Nord-, Mittel- und Südamerika. Sind die Videoclips KI-generiert? Und woran kann man das erkennen?
Ja, das Video ist KI-generiert. Die Gesichter der gezeigten Personen haben die typische KI-Optik, wirken oft «zu perfekt» oder fast wie gemalt. Beim Anhalten des Videos sieht man zudem Bildunstimmigkeiten um die Mundpartie:
Vermutlich wurde das Video mit einem Bildgenerator generiert und dann animiert und die Lippen synchronisiert. Auch die untere Zahnreihe sieht nicht natürlich aus:
Fazit: KI-generierte Bilder werden immer realistischer. Es lohnt sich, Videos auch mal anzuhalten und genau auf die Details zu achten.
Grönland: Die US-Pläne für einen Landtausch mit Dänemark
Auf SRF News haben wir in einem Artikel die Chronologie von Grönland nachgezeichnet und den Landabtausch-Plan der USA aus dem Jahr 1910 beschrieben. Ein User wollte in seiner Anfrage wissen, ob solche Pläne wirklich bestanden oder ob es sich um ein Gerücht handelt.
Bei dem Plan schlug Maurice Francis Egan, der damalige US-Botschafter in Dänemark, im Jahr 1910 einen Landabtausch zwischen den USA, Dänemark und Deutschland vor. Der Plan sah vor, dass Dänemark den USA Grönland gibt und im Gegenzug erhält Dänemark die philippinischen Inseln Mindanao und Palawan. Dänemark wiederum hätte die Inseln an Deutschland übertragen, welches Dänemark das nördliche Schleswig zurückgegeben hätte.
Bei der Internetrecherche nach Maurice Francis Egan und dem Jahr 1910 stösst man vor allem auf englischsprachige Ergebnisse, unter anderem auf «Office of the Historian». Dabei handelt es sich um das offizielle Geschichtsarchiv der US-Regierung für auswärtige Politik und des Aussenministeriums. Auf der Seite findet man einen Brief, den Botschafter Egan dem damaligen Assistenten des US-Aussenministers im September 1910 schrieb. Darin erläutert er diesen Plan.
Die Quelle in «Office of the Historian»
Der Plan wurde nicht umgesetzt.
Betrugsversuche per E-Mail – die Warnsignale
Unter den zahlreichen Zuschriften, die das Netzwerk Faktencheck von SRF erreicht haben, befanden sich viele Beispiele von Scam- und Phishing-Mails. So wurden uns Droh-E-Mails weitergeleitet, in denen die Absender behaupten, Zugriff auf private Daten oder intime Aufnahmen erlangt zu haben. Erst nach der Zahlung eines bestimmten Betrags – meist in Form von Bitcoin – würden diese privaten Daten und Fotos wieder gelöscht und nicht veröffentlicht werden.
Ebenfalls häufig melden Nutzer fingierte Bestellbestätigungen oder angebliche Finanzangebote. Unter Zeitdruck sollen Empfänger persönliche Angaben auf einer verlinkten Webseite eingeben, um eine vermeintliche Bestellung zu stornieren, zu bestätigen oder ein Angebot einzulösen. Der künstlich erzeugte Stress ist Teil der Taktik: Je weniger Zeit bleibt, desto geringer die Wahrscheinlichkeit, dass Betroffene die Echtheit des Angebots hinterfragen.
Besonders perfide sind E-Mails, die hohe Gewinne oder exklusive Preise versprechen. Um den angeblichen Gewinn zu erhalten, sollen Betroffene persönliche Informationen wie Telefonnummern, Wohnadresse oder gar Kreditkartendaten preisgeben.
Allen Beispielen ist eines gemeinsam: Die Betrüger versuchen, über unterschiedliche Vorwände an sensible und persönliche Daten zu gelangen. Deshalb gilt:
- Skeptisch bleiben: Angebote, Drohungen oder Gewinnversprechen sollten immer infrage gestellt werden.
- Absender prüfen: Eine kurze Internet-Recherche reicht oftmals, um frühere Betrugsversuche oder Warnungen vor den Angeboten zu finden.
- Keine persönlichen Daten preisgeben: Kontonummern oder Kreditkartendaten nie auf unbekannten Webseiten eingeben.
- Im Zweifel nicht reagieren: Verdächtige Nachrichten als Spam melden und nicht reagieren.
Pseudo-Nachrichtenvideo verbreitet Falschinformationen zu Crans-Montana
Zur Brandkatastrophe in Crans-Montana haben wir ein Youtube-Video für die Prüfung erhalten. Veröffentlicht wurde das Video vom Account «Aktuell24h», der laut eigener Beschreibung «ein unabhängiger Nachrichtenkanal» ist, bei dem «seriöser Journalismus im Mittelpunkt steht».
Der Kanal besteht erst seit Oktober 2025 und hat in diesem Zeitraum viele Clips veröffentlicht, darunter zahlreiche zu Crans-Montana. Die dramatische Aufmachung und überrissene Titel sollen Userinnen und User zum Klicken verleiten. Das hat dem Account bislang rund 680 Abonnenten verschafft. Der Kanal ist aber alles andere als seriös, ausserhalb von Youtube lassen sich keine Spuren des Pseudo-Nachrichtenportals «Aktuell24h» finden. Auf TikTok existiert zwar ein Kanal mit identischer Bezeichnung, darauf werden aber bislang keine Inhalte veröffentlicht. Es ist nicht erkennbar, wer hinter dem Account steht, die publizierten «investigativen Recherchen» durchführt und die Clips zusammenstellt.
Eine genaue Prüfung des Videos vom 23.01.2026 zu Crans-Montana bestätigt die fehlende Glaubwürdigkeit. Das Video ist eine Aneinanderreihung von Bildern, darüber spricht eine KI-Stimme. Die Untertitel weisen durchgehend Rechtschreibfehler auf.
Zwar stehen viele der verwendeten Bilder tatsächlich im Zusammenhang mit der Brandkatastrophe, bei der Nachrecherche einzelner Bilder fallen aber Unstimmigkeiten und Fehler auf: Kleine Bildbearbeitungen wie etwa Spiegelungen und Farbanpassungen erschweren es, die Originalaufnahmen zu finden. Diese Manipulationen haben wohl zum Ziel, der Nachverfolgung durch die Urheberschaft der verwendeten Fotografien zu entgehen. Es ist davon auszugehen, dass «Aktuell24h» die Bildrechte nicht geklärt und finanziell abgegolten hat.
-
Bild 1 von 2. Ein Bildausschnitt aus einem Crans-Montana-Video des Pseudo-Nachrichtenkanals «Aktuell24h». Das Bild ist offensichtlich farblich verändert, ... Bildquelle: Screenshot/Youtube/Aktuel24h.
-
Bild 2 von 2. ... aber es wurde auch gespiegelt, wie der Vergleich mit der Originalaufnahme der Bildagentur zeigt. Bildquelle: Imago/Bestimage.
Weiter können bei genauer Betrachtung des verwendeten Bildmaterials klar falsche bzw. zusammenhangslose Fotos entdeckt werden, zum Beispiel ein aktuelles Foto einer Demonstration gegen das Weltwirtschaftsforum WEF oder eine Aufnahme des eingestürzten Hallenbads in Uster von Mai 1985.
-
Bild 1 von 2. In einem Crans-Montana-Video des Pseudo-Nachrichtenkanals erscheint ein Bild, das nichts mit der Brandskatastrophe zu tun hat. Die Szene wurde tatsächlich Jahrzehnte früher aufgenommen. Bildquelle: Screenshot/Youtube/Aktuell24h.
-
Bild 2 von 2. Das ist das Originalbild vom Hallenbad-Einsturz in Uster. Das Unglück geschah im Mai 1985. Bildquelle: Getty Images/Ullstein Bild/RDB/Felix Aeberli.
Die Informationen der KI-Stimme resp. in den Untertiteln sind auch sehr fehlerhaft. So ist etwa die Rede von 23 Todesopfern – tatsächlich waren es 40. Ausserdem heisst es im Video, das Unglück sei von «Silvester 2024» und «die meisten Todesopfer seien italienische Touristen» – beides stimmt nicht. Allgemein sind die angeblichen Enthüllungen eher sprunghaft und schwer nachvollziehbar erzählt.
KI-Videos zu den Schneemassen in Kamtschatka
Gleich mehrere Userinnen und User haben SRF Videos zu den Schneemassen in der russischen Region Kamtschatka geschickt. Zu sehen sind etwa Menschen, die aus Hochhäusern in den Schnee springen, Schneeverwehungen, die Hochhäuser überragen, und Strassen, die von meterhohen Schneemauern umgeben sind.
Tatsächlich gab es im Januar 2026 in der Region aussergewöhnlich heftige Schneefälle, doch viele der viral gegangenen Videos übertreiben die Schneemassen. Die Analyse mit verschiedenen KI-Erkennungstools (SynthID, Hive Moderation) sowie ein Abgleich mit Videoaufnahmen anerkannter Nachrichtenagenturen zeigt, dass das Material künstlich generiert wurde:
-
Bild 1 von 2. Die Software «Hive Moderation» prüft, ob Inhalte KI-generiert sind. Bei einem Ausschnitt aus dem Kamtschatka-Video geht das Werkzeug zu 93.2 Prozent davon aus, dass der Inhalt KI-generiert ist. Bildquelle: Screenshot/Hive Moderation.
-
Bild 2 von 2. Noch sicherer ist das Werkzeug bei diesem Ausschnitt. Es gibt eine Wahrscheinlichkeit von 99.8 Prozent für KI-generierte Inhalte an. Bildquelle: Screenshot/Hive Moderation.
Ein weiteres eingereichtes Video ist ebenfalls KI-generiert:
Die im Video dargestellten Gebäude stehen nicht in Kamtschatka, sondern in Ankara, der Hauptstadt der Türkei. Eine Bildrückwärtssuche der prominenten Gebäude im Video ergibt etwa das Hotel Sheraton in Ankara (ca. 00:20 im Video) oder auch den Atakule-Fernsehturm (00:23). Am Schluss des Videos ist eine Schlittelszene reingeschnitten, auch diese wird von KI-Tools als künstlich eingestuft.
Auf einigen Videos werden auch Menschen gezeigt, die aus Fenstern oder von Hochhäusern in den Schnee springen. Beim folgenden Videoclip erscheint kurz vor der «Landung» im Schnee plötzlich ein Snowboard an den Füssen der Person.
Doch es gibt auch reale Szenen:
Fazit: Die KI-Videos überspitzen reale Ereignisse, die teils sehr kurz geschnittenen Videos vermischen echtes und künstlich generiertes Material. Durch die Vermischung ist es schwierig, auseinanderzuhalten, was echt ist und was nicht.
Anschlag am Bondi Beach
Am 14. Dezember 2025 kam es in Australien am bekannten Bondi Beach in Sydney zu einem Terroranschlag. 16 Menschen kamen ums Leben – darunter einer der beiden Attentäter. Nach dem Ereignis kursierten bald viele Videos im Netz. Das Netzwerk Faktencheck von SRF verifizierte unter anderem für die Tagesschau Aufnahmen. Mehr dazu im Video:
Schweizer Sanktionen gegen Russland
Eine Person aus dem Publikum hat gehört, dass angeblich der Bundesrat alle Sanktionen gegen Russland aufgehoben habe. Zudem seien alle gesperrten Gelder wieder freigegeben. Stimmt das?
Informationen dazu haben wir beim Staatssekretariat für Wirtschaft Seco gefunden. Auf der Website gibt es eine Sammlung mit den wichtigsten Fragen und Antworten zu den Sanktionen gegen Russland. Dort ist die «Verordnung über Massnahmen im Zusammenhang mit der Situation in der Ukraine» verlinkt. Sie ist derzeit in Kraft. In der Fragensammlung ist auch der Betrag der in der Schweiz gesperrten Vermögenswerte vermerkt.
Laut einer Medienmitteilung vom Dezember 2025 hat der Bundesrat die Sanktionslisten betreffend Russland und Belarus ausgeweitet. Demnach sind damit diverse Änderungen des 19. EU-Sanktionspakets übernommen worden. Aus dieser Medienmitteilung geht hervor, dass weitere natürliche Personen, Unternehmen und Organisationen der Vermögenssperre und dem Bereitstellungsverbot unterstellt wurden.
Trump läuft auf KI-Bild neben Pinguin
Derzeit sorgt ein weiteres KI-generiertes Bild von US-Präsident Donald Trump für Diskussionen. Das Bild zeigt ihn an der Seite eines Pinguins, der eine US-Flagge trägt. In den Bergen im Hintergrund ist eine Grönland-Flagge zu sehen. Das Weisse Haus hat das Bild auf X gestellt. Offensichtlich verbildlicht das Motiv Trumps Grönland-Anspruch. Über dem Bild heisst es im Eintrag auf X: «Embrace the penguin.» Das kann als Aufruf verstanden werden, sich mit der Botschaft des Bildes zu identifizieren.
Auf dem Bild gibt es einen geografischen Fehler: Pinguine sind ausschliesslich auf der Südhalbkugel beheimatet und kommen somit nicht in Grönland vor. Dieser Umstand macht das Bild, obwohl offensichtlich eine Fälschung, dennoch bemerkenswert, da es die Wahrnehmung verzerren kann.
Die Inspiration für das Pinguin-Motiv stammt aus einem Meme, das auf Werner Herzogs Dokumentarfilm «Begegnungen am Ende der Welt» (2007) basiert. In diesem Film verlässt ein Adeliepinguin seine Kolonie, um ins antarktische Hinterland zu marschieren, was als Gang in den sicheren Tod interpretiert wird.
Kuh Veronika und ihr Werkzeuggebrauch
Über die Kuh Veronika, die sich mit Werkzeugen kratzen kann, wurde medial breit berichtet, auch in vertrauenswürdigen und seriösen Medien. SRF publizierte dazu ein Interview mit der Studienautorin Alice Auersperg. Trotzdem erreichten SRF einige Zuschriften mit der Frage, ob diese Meldung wirklich echt ist.
Die Recherche nach der Studienautorin Alice Auersperg und dem Studienautor Antonio José Osuna-Mascaró ergab, dass beide zum Team der Vergleichenden Kognitionsforschung am Messerli Forschungsinstitut der Veterinärmedizinischen Universität Wien gehören. Das ist die einzige veterinärmedizinische, akademische Bildungs- und Forschungsstätte Österreichs.
Die Studie findet man frei zugänglich online auf ScienceDirect:
Die in der Studie verlinkten Videos wirken beim Anschauen echt und detailgetreu. Der Hintergrund ist nicht verschwommen, Strassenschilder sind gut sichtbar und leserlich. Zudem stimmen die Nummern der gelben Ohrmarken von Veronika in den Ausschnitten, in denen die Nummern lesbar sind, überein.
Screenshot zum tödlichen Einsatz von US-Beamten in Minneapolis
Im US-amerikanischen Minneapolis ist am Samstag ein Mann von Bundesbeamten erschossen worden. Ein Screenshot eines Augenzeugenvideos wird im Netz derzeit besonders verbreitet. Das Netzwerk Faktencheck von SRF hat sich das Bild genauer angeschaut. Inzwischen gibt es sogar mit KI überarbeitete Versionen, die in die Irre führen können. Mehr dazu im folgenden Artikel:
Weisses Haus postet manipuliertes Bild einer Bürgerrechtsaktivistin
Am 22. Januar hat das Weisse Haus auf X ein manipuliertes Bild veröffentlicht, das die Festnahme der US-Bürgerrechtsaktivistin Nekima Levy Armstrong zeigt. Auf der Aufnahme wirkt die Frau emotional aufgelöst, ihr Gesicht ist tränenüberströmt. Doch so hat sich die Situation nicht zugetragen.
-
Bild 1 von 2. Dieses manipulierte Bild teilte das Weisse Haus am 22. Januar auf X. Bildquelle: X/WhiteHouse.
-
Bild 2 von 2. Eine ursprüngliche Version des Bildes hat die US-Ministerin für Innere Sicherheit, Kristi Noem, auf X hochgeladen. Bildquelle: X/Sec_Noem.
Eine erste, andere Version des Bildes hatte die US-Ministerin für Innere Sicherheit, Kristi Noem, nur eine halbe Stunde zuvor auf X hochgeladen. Auf dieser Aufnahme wirkt Armstrong ruhig und gefasst. Abgesehen vom Gesicht ist die Szene deckungsgleich. Dieses Bild wurde manipuliert, damit es so aussieht, als würde Armstrong weinen – zudem erscheint ihre Haut dunkler als in der ursprünglichen Aufnahme.
Angesprochen auf die Manipulation hat das Weisse Haus gegenüber Nachrichtenagenturen die Überarbeitung nicht abgestritten. Der stellvertretende Kommunikationsdirektor im Weissen Haus, Kaelan Dorr, schrieb auf X, die Durchsetzung des Gesetzes werde fortgesetzt – und «die Memes» ebenfalls.
Fake-Artikel lockt mit betrügerischen Investitionsversprechen
Eine Person aus dem Publikum macht uns auf eine reisserische Schlagzeile über einen angeblichen Skandal in der SRF-Gesprächssendung «Gredig Direkt» mit Stargast DJ Antoine aufmerksam. Doch was auf den ersten Blick wie ein brisanter Online-Artikel aussieht, entpuppt sich bei genauerem Hinsehen als raffinierte Betrugsmasche.
In diesem Fall führt eine reisserische Werbeanzeige auf einen Artikel, der dem Online-Auftritt von «Blick.ch» zum Verwechseln ähnlich sieht. Layout, Schriftart und Logo wirken echt. Selbst die angegebene Autorin arbeitet tatsächlich als Journalistin bei der Zeitung. Doch der Schein trügt.
Erst die Adressleiste entlarvt den Betrug: Statt «blick.ch» steht dort «blikcc.com» – ein Detail, das im Alltag schnell übersehen wird. Auch die Navigation der Seite funktioniert nicht: Links zu anderen Artikeln oder zur Hauptseite sind inaktiv.
Im gefälschten Artikel geht es darum, dass DJ Antoine mit einer Investitionsplattform angeblich sein Vermögen aufgebaut haben soll. Der SRF-Moderator Urs Gredig versucht laut dem Fake-Artikel direkt selbst sein Glück – wohl, um die Neugier der Leserschaft zu wecken.
Der Artikel wird mit täuschend echten Screenshots aus dem Studio illustriert. Setting und Logo sind originalgetreu. Doch auch hier entlarven Details die Fälschung: Urs Gredig trägt auf den Bildern beispielsweise deutlich kürzere Haare als aktuell.
Solche Betrugsmaschen missbrauchen die Gesichter bekannter Persönlichkeiten und klonen ganze Webseiten, um Vertrauen beim Publikum aufzubauen. Die Aufmachung wird immer professioneller, und oft sind es nur noch kleine Details, die diese betrügerischen Werbeanzeigen entlarven. Es sind Details, die im schnellen Scroll-Tempo des Alltags leicht übersehen werden.
Waldbrände in Patagonien wegen mutmasslicher Brandstiftung
In Argentinien haben Waldbrände grosse Zerstörung angerichtet. In diesem Zusammenhang kursieren auch zahlreiche Spekulationen. Eine Anfrage thematisiert Behauptungen in den Sozialen Medien, wonach die Brände mutwillig von Zionistinnen oder Zionisten gelegt worden seien. Als Begründung wird angeführt, dass der argentinische Präsident Milei ein Unterstützer Israels sei und kürzlich Regulierungen zum Grundbesitz nach Waldbränden gelockert habe. Zudem wird in einigen Videos die historische Diskussion um Patagonien als möglichen Ort für einen jüdischen Staat angeführt.
Es ist wahrscheinlich, dass die Feuer absichtlich gelegt wurden. Wer jedoch für die mögliche Brandstiftung verantwortlich ist, ist unklar. Interessanterweise wurden neben Israelis auch die indigenen Mapuche verdächtigt – für beide Behauptungen gibt es keine Grundlage.
Die Behauptungen in den Sozialen Medien greifen einen historischen Punkt auf: Es stimmt, dass Theodor Herzl in seinem Werk «Der Judenstaat» (1896) neben Palästina auch Argentinien als mögliche Heimat für die jüdische Bevölkerung vorgeschlagen hat. Doch hier endet die historische Korrektheit. Der sogenannte «Plan Andinia» ist eine antisemitische Verschwörungstheorie, die in den 1970er-Jahren ihren Ursprung hat. Die vermeintliche Gründung eines zweiten jüdischen Staates in Patagonien wurde zuerst vom antisemitischen Politiker Walter Beveraggi Allende propagiert und später von der argentinischen Militärdiktatur (1976–1983) aufgegriffen. Es gibt keinerlei Belege dafür, dass dies eine organisierte Aktion innerhalb zionistischer Bewegungen ist oder war, um an Land zu kommen.
In den Sozialen Medien wird auch eine israelische Organisation namens «Backpackers without Borders» mit den Bränden in Zusammenhang gebracht. Dies scheint nicht der offizielle Name der Organisation zu sein. Vermutlich handelt es sich um die NGO «Heroes for Life», die 2013 von drei Offizieren der israelischen Armee IDF gegründet wurde. Belege für eine Verbindung zu den Waldbränden gibt es aber nicht.
Die Behauptungen, dass Waldbrände in Patagonien bewusst von Zionistinnen und Zionisten herbeigeführt wurden, basieren auf einer Mischung aus historischen Halbwahrheiten und einer klar identifizierbaren antisemitischen Verschwörungserzählung.
Video zeigt Schüsse bei Protest in Teheran
Derzeit erreichen SRF regelmässig Videos zu den Massenprotesten im Iran. Ein – nur verschwommenes – Video dazu soll angeblich eine Demonstration in der iranischen Hauptstadt Teheran zeigen. Im Hintergrund sind Schüsse zu hören. Die Frage: Stammt das Video tatsächlich aus Teheran?
Wichtige Anhaltspunkte für das Faktencheck-Team sind die markanten Gebäude an den Bildrändern. Ausserdem wurde zum Video ein Quartier genannt. Mit Werkzeugen wie Google Street View haben wir versucht, uns virtuell vor Ort umzusehen und die Gebäude zu finden. Das erwies sich als schwieriger als gedacht.
Für Faktenchecks werden auch verschiedene Informationen vernetzt. Wurden dasselbe oder ähnliche Videos im Internet publiziert? Tatsächlich stiessen wir in Social Media auf dasselbe Video mit weiteren Hinweisen: Bei den Gebäuden handelt es sich um ein Shoppingcenter und eine Schule.
Zwar existieren für die Gegend keine Streetview-Aufnahmen, doch über die Schule fand das Team Fotos der Strasse. So liess sich der Standort des Videos genau bestimmen. Das Netzwerk Faktencheck ist sich ziemlich sicher, dass das Video tatsächlich in Teheran aufgenommen wurde.
Zu betonen ist, dass es aktuell schwierig ist, Inhalte aus dem Iran zu überprüfen. Der iranische Machtapparat hat das Internet blockiert. Dadurch dringen nur wenig Informationen nach aussen.
Die Sammlung wird bis zum 30. Januar 2026 laufend erweitert.