Die Faktencheckerinnen und Faktenchecker von SRF schauen sich diese Woche Einsendungen des Publikums an. In diesem Artikel finden Sie unsere Ergebnisse und weitere Recherchen. Sind Sie bei einem Thema selbst nicht sicher oder haben Sie ein merkwürdiges Video entdeckt? Dann schreiben Sie uns hier Ihre Anfrage.
Olympia 2008: Studie zu Zwangsräumungen in Peking
Das «Sportpanorama» von SRF hat am 25.1.2026 über die «unrühmliche Olympia-Geschichte» berichtet. Im Beitrag heisst es etwa: «In Peking wurden für Bauprojekte rund um die [Olympischen] Spiele Hunderttausende Menschen aus ihren Wohnungen vertrieben.» Ein User fragt nach den genauen Zahlen und der Quelle.
Eine einfache Internetsuche führt zu Medienberichten über eine Studie vom «Centre on Housing Rights and Evictions (COHRE)» mit Sitz in Genf. Zwar scheint es das Forschungszentrum nicht mehr zu geben, aber über das «Réseau universitaire international de Genève» (RUIG) sind wir auf die Studie gestossen.
COHRE-Studie
Auf Seite 154 der Studie heisst es, dass in Peking schätzungsweise insgesamt 1.5 Millionen Menschen durch Olympia-Bauprojekte vertrieben worden seien. Die Studienautoren haben unter anderem chinesische Medienberichte, Blogs, offizielle Statistiken sowie Behördenpläne herangezogen.
Etablierte Medientitel wie die «BBC» oder die Nachrichtenagentur Reuters haben über die Studie berichtet. «The Guardian» schrieb, dass das Internationale Olympische Komitee (IOC) an einem Workshop des COHRE teilnehmen würde, um sich mit der Studie auseinanderzusetzen. Die Studie dürfte also auch für das IOC glaubwürdig gewesen sein.
Retuschierte Fotos von Prominenten und Todesmeldung
Ein User berichtet uns, er habe kürzlich ein Foto eines Popstars – Lady Gaga oder Katy Perry – mit einem Pullover gesehen, auf dem «we hate him too» geschrieben gestanden sein soll. Wohl eine Anspielung auf US-Präsident Donald Trump. Der User möchte wissen, ob es echt oder KI-generiert ist.
Leider liegt uns das konkrete Foto nicht vor, aber wir haben im Netz weitere Beispiele gefunden mit gefälschten oder manipulierten Bildern von Prominenten in Kleidung mit Anti-Trump-Slogans. Ein Beispiel ist eine Bildmontage mit der Musikerin Taylor Swift. Darauf zu sehen ist ein weiblicher Oberkörper mit blauem T-Shirt. Auf dem Aufdruck steht «Nope – not again». Die blonde Frisur von Trump und eine rote Krawatte ergänzen ikonisch das Motiv. Die Nachrichtenagentur Reuters hat das Bild bereits als Fake identifiziert. Das echte Porträt von Swift wurde demnach in das Bild rein retuschiert.
-
Bild 1 von 2. Ein echtes Porträt von Taylor Swift wurde in dieses Bild hineinmontiert. Bildquelle: Screenshot.
-
Bild 2 von 2. Das ist das Originalbild, das für die Fälschung verwendet wurde. Bildquelle: Getty Images/FilmMagic/Taylor Hill.
Ein weiteres Beispiel ist die Aufnahme des Musikers Bruce Springsteen. Das Originalfoto zeigt ihn bei einem Konzert. Darauf trägt er ein graues T-Shirt ohne jeglichen Aufdruck. Bei der Bildfälschung wurden nachträglich der Schriftzug «Keep America Trumpless» und eine US-Landkarte eingefügt. Auch hier hat die Nachrichtenagentur Reuters das Bild als Fake identifiziert.
-
Bild 1 von 2. Die Fälschung: Die Aufschrift auf dem T-Shirt wurde nachträglich hinzugefügt. Bildquelle: X/DavidCayJ.
-
Bild 2 von 2. Das Originalbild des Konzerts von Bruce Springsteen. Bildquelle: Getty Images/Kevin Mazur.
Es ist also sehr wahrscheinlich, dass es sich bei dem eingangs erwähnten Promi-Foto ebenfalls um eine Fälschung handelt. Die Suche bei den gängigen Bildagenturen ergibt weder zu Katy Perry, noch zu Lady Gaga einen Treffer mit entsprechender Kleidung.
Zum Fall ähnlich ist eine andere Zusendung eines Users. Das Bild zeigt Schauspieler Robert De Niro, der eine Kappe mit Anti-Trump-Slogan in die Kamera hält. Online haben wir davon verschiedene Varianten gefunden, also mit Kappen in anderer Farbe oder abweichendem Schriftzug. Auch hier handelt es sich um eine Kombination aus echtem Bildmaterial und nachträglich hinzugefügten Elementen. KI-Erkennungstools schlagen beim Bild an und andere Faktenchecker haben die Fälschung entlarvt.
-
Bild 1 von 2. Das Originalfoto von Schauspieler Robert De Niro. Aufgenommen von Fotograf Michael Schwartz. Bildquelle: Instagram/mschwarzphoto.
-
Bild 2 von 2. Die rote Kappe mit dem Anti-Trump-Slogan wurde im Nachhinein reinretuschiert. Von dem Bild gibt es verschiedene Varianten. Bildquelle: ZVG.
Promis sind nicht nur Opfer von Bildfälschungen, sondern auch von Falschmeldungen zu ihrem Gesundheitszustand. Teils wird sogar ihr Tod fälschlicherweise verbreitet. So hat sich auch eine Userin erkundigt, ob Schauspieler Bruce Willis noch lebt.
Willis' Demenzerkrankung ist bereits seit einiger Zeit bekannt und durch die Familie bestätigt. Seine Frau Emma Heming Willis spricht im aktuellen Podcast «Conversations with Cam» (veröffentlicht am 28.1.2026) über den aktuellen Gesundheitszustand von Bruce, wodurch Todesmeldungen eindeutig widerlegt sind.
Gesunde Skepsis bei medizinischen Produkten angebracht
Unter den zahlreichen Zuschriften, welche das Netzwerk Faktencheck von SRF erhalten hat, gab es auch viele Gesundheitsfragen. Die Fragen umfassen alle möglichen Themenbereiche, von verschiedenen Nahrungsergänzungsmitteln über zahlreiche Therapieformen und diverse Hormonpräparate bis hin zu Beautyprodukten.
Zu einzelnen Fragen hat SRF bereits Beiträge und Recherchen publiziert. Gleichzeitig gilt: Gesundheitsfragen sind immer individuell. Wer konkrete Beschwerden oder Unsicherheiten hat, sollte diese deshalb immer mit einer medizinischen Fachperson besprechen.
Es lohnt sich immer, eine kurze Recherche mit den folgenden Fragestellungen zu unternehmen: Gibt es wissenschaftliche Belege für das Produkt? Ist der Anbieter seriös und welche finanziellen Absichten hat der er? Gerade bei Produkten, die schnelle Erfolge versprechen, lohnt sich eine gesunde Portion Skepsis.
Interviews mit KI-generierten Indigenen
Eine Userin hat uns ein Video zur Überprüfung geschickt. Es zeigt Interviewausschnitte mit verschiedenen Indigenen von Nord-, Mittel- und Südamerika. Sind die Videoclips KI-generiert? Und woran kann man das erkennen?
Ja, das Video ist KI-generiert. Die Gesichter der gezeigten Personen haben die typische KI-Optik, wirken oft «zu perfekt» oder fast wie gemalt. Beim Anhalten des Videos sieht man zudem Bildunstimmigkeiten um die Mundpartie:
Vermutlich wurde das Video mit einem Bildgenerator generiert und dann animiert und die Lippen synchronisiert. Auch die untere Zahnreihe sieht nicht natürlich aus:
Fazit: KI generierte Bilder werden immer realistischer. Es lohnt sich, Videos auch mal anzuhalten und genau auf die Details zu achten.
Grönland: Die US-Pläne für einen Landtausch mit Dänemark
Auf SRF News haben wir in einem Artikel die Chronologie von Grönland nachgezeichnet und den Landabtausch-Plan der USA aus dem Jahr 1910 beschrieben. Ein User wollte in seiner Anfrage wissen, ob solche Pläne wirklich bestanden oder ob es sich um ein Gerücht handelt.
Bei dem Plan schlug Maurice Francis Egan, der damalige US-Botschafter in Dänemark, im Jahr 1910 einen Landabtausch zwischen den USA, Dänemark und Deutschland vor. Der Plan sah vor, dass Dänemark den USA Grönland gibt und im Gegenzug erhält Dänemark die philippinischen Inseln Mindanao und Palawan. Dänemark wiederum hätte die Inseln an Deutschland übertragen, welches Dänemark das nördliche Schleswig zurückgegeben hätte.
Bei der Internetrecherche nach Maurice Francis Egan und dem Jahr 1910 stösst man vor allem auf englischsprachige Ergebnisse, unter anderem auf «Office of the Historian». Dabei handelt es sich um das offizielle Geschichtsarchiv der US-Regierung für auswärtige Politik und des Aussenministeriums. Auf der Seite findet man einen Brief, den Botschafter Egan dem damaligen Assistenten des US-Aussenministers im September 1910 schrieb. Darin erläutert er diesen Plan.
Die Quelle in «Office of the Historian»
Der Plan wurde nicht umgesetzt.
Betrugsversuche per E-Mail – die Warnsignale
Unter den zahlreichen Zuschriften, die das Netzwerk Faktencheck von SRF erreicht haben, befanden sich viele Beispiele von Scam- und Phishing-Mails. So wurden uns Droh-E-Mails weitergeleitet, in denen die Absender behaupten, Zugriff auf private Daten oder intime Aufnahmen erlangt zu haben. Erst nach der Zahlung eines bestimmten Betrags – meist in Form von Bitcoin – würden diese privaten Daten und Fotos wieder gelöscht und nicht veröffentlicht werden.
Ebenfalls häufig melden Nutzer fingierte Bestellbestätigungen oder angebliche Finanzangebote. Unter Zeitdruck sollen Empfänger persönliche Angaben auf einer verlinkten Webseite eingeben, um eine vermeintliche Bestellung zu stornieren, zu bestätigen oder ein Angebot einzulösen. Der künstlich erzeugte Stress ist Teil der Taktik: Je weniger Zeit bleibt, desto geringer die Wahrscheinlichkeit, dass Betroffene die Echtheit des Angebots hinterfragen.
Besonders perfide sind E-Mails, die hohe Gewinne oder exklusive Preise versprechen. Um den angeblichen Gewinn zu erhalten, sollen Betroffene persönliche Informationen wie Telefonnummern, Wohnadresse oder gar Kreditkartendaten preisgeben.
Allen Beispielen ist eines gemeinsam: Die Betrüger versuchen, über unterschiedliche Vorwände an sensible und persönliche Daten zu gelangen. Deshalb gilt:
- Skeptisch bleiben: Angebote, Drohungen oder Gewinnversprechen sollten immer infrage gestellt werden.
- Absender prüfen: Eine kurze Internet-Recherche reicht oftmals, um frühere Betrugsversuche oder Warnungen vor den Angeboten zu finden.
- Keine persönlichen Daten preisgeben: Kontonummern oder Kreditkartendaten nie auf unbekannten Webseiten eingeben.
- Im Zweifel nicht reagieren: Verdächtige Nachrichten als Spam melden und nicht reagieren.
Pseudo-Nachrichtenvideo verbreitet Falschinformationen zu Crans-Montana
Zur Brandkatastrophe in Crans-Montana haben wir ein Youtube-Video für die Prüfung erhalten. Veröffentlicht wurde das Video vom Account «Aktuell24h», der laut eigener Beschreibung «ein unabhängiger Nachrichtenkanal» ist, bei dem «seriöser Journalismus im Mittelpunkt steht».
Der Kanal besteht erst seit Oktober 2025 und hat in diesem Zeitraum viele Clips veröffentlicht, darunter zahlreiche zu Crans-Montana. Die dramatische Aufmachung und überrissene Titel sollen Userinnen und User zum Klicken verleiten. Das hat dem Account bislang rund 680 Abonnenten verschafft. Der Kanal ist aber alles andere als seriös, ausserhalb von Youtube lassen sich keine Spuren des Pseudo-Nachrichtenportals «Aktuell24h» finden. Auf TikTok existiert zwar ein Kanal mit identischer Bezeichnung, darauf werden aber bislang keine Inhalte veröffentlicht. Es ist nicht erkennbar, wer hinter dem Account steht, die publizierten «investigativen Recherchen» durchführt und die Clips zusammenstellt.
Eine genaue Prüfung des Videos vom 23.01.2026 zu Crans-Montana bestätigt die fehlende Glaubwürdigkeit. Das Video ist eine Aneinanderreihung von Bildern, darüber spricht eine KI-Stimme. Die Untertitel weisen durchgehend Rechtschreibfehler auf.
Zwar stehen viele der verwendeten Bilder tatsächlich im Zusammenhang mit der Brandkatastrophe, bei der Nachrecherche einzelner Bilder fallen aber Unstimmigkeiten und Fehler auf: Kleine Bildbearbeitungen wie etwa Spiegelungen und Farbanpassungen erschweren es, die Originalaufnahmen zu finden. Diese Manipulationen haben wohl zum Ziel, der Nachverfolgung durch die Urheberschaft der verwendeten Fotografien zu entgehen. Es ist davon auszugehen, dass «Aktuell24h» die Bildrechte nicht geklärt und finanziell abgegolten hat.
-
Bild 1 von 2. Ein Bildausschnitt aus einem Crans-Montana-Video des Pseudo-Nachrichtenkanals «Aktuell24h». Das Bild ist offensichtlich farblich verändert, ... Bildquelle: Screenshot/Youtube/Aktuel24h.
-
Bild 2 von 2. ... aber es wurde auch gespiegelt, wie der Vergleich mit der Originalaufnahme der Bildagentur zeigt. Bildquelle: Imago/Bestimage.
Weiter können bei genauer Betrachtung des verwendeten Bildmaterials klar falsche bzw. zusammenhangslose Fotos entdeckt werden, zum Beispiel ein aktuelles Foto einer Demonstration gegen das Weltwirtschaftsforum WEF oder eine Aufnahme des eingestürzten Hallenbads in Uster von Mai 1985.
-
Bild 1 von 2. In einem Crans-Montana-Video des Pseudo-Nachrichtenkanals erscheint ein Bild, das nichts mit der Brandskatastrophe zu tun hat. Die Szene wurde tatsächlich Jahrzehnte früher aufgenommen. Bildquelle: Screenshot/Youtube/Aktuell24h.
-
Bild 2 von 2. Das ist das Originalbild vom Hallenbad-Einsturz in Uster. Das Unglück geschah im Mai 1985. Bildquelle: Getty Images/Ullstein Bild/RDB/Felix Aeberli.
Die Informationen der KI-Stimme resp. in den Untertiteln sind auch sehr fehlerhaft. So ist etwa die Rede von 23 Todesopfern – tatsächlich waren es 40. Ausserdem heisst es im Video, das Unglück sei von «Silvester 2024» und «die meisten Todesopfer seien italienische Touristen» – beides stimmt nicht. Allgemein sind die angeblichen Enthüllungen eher sprunghaft und schwer nachvollziehbar erzählt.
KI-Videos zu den Schneemassen in Kamtschatka
Gleich mehrere Userinnen und User haben SRF Videos zu den Schneemassen in der russischen Region Kamtschatka geschickt. Zu sehen sind etwa Menschen, die aus Hochhäusern in den Schnee springen, Schneeverwehungen, die Hochhäuser überragen, und Strassen, die von meterhohen Schneemauern umgeben sind.
Tatsächlich gab es im Januar 2026 in der Region aussergewöhnlich heftige Schneefälle, doch viele der viral gegangenen Videos übertreiben die Schneemassen. Die Analyse mit verschiedenen KI-Erkennungstools (SynthID, Hive Moderation) sowie ein Abgleich mit Videoaufnahmen anerkannter Nachrichtenagenturen zeigt, dass das Material künstlich generiert wurde:
-
Bild 1 von 2. Die Software «Hive Moderation» prüft, ob Inhalte KI-generiert sind. Bei einem Ausschnitt aus dem Kamtschatka-Video geht das Werkzeug zu 93.2 Prozent davon aus, dass der Inhalt KI-generiert ist. Bildquelle: Screenshot/Hive Moderation.
-
Bild 2 von 2. Noch sicherer ist das Werkzeug bei diesem Ausschnitt. Es gibt eine Wahrscheinlichkeit von 99.8 Prozent für KI-generierte Inhalte an. Bildquelle: Screenshot/Hive Moderation.
Ein weiteres eingereichtes Video ist ebenfalls KI-generiert:
Die im Video dargestellten Gebäude stehen nicht in Kamtschatka, sondern in Ankara, der Hauptstadt der Türkei. Eine Bildrückwärtssuche der prominenten Gebäude im Video ergibt etwa das Hotel Sheraton in Ankara (ca. 00:20 im Video) oder auch den Atakule-Fernsehturm (00:23). Am Schluss des Videos ist eine Schlittelszene reingeschnitten, auch diese wird von KI-Tools als künstlich eingestuft.
Auf einigen Videos werden auch Menschen gezeigt, die aus Fenstern oder von Hochhäusern in den Schnee springen. Beim folgenden Videoclip erscheint kurz vor der «Landung» im Schnee plötzlich ein Snowboard an den Füssen der Person.
Doch es gibt auch reale Szenen:
Fazit: Die KI-Videos überspitzen reale Ereignisse, die teils sehr kurz geschnittenen Videos vermischen echtes und künstlich generiertes Material. Durch die Vermischung ist es schwierig, auseinanderzuhalten, was echt ist und was nicht.
Anschlag am Bondi Beach
Am 14. Dezember 2025 kam es in Australien am bekannten Bondi Beach in Sydney zu einem Terroranschlag. 16 Menschen kamen ums Leben – darunter einer der beiden Attentäter. Nach dem Ereignis kursierten bald viele Videos im Netz. Das Netzwerk Faktencheck von SRF verifizierte unter anderem für die Tagesschau Aufnahmen. Mehr dazu im Video:
Schweizer Sanktionen gegen Russland
Eine Person aus dem Publikum hat gehört, dass angeblich der Bundesrat alle Sanktionen gegen Russland aufgehoben habe. Zudem seien alle gesperrten Gelder wieder freigegeben. Stimmt das?
Informationen dazu haben wir beim Staatssekretariat für Wirtschaft Seco gefunden. Auf der Website gibt es eine Sammlung mit den wichtigsten Fragen und Antworten zu den Sanktionen gegen Russland. Dort ist die «Verordnung über Massnahmen im Zusammenhang mit der Situation in der Ukraine» verlinkt. Sie ist derzeit in Kraft. In der Fragensammlung ist auch der Betrag der in der Schweiz gesperrten Vermögenswerte vermerkt.
Laut einer Medienmitteilung vom Dezember 2025 hat der Bundesrat die Sanktionslisten betreffend Russland und Belarus ausgeweitet. Demnach sind damit diverse Änderungen des 19. EU-Sanktionspakets übernommen worden. Aus dieser Medienmitteilung geht hervor, dass weitere natürliche Personen, Unternehmen und Organisationen der Vermögenssperre und dem Bereitstellungsverbot unterstellt wurden.
Trump läuft auf KI-Bild neben Pinguin
Derzeit sorgt ein weiteres KI-generiertes Bild von US-Präsident Donald Trump für Diskussionen. Das Bild zeigt ihn an der Seite eines Pinguins, der eine US-Flagge trägt. In den Bergen im Hintergrund ist eine Grönland-Flagge zu sehen. Das Weisse Haus hat das Bild auf X gestellt. Offensichtlich verbildlicht das Motiv Trumps Grönland-Anspruch. Über dem Bild heisst es im Eintrag auf X: «Embrace the penguin.» Das kann als Aufruf verstanden werden, sich mit der Botschaft des Bildes zu identifizieren.
Auf dem Bild gibt es einen geografischen Fehler: Pinguine sind ausschliesslich auf der Südhalbkugel beheimatet und kommen somit nicht in Grönland vor. Dieser Umstand macht das Bild, obwohl offensichtlich eine Fälschung, dennoch bemerkenswert, da es die Wahrnehmung verzerren kann.
Die Inspiration für das Pinguin-Motiv stammt aus einem Meme, das auf Werner Herzogs Dokumentarfilm «Begegnungen am Ende der Welt» (2007) basiert. In diesem Film verlässt ein Adeliepinguin seine Kolonie, um ins antarktische Hinterland zu marschieren, was als Gang in den sicheren Tod interpretiert wird.
Kuh Veronika und ihr Werkzeuggebrauch
Über die Kuh Veronika, die sich mit Werkzeugen kratzen kann, wurde medial breit berichtet, auch in vertrauenswürdigen und seriösen Medien. SRF publizierte dazu ein Interview mit der Studienautorin Alice Auersperg. Trotzdem erreichten SRF einige Zuschriften mit der Frage, ob diese Meldung wirklich echt ist.
Die Recherche nach der Studienautorin Alice Auersperg und dem Studienautor Antonio José Osuna-Mascaró ergab, dass beide zum Team der Vergleichenden Kognitionsforschung am Messerli Forschungsinstitut der Veterinärmedizinischen Universität Wien gehören. Das ist die einzige veterinärmedizinische, akademische Bildungs- und Forschungsstätte Österreichs.
Die Studie findet man frei zugänglich online auf ScienceDirect:
Die in der Studie verlinkten Videos wirken beim Anschauen echt und detailgetreu. Der Hintergrund ist nicht verschwommen, Strassenschilder sind gut sichtbar und leserlich. Zudem stimmen die Nummern der gelben Ohrmarken von Veronika in den Ausschnitten, in denen die Nummern lesbar sind, überein.
Screenshot zum tödlichen Einsatz von US-Beamten in Minneapolis
Im US-amerikanischen Minneapolis ist am Samstag ein Mann von Bundesbeamten erschossen worden. Ein Screenshot eines Augenzeugenvideos wird im Netz derzeit besonders verbreitet. Das Netzwerk Faktencheck von SRF hat sich das Bild genauer angeschaut. Inzwischen gibt es sogar mit KI überarbeitete Versionen, die in die Irre führen können. Mehr dazu im folgenden Artikel:
Weisses Haus postet manipuliertes Bild einer Bürgerrechtsaktivistin
Am 22. Januar hat das Weisse Haus auf X ein manipuliertes Bild veröffentlicht, das die Festnahme der US-Bürgerrechtsaktivistin Nekima Levy Armstrong zeigt. Auf der Aufnahme wirkt die Frau emotional aufgelöst, ihr Gesicht ist tränenüberströmt. Doch so hat sich die Situation nicht zugetragen.
-
Bild 1 von 2. Dieses manipulierte Bild teilte das Weisse Haus am 22. Januar auf X. Bildquelle: X/WhiteHouse.
-
Bild 2 von 2. Eine ursprüngliche Version des Bildes hat die US-Ministerin für Innere Sicherheit, Kristi Noem, auf X hochgeladen. Bildquelle: X/Sec_Noem.
Eine erste, andere Version des Bildes hatte die US-Ministerin für Innere Sicherheit, Kristi Noem, nur eine halbe Stunde zuvor auf X hochgeladen. Auf dieser Aufnahme wirkt Armstrong ruhig und gefasst. Abgesehen vom Gesicht ist die Szene deckungsgleich. Dieses Bild wurde manipuliert, damit es so aussieht, als würde Armstrong weinen – zudem erscheint ihre Haut dunkler als in der ursprünglichen Aufnahme.
Angesprochen auf die Manipulation hat das Weisse Haus gegenüber Nachrichtenagenturen die Überarbeitung nicht abgestritten. Der stellvertretende Kommunikationsdirektor im Weissen Haus, Kaelan Dorr, schrieb auf X, die Durchsetzung des Gesetzes werde fortgesetzt – und «die Memes» ebenfalls.
Fake-Artikel lockt mit betrügerischen Investitionsversprechen
Eine Person aus dem Publikum macht uns auf eine reisserische Schlagzeile über einen angeblichen Skandal in der SRF-Gesprächssendung «Gredig Direkt» mit Stargast DJ Antoine aufmerksam. Doch was auf den ersten Blick wie ein brisanter Online-Artikel aussieht, entpuppt sich bei genauerem Hinsehen als raffinierte Betrugsmasche.
In diesem Fall führt eine reisserische Werbeanzeige auf einen Artikel, der dem Online-Auftritt von «Blick.ch» zum Verwechseln ähnlich sieht. Layout, Schriftart und Logo wirken echt. Selbst die angegebene Autorin arbeitet tatsächlich als Journalistin bei der Zeitung. Doch der Schein trügt.
Erst die Adressleiste entlarvt den Betrug: Statt «blick.ch» steht dort «blikcc.com» – ein Detail, das im Alltag schnell übersehen wird. Auch die Navigation der Seite funktioniert nicht: Links zu anderen Artikeln oder zur Hauptseite sind inaktiv.
Im gefälschten Artikel geht es darum, dass DJ Antoine mit einer Investitionsplattform angeblich sein Vermögen aufgebaut haben soll. Der SRF-Moderator Urs Gredig versucht laut dem Fake-Artikel direkt selbst sein Glück – wohl, um die Neugier der Leserschaft zu wecken.
Der Artikel wird mit täuschend echten Screenshots aus dem Studio illustriert. Setting und Logo sind originalgetreu. Doch auch hier entlarven Details die Fälschung: Urs Gredig trägt auf den Bildern beispielsweise deutlich kürzere Haare als aktuell.
Solche Betrugsmaschen missbrauchen die Gesichter bekannter Persönlichkeiten und klonen ganze Webseiten, um Vertrauen beim Publikum aufzubauen. Die Aufmachung wird immer professioneller, und oft sind es nur noch kleine Details, die diese betrügerischen Werbeanzeigen entlarven. Es sind Details, die im schnellen Scroll-Tempo des Alltags leicht übersehen werden.
Waldbrände in Patagonien wegen mutmasslicher Brandstiftung
In Argentinien haben Waldbrände grosse Zerstörung angerichtet. In diesem Zusammenhang kursieren auch zahlreiche Spekulationen. Eine Anfrage thematisiert Behauptungen in den Sozialen Medien, wonach die Brände mutwillig von Zionistinnen oder Zionisten gelegt worden seien. Als Begründung wird angeführt, dass der argentinische Präsident Milei ein Unterstützer Israels sei und kürzlich Regulierungen zum Grundbesitz nach Waldbränden gelockert habe. Zudem wird in einigen Videos die historische Diskussion um Patagonien als möglichen Ort für einen jüdischen Staat angeführt.
Es ist wahrscheinlich, dass die Feuer absichtlich gelegt wurden. Wer jedoch für die mögliche Brandstiftung verantwortlich ist, ist unklar. Interessanterweise wurden neben Israelis auch die indigenen Mapuche verdächtigt – für beide Behauptungen gibt es keine Grundlage.
Die Behauptungen in den Sozialen Medien greifen einen historischen Punkt auf: Es stimmt, dass Theodor Herzl in seinem Werk «Der Judenstaat» (1896) neben Palästina auch Argentinien als mögliche Heimat für die jüdische Bevölkerung vorgeschlagen hat. Doch hier endet die historische Korrektheit. Der sogenannte «Plan Andinia» ist eine antisemitische Verschwörungstheorie, die in den 1970er-Jahren ihren Ursprung hat. Die vermeintliche Gründung eines zweiten jüdischen Staates in Patagonien wurde zuerst vom antisemitischen Politiker Walter Beveraggi Allende propagiert und später von der argentinischen Militärdiktatur (1976–1983) aufgegriffen. Es gibt keinerlei Belege dafür, dass dies eine organisierte Aktion innerhalb zionistischer Bewegungen ist oder war, um an Land zu kommen.
In den Sozialen Medien wird auch eine israelische Organisation namens «Backpackers without Borders» mit den Bränden in Zusammenhang gebracht. Dies scheint nicht der offizielle Name der Organisation zu sein. Vermutlich handelt es sich um die NGO «Heroes for Life», die 2013 von drei Offizieren der israelischen Armee IDF gegründet wurde. Belege für eine Verbindung zu den Waldbränden gibt es aber nicht.
Die Behauptungen, dass Waldbrände in Patagonien bewusst von Zionistinnen und Zionisten herbeigeführt wurden, basieren auf einer Mischung aus historischen Halbwahrheiten und einer klar identifizierbaren antisemitischen Verschwörungserzählung.
Video zeigt Schüsse bei Protest in Teheran
Derzeit erreichen SRF regelmässig Videos zu den Massenprotesten im Iran. Ein – nur verschwommenes – Video dazu soll angeblich eine Demonstration in der iranischen Hauptstadt Teheran zeigen. Im Hintergrund sind Schüsse zu hören. Die Frage: Stammt das Video tatsächlich aus Teheran?
Wichtige Anhaltspunkte für das Faktencheck-Team sind die markanten Gebäude an den Bildrändern. Ausserdem wurde zum Video ein Quartier genannt. Mit Werkzeugen wie Google Streetview haben wir versucht, uns virtuell vor Ort umzusehen und die Gebäude zu finden. Das erwies sich als schwieriger als gedacht.
Für Faktenchecks werden auch verschiedene Informationen vernetzt. Wurden dasselbe oder ähnliche Videos im Internet publiziert? Tatsächlich stiessen wir in Social Media auf dasselbe Video mit weiteren Hinweisen: Bei den Gebäuden handelt es sich um ein Shoppingcenter und eine Schule.
Zwar existieren für die Gegend keine Streetview-Aufnahmen, doch über die Schule fand das Team Fotos der Strasse. So liess sich der Standort des Videos genau bestimmen. Das Netzwerk Faktencheck ist sich ziemlich sicher, dass das Video tatsächlich in Teheran aufgenommen wurde.
Zu betonen ist, dass es aktuell schwierig ist, Inhalte aus dem Iran zu überprüfen. Der iranische Machtapparat hat das Internet blockiert. Dadurch dringen nur wenig Informationen nach aussen.
Die Sammlung wird bis zum 30. Januar 2026 laufend erweitert.