Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

Ihre Anfragen im Faktencheck KI-generierte Indigene und Schnee-Videos auf dem Prüfstand

Sind die Bilder echt oder nicht? Planten die USA einen Landtausch? Stimmt das Video zu Crans-Montana? Die laufend aktualisierten Faktenchecks im Überblick.

Die Faktencheckerinnen und Faktenchecker von SRF schauen sich diese Woche Einsendungen des Publikums an. In diesem Artikel finden Sie unsere Ergebnisse und weitere Recherchen. Sind Sie bei einem Thema selbst nicht sicher oder haben Sie ein merkwürdiges Video entdeckt? Dann schreiben Sie uns hier Ihre Anfrage.

Gesunde Skepsis bei medizinischen Produkten angebracht

Unter den zahlreichen Zuschriften, welche das Netzwerk Faktencheck von SRF erhalten hat, gab es auch viele Gesundheitsfragen. Die Fragen umfassen alle möglichen Themenbereiche, von verschiedenen Nahrungsergänzungs­mitteln über zahlreiche Therapieformen und diverse Hormonpräparate bis hin zu Beautyprodukten.

Zu einzelnen Fragen hat SRF bereits Beiträge und Recherchen publiziert. Gleichzeitig gilt: Gesundheitsfragen sind immer individuell. Wer konkrete Beschwerden oder Unsicherheiten hat, sollte diese deshalb immer mit einer medizinischen Fachperson besprechen.

Es lohnt sich immer, eine kurze Recherche mit den folgenden Fragestellungen zu unternehmen: Gibt es wissenschaftliche Belege für das Produkt? Ist der Anbieter seriös und welche finanziellen Absichten hat der er? Gerade bei Produkten, die schnelle Erfolge versprechen, lohnt sich eine gesunde Portion Skepsis.

Interviews mit KI-generierten Indigenen

Eine Userin hat uns ein Video zur Überprüfung geschickt. Es zeigt Interviewausschnitte mit verschiedenen Indigenen von Nord-, Mittel- und Südamerika. Sind die Videoclips KI-generiert? Und woran kann man das erkennen?

Ja, das Video ist KI-generiert. Die Gesichter der gezeigten Personen haben die typische KI-Optik, wirken oft «zu perfekt» oder fast wie gemalt. Beim Anhalten des Videos sieht man zudem Bildunstimmigkeiten um die Mundpartie:

Person in traditioneller Kleidung, roter Text 'FAKE'.
Legende: Während alles andere im Bild gestochen scharf ist, sieht man ein viereckiges Feld mit Unschärfe um den Mund. Screenshot

Vermutlich wurde das Video mit einem Bildgenerator generiert und dann animiert und die Lippen synchronisiert. Auch die untere Zahnreihe sieht nicht natürlich aus:

Porträt eines Mannes mit Federschmuck, 'FAKE' in Rot darüber.
Legende: Die auffällige Zahnreihe in einem Videoausschnitt. Sie deutet darauf, dass die Aufnahme KI-generiert ist. Screenshot

Fazit: KI generierte Bilder werden immer realistischer. Es lohnt sich, Videos auch mal anzuhalten und genau auf die Details zu achten.

Grönland: Die US-Pläne für einen Landtausch mit Dänemark

Auf SRF News haben wir in einem Artikel die Chronologie von Grönland nachgezeichnet und den Landabtausch-Plan der USA aus dem Jahr 1910 beschrieben. Ein User wollte in seiner Anfrage wissen, ob solche Pläne wirklich bestanden oder ob es sich um ein Gerücht handelt.

Bei dem Plan schlug Maurice Francis Egan, der damalige US-Botschafter in Dänemark, im Jahr 1910 einen Landabtausch zwischen den USA, Dänemark und Deutschland vor. Der Plan sah vor, dass Dänemark den USA Grönland gibt und im Gegenzug erhält Dänemark die philippinischen Inseln Mindanao und Palawan. Dänemark wiederum hätte die Inseln an Deutschland übertragen, welches Dänemark das nördliche Schleswig zurückgegeben hätte.

Bei der Internetrecherche nach Maurice Francis Egan und dem Jahr 1910 stösst man vor allem auf englischsprachige Ergebnisse, unter anderem auf «Office of the Historian». Dabei handelt es sich um das offizielle Geschichtsarchiv der US-Regierung für auswärtige Politik und des Aussenministeriums. Auf der Seite findet man einen Brief, den Botschafter Egan dem damaligen Assistenten des US-Aussenministers im September 1910 schrieb. Darin erläutert er diesen Plan.

Die Quelle in «Office of the Historian»

Der Plan wurde nicht umgesetzt.

Betrugsversuche per E-Mail – die Warnsignale

Unter den zahlreichen Zuschriften, die das Netzwerk Faktencheck von SRF erreicht haben, befanden sich viele Beispiele von Scam- und Phishing-Mails. So wurden uns Droh-E-Mails weitergeleitet, in denen die Absender behaupten, Zugriff auf private Daten oder intime Aufnahmen erlangt zu haben. Erst nach der Zahlung eines bestimmten Betrags – meist in Form von Bitcoin – würden diese privaten Daten und Fotos wieder gelöscht und nicht veröffentlicht werden.

Ebenfalls häufig melden Nutzer fingierte Bestellbestätigungen oder angebliche Finanzangebote. Unter Zeitdruck sollen Empfänger persönliche Angaben auf einer verlinkten Webseite eingeben, um eine vermeintliche Bestellung zu stornieren, zu bestätigen oder ein Angebot einzulösen. Der künstlich erzeugte Stress ist Teil der Taktik: Je weniger Zeit bleibt, desto geringer die Wahrscheinlichkeit, dass Betroffene die Echtheit des Angebots hinterfragen.

E-Mail-Warnung über mögliche Datengefährdung, mit kritischer Alarmmeldung und Sicherheitsdetails.
Legende: Dieses betrügerische E-Mail setzt mit dem Betreff den Empfänger unter Druck: «Ihre Daten könnten gefährdet sein – Sichern Sie sie noch heute.» Es ist eine typische Taktik bei solchen Betrugsversuchen. ZVG

Besonders perfide sind E-Mails, die hohe Gewinne oder exklusive Preise versprechen. Um den angeblichen Gewinn zu erhalten, sollen Betroffene persönliche Informationen wie Telefonnummern, Wohnadresse oder gar Kreditkartendaten preisgeben.

Allen Beispielen ist eines gemeinsam: Die Betrüger versuchen, über unterschiedliche Vorwände an sensible und persönliche Daten zu gelangen. Deshalb gilt:

  • Skeptisch bleiben: Angebote, Drohungen oder Gewinnversprechen sollten immer infrage gestellt werden.
  • Absender prüfen: Eine kurze Internet-Recherche reicht oftmals, um frühere Betrugsversuche oder Warnungen vor den Angeboten zu finden.
  • Keine persönlichen Daten preisgeben: Kontonummern oder Kreditkartendaten nie auf unbekannten Webseiten eingeben.
  • Im Zweifel nicht reagieren: Verdächtige Nachrichten als Spam melden und nicht reagieren.

Pseudo-Nachrichtenvideo verbreitet Falschinformationen zu Crans-Montana

Zur Brandkatastrophe in Crans-Montana haben wir ein Youtube-Video für die Prüfung erhalten. Veröffentlicht wurde das Video vom Account «Aktuell24h», der laut eigener Beschreibung «ein unabhängiger Nachrichtenkanal» ist, bei dem «seriöser Journalismus im Mittelpunkt steht».

Der Kanal besteht erst seit Oktober 2025 und hat in diesem Zeitraum viele Clips veröffentlicht, darunter zahlreiche zu Crans-Montana. Die dramatische Aufmachung und überrissene Titel sollen Userinnen und User zum Klicken verleiten. Das hat dem Account bislang rund 680 Abonnenten verschafft. Der Kanal ist aber alles andere als seriös, ausserhalb von Youtube lassen sich keine Spuren des Pseudo-Nachrichtenportals «Aktuell24h» finden. Auf TikTok existiert zwar ein Kanal mit identischer Bezeichnung, darauf werden aber bislang keine Inhalte veröffentlicht. Es ist nicht erkennbar, wer hinter dem Account steht, die publizierten «investigativen Recherchen» durchführt und die Clips zusammenstellt.

Eine genaue Prüfung des Videos vom 23.01.2026 zu Crans-Montana bestätigt die fehlende Glaubwürdigkeit. Das Video ist eine Aneinanderreihung von Bildern, darüber spricht eine KI-Stimme. Die Untertitel weisen durchgehend Rechtschreibfehler auf.

Zwar stehen viele der verwendeten Bilder tatsächlich im Zusammenhang mit der Brandkatastrophe, bei der Nachrecherche einzelner Bilder fallen aber Unstimmigkeiten und Fehler auf: Kleine Bildbearbeitungen wie etwa Spiegelungen und Farbanpassungen erschweren es, die Originalaufnahmen zu finden. Diese Manipulationen haben wohl zum Ziel, der Nachverfolgung durch die Urheberschaft der verwendeten Fotografien zu entgehen. Es ist davon auszugehen, dass «Aktuell24h» die Bildrechte nicht geklärt und finanziell abgegolten hat.

Weiter können bei genauer Betrachtung des verwendeten Bildmaterials klar falsche bzw. zusammenhangslose Fotos entdeckt werden, zum Beispiel ein aktuelles Foto einer Demonstration gegen das Weltwirtschaftsforum WEF oder eine Aufnahme des eingestürzten Hallenbads in Uster von Mai 1985.

Die Informationen der KI-Stimme resp. in den Untertiteln sind auch sehr fehlerhaft. So ist etwa die Rede von 23 Todesopfern – tatsächlich waren es 40. Ausserdem heisst es im Video, das Unglück sei von «Silvester 2024» und «die meisten Todesopfer seien italienische Touristen» – beides stimmt nicht. Allgemein sind die angeblichen Enthüllungen eher sprunghaft und schwer nachvollziehbar erzählt.

KI-Videos zu den Schneemassen in Kamtschatka

Gleich mehrere Userinnen und User haben SRF Videos zu den Schneemassen in der russischen Region Kamtschatka geschickt. Zu sehen sind etwa Menschen, die aus Hochhäusern in den Schnee springen, Schneeverwehungen, die Hochhäuser überragen, und Strassen, die von meterhohen Schneemauern umgeben sind.

Tatsächlich gab es im Januar 2026 in der Region aussergewöhnlich heftige Schneefälle, doch viele der viral gegangenen Videos übertreiben die Schneemassen. Die Analyse mit verschiedenen KI-Erkennungstools (SynthID, Hive Moderation) sowie ein Abgleich mit Videoaufnahmen anerkannter Nachrichtenagenturen zeigt, dass das Material künstlich generiert wurde:

Ein weiteres eingereichtes Video ist ebenfalls KI-generiert:

Die im Video dargestellten Gebäude stehen nicht in Kamtschatka, sondern in Ankara, der Hauptstadt der Türkei. Eine Bildrückwärtssuche der prominenten Gebäude im Video ergibt etwa das Hotel Sheraton in Ankara (ca. 00:20 im Video) oder auch den Atakule-Fernsehturm (00:23). Am Schluss des Videos ist eine Schlittelszene reingeschnitten, auch diese wird von KI-Tools als künstlich eingestuft.

Auf einigen Videos werden auch Menschen gezeigt, die aus Fenstern oder von Hochhäusern in den Schnee springen. Beim folgenden Videoclip erscheint kurz vor der «Landung» im Schnee plötzlich ein Snowboard an den Füssen der Person.

Doch es gibt auch reale Szenen:

Fazit: Die KI-Videos überspitzen reale Ereignisse, die teils sehr kurz geschnittenen Videos vermischen echtes und künstlich generiertes Material. Durch die Vermischung ist es schwierig, auseinanderzuhalten, was echt ist und was nicht.

Anschlag am Bondi Beach

Am 14. Dezember 2025 kam es in Australien am bekannten Bondi Beach in Sydney zu einem Terroranschlag. 16 Menschen kamen ums Leben – darunter einer der beiden Attentäter. Nach dem Ereignis kursierten bald viele Videos im Netz. Das Netzwerk Faktencheck von SRF verifizierte unter anderem für die Tagesschau Aufnahmen. Mehr dazu im Video:

Schweizer Sanktionen gegen Russland

Eine Person aus dem Publikum hat gehört, dass angeblich der Bundesrat alle Sanktionen gegen Russland aufgehoben habe. Zudem seien alle gesperrten Gelder wieder freigegeben. Stimmt das?

Informationen dazu haben wir beim Staatssekretariat für Wirtschaft Seco gefunden. Auf der Website gibt es eine Sammlung mit den wichtigsten Fragen und Antworten zu den Sanktionen gegen Russland. Dort ist die «Verordnung über Massnahmen im Zusammenhang mit der Situation in der Ukraine» verlinkt. Sie ist derzeit in Kraft. In der Fragensammlung ist auch der Betrag der in der Schweiz gesperrten Vermögenswerte vermerkt.

Laut einer Medienmitteilung vom Dezember 2025 hat der Bundesrat die Sanktionslisten betreffend Russland und Belarus ausgeweitet. Demnach sind damit diverse Änderungen des 19. EU-Sanktionspakets übernommen worden. Aus dieser Medienmitteilung geht hervor, dass weitere natürliche Personen, Unternehmen und Organisationen der Vermögenssperre und dem Bereitstellungsverbot unterstellt wurden.

Trump läuft auf KI-Bild neben Pinguin

Derzeit sorgt ein weiteres KI-generiertes Bild von US-Präsident Donald Trump für Diskussionen. Das Bild zeigt ihn an der Seite eines Pinguins, der eine US-Flagge trägt. In den Bergen im Hintergrund ist eine Grönland-Flagge zu sehen. Das Weisse Haus hat das Bild auf X gestellt. Offensichtlich verbildlicht das Motiv Trumps Grönland-Anspruch. Über dem Bild heisst es im Eintrag auf X: «Embrace the penguin.» Das kann als Aufruf verstanden werden, sich mit der Botschaft des Bildes zu identifizieren.

Mensch und Pinguin mit Flagge in schneebedeckter Berglandschaft.
Legende: Das Weisse Haus hat das KI-generierte Bild am 23. Januar auf X geteilt. X/WhiteHouse

Auf dem Bild gibt es einen geografischen Fehler: Pinguine sind ausschliesslich auf der Südhalbkugel beheimatet und kommen somit nicht in Grönland vor. Dieser Umstand macht das Bild, obwohl offensichtlich eine Fälschung, dennoch bemerkenswert, da es die Wahrnehmung verzerren kann.

Die Inspiration für das Pinguin-Motiv stammt aus einem Meme, das auf Werner Herzogs Dokumentarfilm «Begegnungen am Ende der Welt» (2007) basiert. In diesem Film verlässt ein Adeliepinguin seine Kolonie, um ins antarktische Hinterland zu marschieren, was als Gang in den sicheren Tod interpretiert wird.

Kuh Veronika und ihr Werkzeuggebrauch

Über die Kuh Veronika, die sich mit Werkzeugen kratzen kann, wurde medial breit berichtet, auch in vertrauenswürdigen und seriösen Medien. SRF publizierte dazu ein Interview mit der Studienautorin Alice Auersperg. Trotzdem erreichten SRF einige Zuschriften mit der Frage, ob diese Meldung wirklich echt ist.

Kuh kratzt sich mit Besenstil auf der Wiese vor Bergen.
Legende: Eine Kuh kratzt sich selbst mit einer Bürste. «Kann das sein?», fragt sich das SRF-Publikum. Das Netzwerk Faktencheck schaut sich die Aufnahmen genau an. Screenshot/ScienceDirect

Die Recherche nach der Studienautorin Alice Auersperg und dem Studienautor Antonio José Osuna-Mascaró ergab, dass beide zum Team der Vergleichenden Kognitionsforschung am Messerli Forschungsinstitut der Veterinärmedizinischen Universität Wien gehören. Das ist die einzige veterinärmedizinische, akademische Bildungs- und Forschungsstätte Österreichs.

Die Studie findet man frei zugänglich online auf ScienceDirect:

Die in der Studie verlinkten Videos wirken beim Anschauen echt und detailgetreu. Der Hintergrund ist nicht verschwommen, Strassenschilder sind gut sichtbar und leserlich. Zudem stimmen die Nummern der gelben Ohrmarken von Veronika in den Ausschnitten, in denen die Nummern lesbar sind, überein.

Screenshot zum tödlichen Einsatz von US-Beamten in Minneapolis

Im US-amerikanischen Minneapolis ist am Samstag ein Mann von Bundesbeamten erschossen worden. Ein Screenshot eines Augenzeugenvideos wird im Netz derzeit besonders verbreitet. Das Netzwerk Faktencheck von SRF hat sich das Bild genauer angeschaut. Inzwischen gibt es sogar mit KI überarbeitete Versionen, die in die Irre führen können. Mehr dazu im folgenden Artikel:

Weisses Haus postet manipuliertes Bild einer Bürgerrechtsaktivistin

Am 22. Januar hat das Weisse Haus auf X ein manipuliertes Bild veröffentlicht, das die Festnahme der US-Bürgerrechtsaktivistin Nekima Levy Armstrong zeigt. Auf der Aufnahme wirkt die Frau emotional aufgelöst, ihr Gesicht ist tränenüberströmt. Doch so hat sich die Situation nicht zugetragen.

Eine erste, andere Version des Bildes hatte die US-Ministerin für Innere Sicherheit, Kristi Noem, nur eine halbe Stunde zuvor auf X hochgeladen. Auf dieser Aufnahme wirkt Armstrong ruhig und gefasst. Abgesehen vom Gesicht ist die Szene deckungsgleich. Dieses Bild wurde manipuliert, damit es so aussieht, als würde Armstrong weinen – zudem erscheint ihre Haut dunkler als in der ursprünglichen Aufnahme.

Angesprochen auf die Manipulation hat das Weisse Haus gegenüber Nachrichtenagenturen die Überarbeitung nicht abgestritten. Der stellvertretende Kommunikationsdirektor im Weissen Haus, Kaelan Dorr, schrieb auf X, die Durchsetzung des Gesetzes werde fortgesetzt – und «die Memes» ebenfalls.

Fake-Artikel lockt mit betrügerischen Investitionsversprechen

Eine Person aus dem Publikum macht uns auf eine reisserische Schlagzeile über einen angeblichen Skandal in der SRF-Gesprächssendung «Gredig Direkt» mit Stargast DJ Antoine aufmerksam. Doch was auf den ersten Blick wie ein brisanter Online-Artikel aussieht, entpuppt sich bei genauerem Hinsehen als raffinierte Betrugsmasche.

In diesem Fall führt eine reisserische Werbeanzeige auf einen Artikel, der dem Online-Auftritt von «Blick.ch» zum Verwechseln ähnlich sieht. Layout, Schriftart und Logo wirken echt. Selbst die angegebene Autorin arbeitet tatsächlich als Journalistin bei der Zeitung. Doch der Schein trügt.

Zeitungsartikel mit der Überschrift
Legende: Viele Elemente der Webseite sehen aus wie in echt, doch es handelt sich nicht um einen echten Online-Artikel. Screenshot

Erst die Adressleiste entlarvt den Betrug: Statt «blick.ch» steht dort «blikcc.com» – ein Detail, das im Alltag schnell übersehen wird. Auch die Navigation der Seite funktioniert nicht: Links zu anderen Artikeln oder zur Hauptseite sind inaktiv.

Tipps, um eine betrügerische Webseite zu entlarven

Box aufklappen Box zuklappen
  • Prüfen Sie immer die URL, die im Browser erscheint.
  • Testen Sie die Navigation auf der Webseite. Funktioniert sie und führt sie auf plausible Seiten?
  • Seien Sie vorsichtig, wenn prominente Persönlichkeiten im Internet angeblich Investitionsversprechen machen.

Im gefälschten Artikel geht es darum, dass DJ Antoine mit einer Investitionsplattform angeblich sein Vermögen aufgebaut haben soll. Der SRF-Moderator Urs Gredig versucht laut dem Fake-Artikel direkt selbst sein Glück – wohl, um die Neugier der Leserschaft zu wecken.

Der Artikel wird mit täuschend echten Screenshots aus dem Studio illustriert. Setting und Logo sind originalgetreu. Doch auch hier entlarven Details die Fälschung: Urs Gredig trägt auf den Bildern beispielsweise deutlich kürzere Haare als aktuell.

Solche Betrugsmaschen missbrauchen die Gesichter bekannter Persönlichkeiten und klonen ganze Webseiten, um Vertrauen beim Publikum aufzubauen. Die Aufmachung wird immer professioneller, und oft sind es nur noch kleine Details, die diese betrügerischen Werbeanzeigen entlarven. Es sind Details, die im schnellen Scroll-Tempo des Alltags leicht übersehen werden.

Waldbrände in Patagonien wegen mutmasslicher Brandstiftung

In Argentinien haben Waldbrände grosse Zerstörung angerichtet. In diesem Zusammenhang kursieren auch zahlreiche Spekulationen. Eine Anfrage thematisiert Behauptungen in den Sozialen Medien, wonach die Brände mutwillig von Zionistinnen oder Zionisten gelegt worden seien. Als Begründung wird angeführt, dass der argentinische Präsident Milei ein Unterstützer Israels sei und kürzlich Regulierungen zum Grundbesitz nach Waldbränden gelockert habe. Zudem wird in einigen Videos die historische Diskussion um Patagonien als möglichen Ort für einen jüdischen Staat angeführt.

Es ist wahrscheinlich, dass die Feuer absichtlich gelegt wurden. Wer jedoch für die mögliche Brandstiftung verantwortlich ist, ist unklar. Interessanterweise wurden neben Israelis auch die indigenen Mapuche verdächtigt – für beide Behauptungen gibt es keine Grundlage.

Berg in Flammen bei Nacht mit angrenzenden Häusern.
Legende: Anfang Januar wüteten in Patagonien grosse Waldbrände. (7.1.2026) Archiv/REUTERS/Maxi Jonas

Die Behauptungen in den Sozialen Medien greifen einen historischen Punkt auf: Es stimmt, dass Theodor Herzl in seinem Werk «Der Judenstaat» (1896) neben Palästina auch Argentinien als mögliche Heimat für die jüdische Bevölkerung vorgeschlagen hat. Doch hier endet die historische Korrektheit. Der sogenannte «Plan Andinia» ist eine antisemitische Verschwörungstheorie, die in den 1970er-Jahren ihren Ursprung hat. Die vermeintliche Gründung eines zweiten jüdischen Staates in Patagonien wurde zuerst vom antisemitischen Politiker Walter Beveraggi Allende propagiert und später von der argentinischen Militärdiktatur (1976–1983) aufgegriffen. Es gibt keinerlei Belege dafür, dass dies eine organisierte Aktion innerhalb zionistischer Bewegungen ist oder war, um an Land zu kommen.

In den Sozialen Medien wird auch eine israelische Organisation namens «Backpackers without Borders» mit den Bränden in Zusammenhang gebracht. Dies scheint nicht der offizielle Name der Organisation zu sein. Vermutlich handelt es sich um die NGO «Heroes for Life», die 2013 von drei Offizieren der israelischen Armee IDF gegründet wurde. Belege für eine Verbindung zu den Waldbränden gibt es aber nicht.

Die Behauptungen, dass Waldbrände in Patagonien bewusst von Zionistinnen und Zionisten herbeigeführt wurden, basieren auf einer Mischung aus historischen Halbwahrheiten und einer klar identifizierbaren antisemitischen Verschwörungserzählung.

Video zeigt Schüsse bei Protest in Teheran

Derzeit erreichen SRF regelmässig Videos zu den Massenprotesten im Iran. Ein – nur verschwommenes – Video dazu soll angeblich eine Demonstration in der iranischen Hauptstadt Teheran zeigen. Im Hintergrund sind Schüsse zu hören. Die Frage: Stammt das Video tatsächlich aus Teheran?

Wichtige Anhaltspunkte für das Faktencheck-Team sind die markanten Gebäude an den Bildrändern. Ausserdem wurde zum Video ein Quartier genannt. Mit Werkzeugen wie Google Streetview haben wir versucht, uns virtuell vor Ort umzusehen und die Gebäude zu finden. Das erwies sich als schwieriger als gedacht.

Für Faktenchecks werden auch verschiedene Informationen vernetzt. Wurden dasselbe oder ähnliche Videos im Internet publiziert? Tatsächlich stiessen wir in Social Media auf dasselbe Video mit weiteren Hinweisen: Bei den Gebäuden handelt es sich um ein Shoppingcenter und eine Schule.

Zwar existieren für die Gegend keine Streetview-Aufnahmen, doch über die Schule fand das Team Fotos der Strasse. So liess sich der Standort des Videos genau bestimmen. Das Netzwerk Faktencheck ist sich ziemlich sicher, dass das Video tatsächlich in Teheran aufgenommen wurde.

Zu betonen ist, dass es aktuell schwierig ist, Inhalte aus dem Iran zu überprüfen. Der iranische Machtapparat hat das Internet blockiert. Dadurch dringen nur wenig Informationen nach aussen.

Die Sammlung wird bis zum 30. Januar 2026 laufend erweitert.

Fakt oder Fake? – Die Themenwoche bei SRF

Box aufklappen Box zuklappen
Logo SRF Themenwoche

Ab dem 26. Januar 2026 beleuchtet SRF das Thema Fake News eine Woche aus verschiedenen Blickwinkeln – mit Reportagen, Recherchen und Faktenchecks zu aktuellen Themen aus Politik, Wirtschaft und Gesellschaft. Alle Inhalte finden Sie hier auf der Übersicht zur Themenwoche «Fakt oder Fake?».

SRF 1 Morgengast, 26.01.2026, 7:14 Uhr;noes;weds

Meistgelesene Artikel