Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

Online-Betrug Deepfakes und Stimmenklone locken Opfer in die Betrugsfalle

Künstliche Intelligenz befeuert den Online-Betrug – mit meiner Stimme und meinem Gesicht auf Diebestour.

Beim Scrollen auf Facebook ist Christian Kuonen auf ein Video von Unternehmer Peter Spuhler gestossen. Spuhler wirbt darin scheinbar für eine lukrative Investition. «Ich dachte, wenn ein Unternehmer wie Peter Spuhler das sagt, muss es wahr sein», sagt Kuonen gegenüber «Kassensturz». Doch das Video ist gefälscht – Stimme und Gesicht wurden mit künstlicher Intelligenz erzeugt.

So schützen Sie sich vor Online-Betrug

Box aufklappen Box zuklappen
  • Gesunde Skepsis: Trauen Sie nicht jedem Inhalt. Auch Videos und Stimmen können heute gefälscht sein. Prüfen Sie verdächtige Informationen und Absender.
  • Keine Zugangsdaten weitergeben: Banken, Versicherungen und Behörden fragen niemals per Mail, SMS oder Telefon nach Passwörtern oder Codes.
  • Zeitdruck als Warnsignal: Wer Sie drängt, will täuschen. Seriöse Stellen setzen Sie nicht unter Entscheidungsstress.
  • Vier-Augen-Prinzip: Entscheiden Sie bei Unsicherheit nicht allein. Holen Sie eine zweite Meinung ein, bevor Sie handeln.
  • Hilfsangebote nutzen: Auf finden Sie aktuelle Betrugswarnungen und eine Warnliste betrügerischer Plattformen.
  • Vorsicht bei Investitionen: Seien Sie misstrauisch, wenn hohe Gewinne in kurzer Zeit versprochen werden. Betrügerische Investment-Plattformen locken häufig mit einem Einstieg von 250 Franken.
  • «Recovery Scams»: Betrüger melden sich oft Monate oder Jahre erneut und verlangen Gebühren, um angeblich verlorenes Geld zurückzuholen.
  • Technisch absichern: Nutzen Sie starke Passwörter und die Zwei-Faktor-Authentifizierungen, um die Sicherheit zu erhöhen.

Das Deepfake-Video führte Christian Kuonen auf die angebliche Investment-Plattform «Suxxess FX». Zuerst zahlte er 250 Franken ein. Dann drängten ihn die Berater zu immer höheren Beträgen – angeblich, um Verluste wettzumachen. Insgesamt zahlte er 10'000 Franken ein – und verlor alles. «Die Berater waren sehr aufdringlich, sie wollten gleich nochmals 10'000 Franken», sagt Kuonen.

Betrüger erbeuten 250 Millionen Franken

Die Namen der Plattformen wechseln – die Masche bleibt gleich. Mit KI-generierten Videos von Prominenten locken Betrüger ihre Opfer auf die Plattformen. Dort wird ein Handel mit Kryptowährungen oder Aktien vorgegaukelt. Laut Ermittlungsbehörden findet dieser Handel in Wirklichkeit gar nicht statt.

Allein im Jahr 2025 erbeuteten Online-Anlagebetrüger in der Schweiz rund 250 Millionen Franken, sagt Serdar Günal Rütsche, Leiter des nationalen Netzwerks zur Bekämpfung von Internetkriminalität «Nedik» und Chef Cybercrime bei der Kantonspolizei Zürich. Zum Vergleich: 2024 lag die Schadenssumme bei 236 Millionen Franken. Im Jahr davor bei 147 Millionen Franken.

Kaum Chance, das Geld zurückzubekommen

Die Täter agieren international vernetzt und strukturiert organisiert. Eine realistische Chance, das «investierte» Geld zurückzubekommen, gebe es nicht. «Es gibt nur wenige Erfolge auf internationaler Ebene», sagt Serdar Günal Rütsche. «Dass man Täter verhaften und Vermögenswerte sichern kann, kommt selten vor.»

Beim «Kassensturz» melden sich weitere Betroffene, die wegen Deepfake-Videos auf der vermeintlichen Investment-Plattform gelandet sind. Eine Frau zahlte unter Druck mehr als zehn Mal ein – und verlor fast eine halbe Million Franken. Die Kantonspolizei Zürich warnt auf «cybercrimepolice.ch» vor der Plattform «Suxxess FX». Die Betreiber dieser Plattform – mit Sitz auf den Seychellen – reagierten auf die Fragen von «Kassensturz» nicht.

Immer mehr betrügerische Stimmenklone

Ebenso grosses Missbrauchspotenzial sieht Cybercrime-Chef Serdar Günal Rütsche beim Klonen von Stimmen mit Künstlicher Intelligenz. Betrüger imitieren damit Vertrauenspersonen – aus der Familie oder vom Arbeitsplatz – per Telefon oder Sprachnachricht und drängen ihre Opfer zu Zahlungen. Schon wenige Minuten Audiomaterial reichen heute aus, etwa aus Social-Media-Videos, um eine Stimme zu kopieren.

«Wir wissen, dass wir in nächster Zeit noch viel häufiger mit diesem Thema konfrontiert sein werden», sagt Günal Rütsche. Die Qualität werde immer besser. Aktuell könnten KI-Stimmen noch nicht in Echtzeit auf spontane Fragen reagieren. Bei Zweifeln empfiehlt er deshalb, gezielt Zwischenfragen zu stellen und auf unlogische Antworten zu achten.

Serdar Günal Rütsche ist sich jedoch bewusst, dass es wohl nur eine Frage der Zeit ist, bis geklonte Stimmen natürliche Telefongespräche mit spontanen Reaktionen führen können.

SRF 1, Kassensturz, 27.01.26, 21:10 Uhr

Meistgelesene Artikel