Beim Scrollen auf Facebook ist Christian Kuonen auf ein Video von Unternehmer Peter Spuhler gestossen. Spuhler wirbt darin scheinbar für eine lukrative Investition. «Ich dachte, wenn ein Unternehmer wie Peter Spuhler das sagt, muss es wahr sein», sagt Kuonen gegenüber «Kassensturz». Doch das Video ist gefälscht – Stimme und Gesicht wurden mit künstlicher Intelligenz erzeugt.
Das Deepfake-Video führte Christian Kuonen auf die angebliche Investment-Plattform «Suxxess FX». Zuerst zahlte er 250 Franken ein. Dann drängten ihn die Berater zu immer höheren Beträgen – angeblich, um Verluste wettzumachen. Insgesamt zahlte er 10'000 Franken ein – und verlor alles. «Die Berater waren sehr aufdringlich, sie wollten gleich nochmals 10'000 Franken», sagt Kuonen.
Betrüger erbeuten 250 Millionen Franken
Die Namen der Plattformen wechseln – die Masche bleibt gleich. Mit KI-generierten Videos von Prominenten locken Betrüger ihre Opfer auf die Plattformen. Dort wird ein Handel mit Kryptowährungen oder Aktien vorgegaukelt. Laut Ermittlungsbehörden findet dieser Handel in Wirklichkeit gar nicht statt.
Allein im Jahr 2025 erbeuteten Online-Anlagebetrüger in der Schweiz rund 250 Millionen Franken, sagt Serdar Günal Rütsche, Leiter des nationalen Netzwerks zur Bekämpfung von Internetkriminalität «Nedik» und Chef Cybercrime bei der Kantonspolizei Zürich. Zum Vergleich: 2024 lag die Schadenssumme bei 236 Millionen Franken. Im Jahr davor bei 147 Millionen Franken.
Kaum Chance, das Geld zurückzubekommen
Die Täter agieren international vernetzt und strukturiert organisiert. Eine realistische Chance, das «investierte» Geld zurückzubekommen, gebe es nicht. «Es gibt nur wenige Erfolge auf internationaler Ebene», sagt Serdar Günal Rütsche. «Dass man Täter verhaften und Vermögenswerte sichern kann, kommt selten vor.»
Beim «Kassensturz» melden sich weitere Betroffene, die wegen Deepfake-Videos auf der vermeintlichen Investment-Plattform gelandet sind. Eine Frau zahlte unter Druck mehr als zehn Mal ein – und verlor fast eine halbe Million Franken. Die Kantonspolizei Zürich warnt auf «cybercrimepolice.ch» vor der Plattform «Suxxess FX». Die Betreiber dieser Plattform – mit Sitz auf den Seychellen – reagierten auf die Fragen von «Kassensturz» nicht.
Immer mehr betrügerische Stimmenklone
Ebenso grosses Missbrauchspotenzial sieht Cybercrime-Chef Serdar Günal Rütsche beim Klonen von Stimmen mit Künstlicher Intelligenz. Betrüger imitieren damit Vertrauenspersonen – aus der Familie oder vom Arbeitsplatz – per Telefon oder Sprachnachricht und drängen ihre Opfer zu Zahlungen. Schon wenige Minuten Audiomaterial reichen heute aus, etwa aus Social-Media-Videos, um eine Stimme zu kopieren.
«Wir wissen, dass wir in nächster Zeit noch viel häufiger mit diesem Thema konfrontiert sein werden», sagt Günal Rütsche. Die Qualität werde immer besser. Aktuell könnten KI-Stimmen noch nicht in Echtzeit auf spontane Fragen reagieren. Bei Zweifeln empfiehlt er deshalb, gezielt Zwischenfragen zu stellen und auf unlogische Antworten zu achten.
Serdar Günal Rütsche ist sich jedoch bewusst, dass es wohl nur eine Frage der Zeit ist, bis geklonte Stimmen natürliche Telefongespräche mit spontanen Reaktionen führen können.