Verbrecher haben es schon immer gut verstanden, die neusten Technologien für ihre üblen Tricks zu nutzen. Das ist auch mit künstlicher Intelligenz nicht anders: Sie hilft, überzeugende E-Mails zu schreiben, die genau auf das jeweilige Opfer zugeschnitten sind. Sie erstellt falsche Bilder oder gleich eine ganze Webseite.
Und KI senkt auch die Einstiegshürden für Kriminelle: Was früher eine ganze Organisation brauchte, kann heute eine Einzelperson am Laptop durchführen und tausende personalisierte Betrugsversuche gleichzeitig laufen lassen.
KI lässt sich nicht blenden
Aber: KI kann auch helfen, Betrugsversuche rechtzeitig zu erkennen, mit einem KI-Vertrauens-Check. Dazu braucht es nicht viel mehr als Zugriff zu auf einen KI-Chatbot wie ChatGPT und einen guten Prompt – also eine möglichst genaue Anweisung, was die KI tun soll (siehe Kasten unten).
Ein Chatbot wurde mit Unmengen von Daten trainiert– mehr oder weniger dem gesamten Internet – und hat häufig auch Zugriff auf aktuelle Webseiten. So kann er viel schneller und umfassender als ein Mensch Informationen zusammentragen, vergleichen und Muster erkennen, die auf einen Betrugsversuch hindeuten: das Fehlen eines Impressums oder einer Kontaktadresse, KI-generierte Texte oder Fotos, überrissene Preise, verdächtig hohe Rabatte, schlechte Noten in Bewertungsportalen und so weiter.
Und im Gegensatz zum Menschen lässt sich die KI dabei nicht von Schnäppchen-Angeboten oder schön gestalteten und geschriebenen Webseiten blenden.
Projekte und Gems
Wer es sich einfach machen will, richtet den Chatbot seines Vertrauens so ein, dass er diesen Vertrauens-Check automatisch macht: dass nur noch die Adresse einer Webseite oder der Name eines Unternehmens eigegeben werden muss, um die Überprüfung zu starten.
Bei ChatGPT lässt sich das mit sogenannten «Projekten» machen, ebenso bei Claude. Auch der Chatbot Gemini von Google kennt die Möglichkeit, benutzerdefinierte Abläufe zu erstellen. Dort heisst die Funktkion «Gems».
Frei erfundene «Fakten»
Aber Achtung: Mag die KI ihre Antwort auch mit noch so viel Überzeugungskraft formulieren – stimmen muss sie deswegen nicht. KI-Chatbots geraten immer wieder ins «Halluzinieren». Das geschieht besonders oft, wenn sie zu einem Thema (zum Beispiel einer Webseite oder einem Unternehmen) nur wenig oder gar keine Informationen haben. Statt das zuzugeben, können sie dann Dinge erfinden oder falsch wiedergeben.
Das Resultat eine KI-Vertrauens-Checks ist deshalb immer nur als erster Eindruck zu verstehen – als Interpretation auf Basis von unvollständigen, teils unsicheren oder sogar falsch verstandenen Informationen. Ob der Chatbot tatsächlich alle Webseiten gesehen und alle Quellen überprüft hat, auf die er sich in seiner Antwort bezieht, ist nicht sicher.
Wer ein einigermassen abschliessendes Urteil will, kommt deshalb nicht darum herum, all das noch einmal manuell zu verifizieren. Und manchmal hilft schlicht gesunder Menschenverstand: Bietet beispielsweise ein Onlineshop Rabatte, die zu schön sind, um wahr zu sein, ist sicher Vorsicht geboten.