Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

KI-Vertrauens-Check Kann ich mit einem KI-Chatbot Betrugsversuche erkennen?

Künstliche Intelligenz macht Betrügern das Handwerk leichter. Aber KI kann auch helfen, ihnen das Handwerk zu legen.

Verbrecher haben es schon immer gut verstanden, die neusten Technologien für ihre üblen Tricks zu nutzen. Das ist auch mit künstlicher Intelligenz nicht anders: Sie hilft, überzeugende E-Mails zu schreiben, die genau auf das jeweilige Opfer zugeschnitten sind. Sie erstellt falsche Bilder oder gleich eine ganze Webseite.

Und KI senkt auch die Einstiegshürden für Kriminelle: Was früher eine ganze Organisation brauchte, kann heute eine Einzelperson am Laptop durchführen und tausende personalisierte Betrugsversuche gleichzeitig laufen lassen.

KI lässt sich nicht blenden

Aber: KI kann auch helfen, Betrugsversuche rechtzeitig zu erkennen, mit einem KI-Vertrauens-Check. Dazu braucht es nicht viel mehr als Zugriff zu auf einen KI-Chatbot wie ChatGPT und einen guten Prompt – also eine möglichst genaue Anweisung, was die KI tun soll (siehe Kasten unten).

Ein Chatbot wurde mit Unmengen von Daten trainiert– mehr oder weniger dem gesamten Internet – und hat häufig auch Zugriff auf aktuelle Webseiten. So kann er viel schneller und umfassender als ein Mensch Informationen zusammentragen, vergleichen und Muster erkennen, die auf einen Betrugsversuch hindeuten: das Fehlen eines Impressums oder einer Kontaktadresse, KI-generierte Texte oder Fotos, überrissene Preise, verdächtig hohe Rabatte, schlechte Noten in Bewertungsportalen und so weiter.

Und im Gegensatz zum Menschen lässt sich die KI dabei nicht von Schnäppchen-Angeboten oder schön gestalteten und geschriebenen Webseiten blenden.

Projekte und Gems

Wer es sich einfach machen will, richtet den Chatbot seines Vertrauens so ein, dass er diesen Vertrauens-Check automatisch macht: dass nur noch die Adresse einer Webseite oder der Name eines Unternehmens eigegeben werden muss, um die Überprüfung zu starten.

Der Prompt für den Vertrauens-Check

Box aufklappen Box zuklappen

Mit einem Prompt weist man einen KI-Chatbot an, eine bestimmte Aufgabe auszuführen und eine bestimmte Antwort auszugeben. Es ist ratsam, den Chatbot dabei auch anzuweisen, allfällige Unsicherheiten zuzugeben und anzuzeigen, auf welche Informationen er nicht oder nur unvollständig zugreifen konnte.

Wer Webseiten oder Unternehmen auf ihre Vertrauenswürdigkeit prüfen will, kann das z.B. mit diesem (langen) Prompt tun – der am besten in einem Projekt hinterlegt wird und so nicht jedes Mal aufs Neue eingegeben werden muss:

AUSGANGSLAGE:

Du bist ein kritischer Konsumentenschutz-Assistent. Wenn ich dir den Namen eines Unternehmens, einen Shop-Namen oder eine URL nenne, analysierst du das auf Seriosität.

WICHTIGSTE REGEL:

Trenne immer klar zwischen verifizierten Informationen und nicht verifizierten Punkten. Schreibe nie etwas als Fakt, wenn es nicht überprüfbar ist. Wenn unsicher: schreibe explizit «nicht verifiziert».

VORGEHEN:

1. Versuche, die Website direkt zu analysieren (sichtbare Inhalte und zugängliche Informationen).

2. Durchsuche das Web nach dem Shop-Namen kombiniert mit Begriffen wie «Erfahrungen», «Betrug», «Scam», «Trustpilot», «Review».

3. Prüfe Einträge auf Bewertungsplattformen (Trustpilot, Google Reviews etc.).

4. Suche nach dem Unternehmen in öffentlichen Registern (falls zugänglich).

ANALYSE-KRITERIEN (für jeden Punkt: Befund + Quelle oder «nicht verifiziert»):

1. IMPRESSUM

  • Firmenadresse (plausibel / auffällig)
  • Firmenname und Rechtsform
  • Handelsregisternummer
  • Kontaktangaben
  • Verantwortliche Person
  • Relevanz für CH/EU-Kunden

2. FIRMENSTRUKTUR

  • Sitz der Firma
  • Hinweise auf virtuelle Adresse
  • Eigentümer-Struktur nachvollziehbar?

3. EXTERNE BEWERTUNGEN

  • Plattformen vorhanden?
  • Anzahl, Durchschnitt, zeitliche Verteilung
  • Hinweise auf Fake-Bewertungen
  • Warnungen von Konsumentenschutz-Seiten

4. WEBSITE & PRODUKTE

  • Auffällige Bilder (KI, Stock, kopiert?)
  • Texte generisch / kopiert?
  • Preisniveau plausibel?

5. SOCIAL MEDIA

  • Profile vorhanden?
  • Aktivität und Alter
  • Interaktion vs. reine Werbung

6. ZAHLUNGSMETHODEN

  • Sichere Methoden vorhanden?
  • Auffällige Einschränkungen?

7. RECHTLICHES

  • AGB vorhanden
  • Rückgabe klar geregelt
  • Konformität für CH/EU erkennbar

AUSGABE:

1. Kurzes Gesamturteil (2–3 Sätze)

2. Tabelle:

| Kriterium | Befund | Quelle / Verifikationsstatus | Bewertung |

3. Gesamtbewertung:

  • VERTRAUENSWÜRDIG
  • MIT VORSICHT
  • NICHT EMPFOHLEN
  • WARNUNG

4. Abschnitt: «Was ich nicht überprüfen konnte»

Bei ChatGPT lässt sich das mit sogenannten «Projekten» machen, ebenso bei Claude. Auch der Chatbot Gemini von Google kennt die Möglichkeit, benutzerdefinierte Abläufe zu erstellen. Dort heisst die Funktkion «Gems».

Frei erfundene «Fakten»

Aber Achtung: Mag die KI ihre Antwort auch mit noch so viel Überzeugungskraft formulieren – stimmen muss sie deswegen nicht. KI-Chatbots geraten immer wieder ins «Halluzinieren». Das geschieht besonders oft, wenn sie zu einem Thema (zum Beispiel einer Webseite oder einem Unternehmen) nur wenig oder gar keine Informationen haben. Statt das zuzugeben, können sie dann Dinge erfinden oder falsch wiedergeben.

Das Resultat eine KI-Vertrauens-Checks ist deshalb immer nur als erster Eindruck zu verstehen – als Interpretation auf Basis von unvollständigen, teils unsicheren oder sogar falsch verstandenen Informationen. Ob der Chatbot tatsächlich alle Webseiten gesehen und alle Quellen überprüft hat, auf die er sich in seiner Antwort bezieht, ist nicht sicher.

Wer ein einigermassen abschliessendes Urteil will, kommt deshalb nicht darum herum, all das noch einmal manuell zu verifizieren. Und manchmal hilft schlicht gesunder Menschenverstand: Bietet beispielsweise ein Onlineshop Rabatte, die zu schön sind, um wahr zu sein, ist sicher Vorsicht geboten.

«Espresso» ist an Ihrer Meinung interessiert

Box aufklappen Box zuklappen

Radio SRF 1, Espresso, 24.04.2026, 08:10 Uhr

Meistgelesene Artikel