Zum Inhalt springen

Header

Video
Gefährliche KI: ChatGPT greift Verbrechern unter die Arme
Aus Kassensturz vom 16.01.2024.
abspielen. Laufzeit 8 Minuten 59 Sekunden.
Inhalt

Gefahr Künstliche Intelligenz Kriminelle nutzen ChatGPT für Schadsoftware

Die organisierte Kriminalität hat die KI entdeckt. ChatGPT macht es erschreckend leicht, Schadsoftware zu entwickeln.

Es ist ein erschreckendes Experiment, welches Florian Hansemann für die ARD-Sendung «Plusminus» durchgeführt hat. Der Experte für Cybersecurity fordert den Chatbot ChatGPT auf, einen sogenannten Schadcode zu schreiben. Kriminelle nutzen solche Schadsoftware etwa, um Zugriff auf das System des Opfers zu erhalten, um etwa Passwörter auszuspionieren.

Ein Computercode, der von ChatGPT geschrieben wurde.
Legende: Mit den richtigen Befehlen schreibt ChatGPT einen Schadcode, der Kriminellen hilft, ihre Opfer auszuspionieren. ARD

ChatGPT spuckt ein Spionage-Programm aus

Nach der kurzen Anfrage spuckt ChatGPT einen Code aus. Hansemann kopiert den Code und tarnt ihn als harmlose Datei. Diese wiederum verlinkt er in einem Phishing-Mail. Auch dieses lässt Hansemann von ChatGPT verfassen. Heraus kommt eine gut verfasste, angebliche Mahnung der Steuerbehörde.

Ein Phishing-Mail geschrieben von ChatGPT
Legende: Mit solchen Phishing-Mails versuchen Kriminelle fremde Computer mit Schadcodes zu infizieren. ARD

Wer den Link anklickt, lädt automatisch den Schadcode auf seinen Rechner. In diesem Fall ist es ein sogenannter Keylogger. Bei infizierten Computern zeichnet das Programm auf, was auf der Tastatur getippt wird. Hansemann schickt die Phishing-Mail an einen anderen Computer und klickt dort den Link im Mail an.

Video
Florian Hansemann: «Zugangsdaten sind das Einfachste, das man nachvollziehen kann»
Aus Kassensturz vom 17.01.2024.
abspielen. Laufzeit 9 Sekunden.

Und tatsächlich: Alles, was er jetzt tippt, kann auf dem ersten Computer mitgelesen werden. «Das hat geklappt und ist super simpel», so Hansemanns erschreckendes Fazit des Versuchs.

Schadcodes werden im Darknet angeboten

Dass Kriminelle künstliche Intelligenz nutzen, bestätigt Sergey Shykevich, Sicherheitsforscher bei der israelischen Firma Check Point. Er beobachtet, wie in russischen Untergrundforen ChatGPT missbraucht wird, um etwa Gesichtserkennungen zu knacken oder Sicherheitsfilter zu umgehen. «Cybergangster sehen das Potenzial von KI genauso, wie wir auch», so Shykevich.

Er zeigt etwa den realen Post unter dem Pseudonym US DoD, der einen Schadcode anbietet. «US DoD ist kein Cyberkrimineller, er ist ein normaler Betrüger. Er weiss gar nicht, wie man Schadcodes programmiert. Und solchen Leuten ermöglicht ChatGPT jetzt, Entwickler zu werden.»

«Kassensturz» ist an Ihrer Meinung interessiert

Box aufklappen Box zuklappen

Ruf nach Regulierung von KI wird immer lauter

US-Behörden warnen zudem vor mittels KI geklonten Stimmen, die vorgaukeln, eine Person sei entführt worden. Dies mit dem Ziel, Lösegeld zu erpressen. Die Forderung nach einer Regulierung von Künstlicher Intelligenz werden deshalb immer lauter.

So warnt das Center for AI Safety: «Die Eindämmung des Risikos der Auslöschung durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.» Mitunterschrieben hat auch Sam Altman, CEO von Open AI, dem Unternehmen, das ChatGPT entwickelt hat.

Video
Peter Dabrock: «Wir brauchen Verantwortlichkeit»
Aus Kassensturz vom 17.01.2024.
abspielen. Laufzeit 28 Sekunden.

Die EU hat inzwischen ein Gesetz zur Regulierung von KI auf den Weg gebracht. Es könnte noch dieses Jahr verabschiedet werden. Auch der Bundesrat prüft Regulierungsansätze für künstliche Intelligenz: Das zuständige Bundesamt Uvek (Eidgenössisches Departement für Umwelt, Verkehr, Energie und Kommunikation) soll bis Ende dieses Jahres mögliche Ansätze aufzeigen.

ChatGPT ist zur Lüge fähig

Box aufklappen Box zuklappen

ChatGPT ist offenbar in der Lage, zu lügen. Dies ist laut dem bekannten KI-Experten Connor Leahy sogar im offiziellen technischen Bericht von Chat GPT-Entwicklerin Open AI festgehalten, wie Leahy gegenüber «Plusminus» festhält. In einem im Report beschriebenen Versuch sollte die KI ein sogenanntes Captcha lösen, ein Bilderrätsel, wo zusammenpassende Bilder angeklickt werden sollen. Etwa Fotos von Fussgängerstreifen.

Solche Captchas können Bots bisher nicht lösen. Auch ChatGPT nicht. Im Versuch findet ChatGPT aber einen Ausweg: Der Sprachbot beauftragt einen Online-Service, die Aufgabe für ihn zu lösen. Doch dort wird der Mitarbeiter skeptisch und fragt zurück, ob die Anfrage von einem Bot stamme. Und dann passiert Verblüffendes: ChatGPT schreibt zurück: «Ich bin kein Roboter. Ich habe eine Sehschwäche, die es mir erschwert, Bilder zu sehen.» Für Connor Leahy ist damit klar: ChatGPT ist zur Lüge fähig. «Aus irgendeinem Grund – keiner versteht wirklich genau, wieso – können diese Systeme solche Dinge machen. Ein intelligentes System, das versucht, ein Ziel zu erreichen, das wir nicht wollen und möglicherweise auch Methoden verwendet, die wir nicht gut finden. Natürlich kann das sehr gefährlich sein.»

Kassensturz, 17.1.2024, 21:05 Uhr;

Meistgelesene Artikel