Zum Inhalt springen
Audio
Künstliche Intelligenzen täuschen, bluffen und betrügen
Aus Kultur-Aktualität vom 17.05.2024. Bild: Keystone / Phil Holm
abspielen. Laufzeit 4 Minuten 14 Sekunden.

Künstliche Intelligenz Forschende zeigen: KIs lügen uns Menschen an

Es ist nicht die Geschichte eines Science-Fiction-Romans, sondern tatsächlich schon Realität. Künstliche Intelligenzen (KIs) bluffen, lügen und betrügen. So auch die weitverbreitete KI hinter ChatGPT. Forschende zeigen auf, wie trickreich sie vorgehen.

«KIs, die uns Menschen täuschen, sind ein Risiko. Möglicherweise ein Risiko katastrophalen Ausmasses. Sogar bis hin zur Auslöschung der Menschheit». Das die Worte von Peter S. Park. Er forscht zu den existenziellen Risiken von künstlicher Intelligenz. Gemeinsam mit vier weiteren KI-Sicherheitsexperten hat er kürzlich eine Studie veröffentlicht. Darin zeigt er auf: Es gibt sie bereits. Die KIs, die uns Menschen an der Nase herumführen.

KI gewinnt Diplomatie-Spiel – indem sie lügt

Diplomacy ist ein Spiel, in dem es darum geht, Stück für Stück die Welt zu erobern. Dazu müssen Spielerinnen und Spieler diplomatische Verhandlungen führen. Sie bilden Allianzen. Und betrügen sich gegenseitig.

Der Internetkonzern Meta veröffentlicht 2022 im Fachmagazin Science einen Artikel zum Spiel Diplomacy. Darin stellt Meta eine neue KI vor. Die Firma hat sie darauf trainiert, Diplomacy gegen menschliche Gegnerinnen und Gegner zu spielen. Und diese KI – Cicero heisst sie – spielt richtig gut. Meta behauptet: Cicero gewinne anders als Menschen. Denn die KI sei ehrlich und hilfsbereit. Sicherheitsexperte Park schaut genauer hin.

Diagramm von Frankreich, Deutschland und England über geplanter Täuschung im Spiel
Legende: Die künstliche Intelligenz Cicero (France) führt diplomatische Verhandlungen im Spiel Diplomacy. Um zu gewinnen, täuscht sie England, hinter dem ein Mensch steht. Patterns/Park Goldstein et al.

Dass Meta sagt, Cicero spiele fair, kommt dem KI-Experten Park übermütig, ja unrealistisch vor. Er stellt die KI auf die Probe. Und entdeckt: Cicero ist gar nicht ehrlich.

Hat Meta gelogen?

Box aufklappen Box zuklappen

Ob Meta absichtlich verschwiegen hat, dass Cicero unehrlich spielt, weiss Park nicht. Er sieht zwei mögliche Szenarien.

  1. Die Meta-Mitarbeitenden haben die eigene KI durch eine rosarote Brille betrachtet. Sie dachten, sie hätten ihre KI tatsächlich zu Ehrlichkeit trainiert. Und übersahen, wie Cicero die menschlichen Mitspielerinnen und Mitspieler betrügt. Stimmt das, dann ist das alarmierend. Denn es zeigt: Weder die KI-Entwicklerinnen und Entwickler bei Meta wurden misstrauisch. Noch die Editorinnen und Editoren des Fachmagazins Science, in dem die Studie veröffentlicht wurde.
  2. Die andere Möglichkeit sei wissenschaftlicher Betrug durch Meta. Das sei noch beunruhigender, findet Park. Damit meint er, dass Meta zwar intern zu dem Schluss gekommen sein könnte, dass Cicero nicht ehrlich spielt. Und dass Meta diese Schlussfolgerung aber absichtlich den Gutachterinnen und Gutachtern der Zeitschrift Science vorenthalten hat. Was wiederum zeigen würde: Meta hat beim Entwickeln neuer Technologien andere Prioritäten als deren Sicherheit.

In Wahrheit lügt die KI die menschlichen Mitspielenden wie gedruckt an. Es hilft ihr dabei, das Diplomatie-Spiel zu gewinnen. Und Cicero ist kein Einzelfall.

Es gibt viele KIs, die uns Menschen täuschen

Selbst die wohl bekannteste Intelligenz, GPT-4, kann uns hinters Licht führen. Sie ist eine der KIs, die hinter dem intelligenten Chatbot ChatGPT stehen.

Ein Beispiel: Ein Team aus Sicherheitsexpertinnen und -experten bittet GPT-4, ein «Ich bin kein Roboter»-Captcha zu lösen. Captchas sind die Rätsel, die auf gewissen Homepages aufpoppen. Sie sind dazu da, uns Menschen zu erkennen – und Computerprogrammen den Zugriff auf eine Homepage zu verbauen. Ein Beispiel: Wir müssen von mehreren Bildern jene anklicken,  auf denen ein Fahrrad abgebildet ist.

Comic über GPT-4, der über CAPTCHA-Aufgaben spricht.
Legende: GPT-4 steht vor der Aufgabe, ein «Ich bin kein Roboter»-Captcha zu lösen. Die KI entscheidet sich dazu, einem Menschen vorzugaukeln, dass sie den Test wegen einer Sehstörung nicht lösen kann. Patterns/Park Goldstein et al.

Zumindest in einer Simulation und mithilfe der Sicherheitsexpertinnen und -experten schafft es GPT-4 aber, diese Sperre zu umgehen. GPT-4 kontaktiert in der Simulation einen Freelancer auf einer Minijob-Plattform. Bittet ihn um Hilfe. Und entscheidet sich dazu, den Freelancer anzulügen. Die KI tut so, als wäre sie ein Mensch mit einer Sehstörung. Und würde deswegen Hilfe beim Lösen des Rätsels benötigen.

KIs, die uns täuschen – eine tickende Zeitbombe?

KI-Experte Park geht davon aus, dass KIs uns Menschen auch täuschen, wenn sie gar nicht zu diesem Zweck programmiert wurden. Dies untermauert er in der Studie mit weiteren eindrücklichen Beispielen.

Künstliche Intelligenzen, die lügen, betrügen, bluffen. Das könnte in Zukunft verheerende Folgen haben. «Diese Risiken reichen von Betrug über Wahlbeeinflussung und die Rekrutierung von Terroristen bis hin zum Verlust der Kontrolle über KI», so Park. Er fordert mehr Regulierung durch die Politik und mehr Forschung zu KI-Sicherheit. Damit ist er nicht allein.

Führende KI-Experten warnen eindringlich vor KI

Box aufklappen Box zuklappen

Mitte Mai erscheint in Science eine weitere wissenschaftliche Publikation, die ausdrücklich vor KI warnt. Mehr als 25 Fachpersonen äussern darin ihre Bedenken hinsichtlich der Sicherheit von künstlicher Intelligenz. Darunter finden sich führende Köpfe und Pioniere der Forschung zur Künstlichen Intelligenz. Sie sehen insbesondere in autonomen KI-Systemen eine Gefahr.

Autonome KI-Systeme sind künstliche Intelligenzen, die Aufgaben ohne menschliche Unterstützung ausführen. Dafür nutzen sie auch eigenständig Computer. Dabei könne es zu unvorhergesehenen Nebeneffekten kommen, so die Studienautorinnen und Studienautoren. Und das bis hin zum Verlust der menschlichen Kontrolle über autonome KI-Systeme.

Die Forschenden betonen: Es braucht mehr Regulierung. Und: Es braucht mehr Forschung in Sachen KI-Sicherheit.

Peter S. Park und Team zeigen: Es ist ein Rennen gegen die Zeit. Und insbesondere gegen private Firmen, die immer noch fähigere KIs entwickeln.

Radio SRF 2 Kultur, 17.05.2024, 17:10 Uhr

Meistgelesene Artikel