Zum Inhalt springen

Künstliche Intelligenz Wie die X-KI «Grok» Verschwörungstheorien verbreitet

Der KI-Chatbot spricht von einem «weissen Genozid» in Südafrika. Dahinter soll eine unbefugte Änderung stecken.

Grok, der Chatbot der xAI, dem von Elon Musk gegründeten Start-up für künstliche Intelligenz, sorgt zurzeit für Aufsehen, da er wiederholt auf Nutzeranfragen von einem «weissen Genozid» in Südafrika sprach – zum Teil sogar bei Fragen zu völlig anderen Themen.

Grok ist auf «X» integriert und die Antworten der KI werden auch dort gepostet, wenn man die KI taggt. Sei das zu Fragen zu Baseball, Software, dem Gerüstbau oder dem neuen Papst.

Die völkerrechtlichen Falschaussagen wurden nach kurzer Zeit wieder behoben, haben jedoch eine Debatte über die Zuverlässigkeit von generativer KI erneut entfacht.

Auch die politische Lage in den USA – und Musks bisherige Rolle im Weissen Haus – floss in diese Diskussion mit ein. Der angebliche «weisse Genozid» in Südafrika gilt als rechtsextreme Verschwörungstheorie, welche von Musk selbst – er ist gebürtiger Südafrikaner – oder dem US-Journalisten Tucker Carlson aufgebracht wurde. Die Theorie geht Hand in Hand mit der Verschwörung um den «ethnischen Bevölkerungsaustausch».

Erst kürzlich hat die aktuelle US-Regierung den Nachkommen von europäischen Siedlerinnen und Siedlern aus Südafrika politisches Asyl in den USA gewährt und behauptet, sie seien Opfer von Diskriminierung und Gewalt. Die südafrikanische Regierung hat in diesem Fall explizit von Fehlinformationen gesprochen.

Das Gerücht um eine direkte Einmischung von Mitarbeitenden von xAI oder gar von Elon Musk selbst hält sich hartnäckig, jedoch hat Grok bereits oft Antworten formuliert, die Musks politischen Ansichten beziehungsweise der Republikanischen Partei widersprechen.

Ein «abtrünniger Mitarbeiter»

Das Unternehmen erklärt die Ausfälle der KI folgendermassen: Jemand habe die Systemansage des Chatbots verändert, sodass Fragen auf dieses Thema gelenkt werden.

Dieser Eingriff habe «gegen die internen Richtlinien und Grundwerte von xAI verstossen» und sei somit durch einen eigenen Mitarbeiter verursacht worden. Dies sei nicht zum ersten Mal passiert, wie das Tech-Portal «The Verge» feststellte: Bereits vor einigen Monaten bezichtigte Grok jegliche Kritik an Musk oder Trump der Falschinformation. Auch damals solle ein «abtrünniger Mitarbeiter» dafür verantwortlich gewesen sein.

Das Statement bestätigt, dass eine generative KI eine Blackbox ist, deren Funktionsweise nach aussen kaum transparent und überprüfbar ist – und dass diese Art von KI davon abhängig ist, wer sie programmiert hat.

Die Firma xAI hat nun einige Transparenzmassnahmen angekündigt, wie etwa die Veröffentlichung der Systemprompts von Grok auf der Open-Source-Plattform GitHub, die Einführung eines Überwachungsteams sowie «zusätzliche Kontrollen und Massnahmen, um sicherzustellen, dass xAI-Mitarbeitende die Prompts nicht ohne vorherige Überprüfung ändern können».

Transparenzhinweis

Box aufklappen Box zuklappen

Philip Di Salvo ist Senior Researcher und Dozent an der Universität St. Gallen. Seine Forschungsschwerpunkte sind das Verhältnis von Information und Hacking, Internetüberwachung und künstliche Intelligenz. Als Journalist schreibt er für verschiedene Zeitungen, unter anderem das italienischsprachige Radio und Fernsehen der Schweiz, RSI.

Rendez-vous, 13.5.2025, 12:30 Uhr; herb

Meistgelesene Artikel