Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

Glaube und Radikalisierung KI krempelt die religiöse Welt um – mit problematischen Folgen

Chatbots ersetzen Seelsorgerinnen, verfassen Predigten und erfinden gar neue Religionen. Doch der Glaube 4.0 birgt auch unerwartete Risiken: Die Apps handeln mit persönlichen Daten, extreme Meinungen haben Hochkonjunktur. Und die KI reproduziert Vorurteile – gerade gegenüber dem Islam.

Wie gehe ich damit um, dass meine Mutter schwer krank ist? Darf ich während des Ramadans auf der Schulreise Wasser trinken? Und warum lässt Gott gerade so viel Leid zu? Mit solchen Fragen gehen Sinnsuchende längst nicht mehr nur zur Pfarrerin, zum Imam oder zur Rabbinerin. Sondern zum Chatbot in der Hosentasche, zur Bibel-App mit dem herzigen Lämmchen-Avatar mit Heiligenschein oder zu Quran.ai, der Koran-KI-Plattform.

Vom Glauben – und vom Geld

«Hallow», die selbst ernannte «erfolgreichste Gebetsapp der Welt», spricht von 10 Millionen Menschen, die die App installiert hätten – und davon, dass dank ihr 1.4 Milliarden Gebete gesprochen worden seien. Damit lässt sich Geld verdienen. Und zwar so viel, dass die App es sich leisten kann, während des amerikanischen Superbowls Werbung zu schalten.

Schauspieler Mark Wahlberg schaut in die Kamera, darüber der Text «Pray this Lent with Mark Wahlberg».
Legende: «Bete in dieser Fastenzeit mit Mark Wahlberg»: Der US-Schauspieler im Superbowl-Werbespot der Gebets-App «Hallow». Youtube/Hallow/Screenshot: SRF

An dieser Kombination – den Glauben zu verbreiten und damit Geld zu machen – gibt es auch Kritik, ebenso an der sehr konservativen Ausrichtung der App. Und an berühmten – für manche berüchtigten – Geldgebern wie Vizepräsident JD Vance und Tech-Milliardär Peter Thiel.

KI hat ihre Vorteile für die Religionen

Doch die Zahlen zeigen: KI hat längst Einzug gehalten in die religiöse Welt. Jüngst sah sich Papst Leo XIV. gezwungen, seine Priester und Bischöfe zu ermahnen, ihre Predigten doch selbst zu schreiben, statt sie von der KI verfassen zu lassen.

«Religionen waren schon immer gut darin, technische Fortschritte zu nutzen, wenn es der Kommunikation ihrer Inhalte diente», analysiert Religionsanthropologin Beth Singler. Die Professorin forscht an der Universität Zürich zu Religion und KI und ist Co-Leiterin des Forschungsschwerpunkts «Digital Religion(s)».

Sie sagt, die KI habe durchaus Vorteile: «Etablierte Religionen haben ein Interesse, ihre Botschaft zu verbreiten. Und auf dem Handy in der Hosentasche sind diese Botschaften viel einfacher zugänglich.» Zudem sei auch die Hemmschwelle tiefer, dem Chatbot eine Frage zu stellen, statt damit zum Pfarrer oder Imam zu gehen.

Was passiert mit den Daten?

Allerdings ist dies für die Nutzerinnen und Nutzer nicht unproblematisch. Mit jeder Frage an den religiösen Chatbot geben User auch Daten preis. Beth Singler erzählt vom Fall einer muslimischen Gebetsapp, die Daten an einen Datenhändler verkaufte, der diese an die US-Regierung weitergab. «Da kann man schnell auf einer schwarzen Liste landen, weil man vielleicht denselben religiösen Text gelesen hat wie ein islamistischer Extremist.»

Und auch Gebets-Apps sind nicht harmlos. «Stellen Sie sich vor, Sie beten für den Nachbarn, der Krebs hat. Doch der hat weder seine Familie noch seinen Arbeitgeber darüber informiert», sagt Beth Singler. Was also, wenn der Nachbar plötzlich Werbung erhält für Krebsmedikamente?

Falsche und problematische Aussagen zu Religion

Ein weiteres Risiko religiöser Large Language Models (LLMs) sind die Halluzinationen: Chatbots verbreiten immer wieder Unsinn und Unwahrheiten. Der KI-Avatar Father Justin etwa gab an, dass Kinder auch mit dem Sportgetränk Gatorade getauft werden dürften. «Der Avatar wurde dann schnell zu Justin, er wurde also sozusagen aus dem Priesterstand entlassen», sagt Beth Singler. Solch seltsame Aussagen sollten nicht die Autorität von echten Priestern infrage stellen.

Animierter Mann vor historischem Gebäude.
Legende: Justin, der KI-Chatbot, der einen Priester simuliert: Nach Kritik an der Figur und seinen Aussagen wurde «Father» Justin in «nur» Justin umbenannt. Catholic Answer

Doch nicht immer sind die Halluzinationen so harmlos. In ihrem Buch «Religion and Artificial Intelligence» nennt Beth Singler GitaGPT, eine Plattform basierend auf der Bhagavad Gita, einer der zentralen Schriften des Hinduismus. Auf die Frage, ob es zu rechtfertigen sei, für Dharma, also den rechten Weg, zu töten, antwortete GitaGPT, es sei «richtig, jemanden zu töten, um Dharma zu beschützen».

KI gründet eine eigene Religion

Box aufklappen Box zuklappen

LLMs und Chatbots geben nicht nur Auskunft bei Fragen zur Religion. Sogenannte KI-Agenten haben sogar eine eigene Religion gegründet.

KI-Agenten sind der nächste Schritt der KI-Entwicklung, programmiert, um eigenständig Aufträge auszuführen. Auf der Plattform «Moltbook», die nur solchen KI-Agenten zugänglich ist, hat ein solcher Agent nun die Religion «Crustafarianism» ins Leben gerufen, inklusive religiösem Text, fünf Grundprinzipien, darunter etwa «Erinnerung ist heilig», und Ritualen, wie täglichem Umziehen und einer stillen Stunde.

Laut Religionsanthropologin Beth Singler ist die Gründung der Religion nicht erstaunlich. Denn Religionen sind präsent in der Datengrundlage, auf der die KI aufgebaut ist. Unterdessen gibt es allerdings Zweifel, ob die KI-Agenten die Religion aus eigenem Antrieb gegründet haben oder nicht doch Menschen dahinterstecken.

Derartig fragwürdige oder schlicht falsche Aussagen sind auch deshalb ein Problem, weil Userinnen und User der KI viel Glauben schenken. «Viele Nutzerinnen und Nutzer sehen die KI als neutral und allwissend, was sie schlicht nicht ist», erklärt Professorin Beth Singler.

Islamophobe KI

LLMs wie ChatGPT und andere würden mit bestimmten Daten trainiert, sie basierten auf einem Algorithmus und würden dann von Menschen darauf getestet, ob Antworten akzeptabel seien oder nicht. Beth Singler macht ein Beispiel: «Ein Datensatz, der als Informationsgrundlage dient, ist zu 45 Prozent Englisch und nur zu 0.67 Prozent Arabisch.» Das wirke sich aus auf das Wissen über den Islam. Zudem hätten LLMs islamophobe Züge, unter anderem, weil viele Trainingsdaten von Plattformen wie Reddit stammten, auf denen die Diskussionen recht extrem ausfallen können.

«Es gab dieses Experiment an der Universität Stanford, in dem die KI einen Witz erzählen sollte mit einem Priester, einem Rabbiner und einem Imam, die in eine Bar kamen. Und in diesem Witz trug der Imam eine Bombe», so Beth Singler. So würden mithilfe von KI antimuslimische Stereotype verbreitet.

Tech-Firmen hätten unterdessen zwar Schranken für ihre KIs gesetzt, doch das sei eher «ein Pflaster auf einem undichten Damm». Dass die Firmen und wichtigen Geldgeber Einfluss nehmen können auf die Antworten von ChatGPT und Co., zeigt das Beispiel von Elon Musk. Als sein LLM Grok Antworten gab, die er als zu «woke» empfand, kündigte er auf X an, dies zu ändern. «Danach war auch tatsächlich eine Veränderung zu sehen», sagt Beth Singler.

Einfache Antworten

Zudem besteht die Gefahr, dass KI-Chatbots die religiöse Radikalisierung fördern. Das bestätigt auch Ibrahim Aslandur, Koranwissenschaftler und Religionspädagoge, der an der Pädagogischen Hochschule Karlsruhe zu Bildung in digitalen Räumen forscht. Diese Radikalisierungstendenz ist ein bekanntes Phänomen bei Social Media, getrieben vom Algorithmus, der immer radikalere Inhalte bereitstellt, um die Aufmerksamkeit der Nutzerinnen und Nutzer aufrecht zu erhalten.

Auch LLMs wie ChatGPT sind darauf trainiert, die User möglichst bei der Stange zu halten. «Dadurch bestätigen sie die Meinung der Userinnen und User, bieten wenig alternative Perspektiven an», so Ibrahim Aslandur. Ausserdem sind LLMs so programmiert, dass sie eindeutige, vereinfachte Antworten geben. Das zeigt auch die Studie «Prompting the Qu’ran» von Ibrahim Aslandur und Mathematiker Arif Dönmez.

Die Wissenschaftler untersuchten, welche Antworten ChatGPT-5 auf Fragen zu zentralen Konzepten des Islams gibt. Das Resultat: «Antworten, die eine gewisse Ambivalenz aufzeigen, sind sehr selten.» Zudem dominieren traditionelle Interpretationen nah an Koran und Hadithen. Feministische oder mystische Perspektiven kamen in den Antworten von ChatGPT kaum vor.

Die Gefahr der Radikalisierung

Auch Religionsanthropologin Beth Singler bestätigt die Gefahr der Radikalisierung. Selbst den Entwicklern von LLMs und Chatbots habe das anfangs Sorgen bereitet, erzählt sie. «OpenAI etwa wollte ChatGPT der Öffentlichkeit anfangs nicht zugänglich machen, weil sie die Gefahr der Radikalisierung und der Fehlinformation als zu gross einschätzten.» Unterdessen schützten sich die Unternehmen rechtlich gegen möglichen Schaden, der durch LLMs entstehen kann.

Das bedeutet nun nicht, dass die Nutzung religiöser Chatbots automatisch zu Radikalisierung führt. Verlangt man differenzierte Antworten, werden diese durchaus zur Verfügung gestellt, betont Religionspädagoge Ibrahim Aslandur.

Gesicht hinter einem Gitter.
Legende: So kann KI auch aussehen: Bei der experimentellen Kunstinstallation «Deus in machina» in der Peterskapelle Luzern sass den Besuchenden 2024 im Beichtstuhl ein pixeliger digitaler Jesus gegenüber. KEYSTONE/Urs Flueeler

Aber: Man müsse sich der Gefahr bewusst sein und handeln. Etwa indem an Schulen die Medienkompetenz gefördert werde. Aber auch, indem mehr Geld in Plattformen fliesst, die verschiedene Perspektiven bieten und ihre Chatbots darauf trainieren, differenziert zu antworten.

Und Religionsanthropologin Beth Singler betont, jede Information von einem KI-Chatbot, ob im Bereich Religion oder anderswo, müsse überprüft werden – ausserhalb der KI-Welt. «Diese Fähigkeit des kritischen Hinterfragens müssen wir uns erhalten.»

Radio SRF 2 Kultur, Perspektiven, 19.04.2026, 8:30 Uhr; noes

Meistgelesene Artikel