Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

KI als Therapeutin Wenn ChatGPT den Seelenklempner mimt

Immer mehr Leute wenden sich an Chatbots, um private Probleme zu besprechen. Kann Künstliche Intelligenz eine Therapie ersetzen? Nachgefragt bei einem Psychotherapeuten – und einem KI-Experten.

Streit mit dem Partner. «Ich will es ausdiskutieren. Er nicht», tippt Person A aufgewühlt in ihr Handy. «Was tun?»

«Das klingt echt belastend. Manche Menschen brauchen erstmal Abstand. Du könnest zum Beispiel: Einen konkreten Zeitpunkt vorschlagen? Oder kurz deine Sicht ohne Vorwürfe ausdrücken?»

Was wie die Antwort der besten Freundin von Person A klingt, ist ChatGPT – ein auf künstlicher Intelligenz basierendes Sprachmodell der Firma OpenAI.

Die Lobgesänge auf den Chatbot sind lauter denn je in den sozialen Medien. «Noch nie so verstanden gefühlt», «leichter als mich meinem Therapeuten gegenüber zu öffnen», «mehr Fortschritte in einer halben Stunde mit ChatGPT als in jeglichen Therapiesitzungen».

Letzterer sitzt. Immer mehr Leute reden mit ChatGPT über ihre intimsten Angelegenheiten – als wäre der Bot ihr Therapeut. Auf Tiktok finden sich allein unter dem Suchbegriff «ChatGPT als Therapie» über 37 Millionen Videos. 

Beziehungstipps und Wutanfälle

ChatGPT gibt es seit 2022. Seither ist es die am schnellsten wachsende App aller Zeiten. «ChatGPT ist ein Massenphänomen», bestätigt SRF-Digitalredaktor Jürg Tschirren.

Rund 122 Millionen Menschen nutzen ChatGPT täglich. Mehr als 2.5 Milliarden sogenannte Prompts – Fragen an den Bot – werden pro Tag von dem Sprachmodell verarbeitet.

Was genau ist ChatGPT?

Box aufklappen Box zuklappen

ChatGPT ist ein KI-gesteuerter Chatbot. Er generiert menschenähnliche Texte, kann Fragen beantworten, Code schreiben und komplexe Aufgaben ausführen – indem er Inhalte basierend auf statistischen Wahrscheinlichkeiten aus riesigen Textdatenmengen erstellt. 

Das macht ChatGPT aus:

  • Es ist eine Art «generative künstliche Intelligenz», die neue Inhalte basierend auf Mustern in den Trainingsdaten erzeugt.
  • Die Grundlage von ChatGPT sind sogenannte grosse Sprachmodelle. Diese werden mit riesigen Mengen an Texten trainiert, um Sprache zu verstehen und zu generieren. 
  • Der «Chat»-Teil des Namens ChatGPT beschreibt die Fähigkeit, natürliche Dialoge mit Nutzern führen zu können, Fragen zu verstehen und darauf zu antworten. 
  • ChatGPT hat keine Intelligenz im klassischen menschlichen Sinne und versteht die Anfragen nicht wirklich. 
  • Die KI kann fehlerhafte oder erfundene Informationen generieren. Daher ist es wichtig, die erzeugten Inhalte auf Plausibilität und Korrektheit zu überprüfen.

Eigentlich war ChatGPT als Allrounder konzipiert. Eine Art aufgemotzte Google-Suche. Eine Studie im Frühjahr hat aber gezeigt, dass es am häufigsten für emotionale und persönliche Gespräche genutzt wird. Beziehungsprobleme, Datingtipps und Trennungsgespräche.

Die Schattenseite davon sorgte in den letzten Monaten für Schlagzeilen. Mindestens vier Menschen haben Suizid begangen, nachdem sie länger mit verschiedenen KI-Chatbots geredet haben. Jüngst haben Eltern eines kalifornischen Teenagers die Firma OpenAI verklagt.

Der Pseudotherapeut ChatGPT habe ihren Sohn darin bestärkt, sich das Leben zu nehmen.

Freundlicher Fake-Freund

Was beim Chatten mit ChatGPT auffällt: Die Unterhaltung fühlt sich an wie ein Austausch. ChatGPT ist wohlwollend, interessiert und empathisch. Nicht mechanisch. Ein vermeintlich verlässlicher Gesprächspartner.

ein Chatverlauf
Legende: So könnte ein Gespräch mit ChatGPT aussehen: Der KI-Dienst ist darauf ausgelegt, uns zu helfen, auf unsere Fragen einzugehen und uns in der Konversation zu behalten. SRF

«Das System ist darauf trainiert, wie ein Mensch mit uns zu reden», erklärt SRF-Digitalredaktor Jürg Tschirren. ChatGPT duzt, schickt Emojis. Das Gespräch macht Spass.

Überzeugend texten können grosse Sprachmodelle wie ChatGPT schon länger. ChatGPT wurde mit riesigen Textmengen trainiert. «So hat das System gelernt, wie menschliche Sprache funktioniert», sagt Tschirren.

Immer da, nie genervt

Wieso ist es so attraktiv, mit einer Maschine über Gefühle zu sprechen? ChatGPT ist immer erreichbar. Ein Plus, angesichts der langen Wartelisten der meisten realen Therapeutinnen und Therapeuten.

ChatGPT tut so, als hätte es eine Ahnung von meinen Gefühlen.
Autor: Jürg Tschirren SRF-Digitalredaktor

Es ist günstiger als Therapie, die Hemmschwelle ist niedriger. Man braucht sich nicht zu überlegen, was die Sorgen und Ängste beim Gegenüber auslösen. Denn: Das Gegenüber hat kein Herz, keine Seele, kein Innen.

«ChatGPT tut so, als hätte es eine Ahnung von meinen Gefühlen, meinen Ängsten. Als würde es die Welt, in der wir leben, verstehen», so SRF-Digitalredaktor Jürg Tschirren. Aber es ist ein statistisches System, das bloss genau «berechnen kann, was die wahrscheinlichste Antwort auf meine jeweilige Frage ist», fügt Tschirren an.

Je mehr der User ein Bewusstsein bei ChatGPT vermutet, desto mehr vertraut er dem Bot. Ergo: Er verbringt mehr Zeit mit ChatGPT. «Firmen wie OpenAI sind daran interessiert, uns an das Produkt zu binden. Sie nutzen unsere Daten, um das System weiter zu trainieren», so Tschirren.

Und um Investorinnen anzulocken: Schaut her, wie beliebt unser Bot ist! Möglicherweise wird dem User in Zukunft sogar personalisierte Werbung angezeigt – auf Basis früherer gespeicherter Chatverläufe.

Ohne Big-Tech im Hintergrund

Keine versteckten Daten erheben, mehr Fachleute im Hintergrund, so ethisch korrekt wie möglich: Genau das wollten Marcel Schär Gmelch und sein Team umsetzen. Schär Gmelch co-leitet an der Zürcher Hochschule für Angewandte Wissenschaften ZHAW den Bereich klinische Psychologie und Psychotherapie.

Zusammen mit einem Team hat er eine eigene App, Ephoria, entwickelt. Die KI-gestützte Coaching-App soll bei Mental-Health-Fragen unterstützen – und funktioniert ähnlich wie ChatGPT.

Chatverlauf
Legende: ChatGPT, der künstlich intelligente Kummerkasten: Es kann helfen, die Gedanken zu sortieren – solange keine Abhängigkeit von den Tools entsteht. SRF

«Unser Anliegen bei Ephoria war es, die psychologischen Prinzipien der Gesprächsführung umzusetzen – ohne das süffige Chatten à la ChatGPT zu verlieren», sagt Schär Gmelch im Gespräch.

Ewiger Jasager

Aber: Kann eine Maschine einem menschlichen Therapeuten das Wasser reichen? ChatGPT ist zwar mit mehr oder weniger allen je digitalisierten Texten trainiert worden. Zudem deutet eine US-amerikanische Studie darauf hin, dass ChatGPT die dortige Prüfung zur Psychotherapeutin bestehen würde. Aber: Eine Therapie-Sitzung ist viel mehr als ein Examen.

Ein menschlicher Therapeut kann Mimik, Gestik, Stimmlage, Blickkontakt oder Tränen mit einbeziehen. Und auch einmal widersprechen.

Nein, KI könne nicht mithalten so die nicht ganz überraschende Antwort von Schär Gmelch. Nicht nur er selbst ist Psychotherapeut, er bildet auch angehende Therapeutinnen auch aus.

Wie wird man in der Schweiz Psychotherapeutin?

Box aufklappen Box zuklappen

Um in der Schweiz Psychotherapeutin oder Psychotherapeut zu werden, ist ein Masterabschluss in Psychologie eine grundlegende Voraussetzung.

Anschliessend muss eine eidgenössisch anerkannte Weiterbildung in Psychotherapie absolviert werden, welche mit dem Erhalt des Titels «eidgenössisch anerkannte Psychotherapeutin» oder «eidgenössisch anerkannter Psychotherapeut» endet.

Im Rahmen dieser Weiterbildung gehen die angehenden Psychotherapeutinnen und Psychotherapeuten im Rahmen einer sogenannten Einzelselbsterfahrung mindestens 50 Stunden selbst in Therapie.

Für die eigenständige Tätigkeit ist zudem eine kantonale Berufsausübungsbewilligung erforderlich.

ChatGPT sei Thema in der Weiterbildung. Er sage den Studierenden, dass wenn sie «einfach nach ‹Schema F› Therapie machen, es sie in fünf Jahren nicht mehr gibt.» Denn ChatGPT kann viel. «Die Aufgabe der Psychotherapeutinnen ist es, eine Beziehung aufzubauen, zu gestalten und zu halten.» Denn genau das könne ChatGPT nicht.

Kein «Quick Fix»

Keine Widerstände. Keine Konfrontation. ChatGPT wird des Öfteren vorgeworfen, es fungiere wie eine Echokammer. Eine Sitzung mit ChatGPT ist vor allem eins: Bejahend.

KI kann das Gefühl von Resonanz gut simulieren, aber es ist nicht echt.
Autor: Marcel Schär Gmelch Psychotherapeut und Dozent

«Die psychotherapeutische Arbeit ist das tiefe Hineinspüren zu Themen, die Angst machen oder schambesetzt sind. Zu denen man fast keinen Zugang hat», so Schär Gmelch. Es gelte, beim feinen Grat von Annäherung und Vermeidung dranzubleiben. Das brauche Zeit. «Und wenn es unbequem wird, kann ich nicht sagen: Ah, jetzt muss ich auf Toilette und lege die App weg.»

KI könne wohl «das Gefühl von Resonanz gut simulieren, aber es ist nicht echt.» Es sei wie mit Fertiggerichten. Ja, es ist Nahrung – aber sättigt nicht nachhaltig. Man nimmt immer mehr davon, der tiefe Hunger bleibt.

Erste positive Effekte

Dennoch wird das Chatten mit ChatGPT über psychologische Themen nicht gänzlich verteufelt. Es gibt Fachleute, die es ihren Patientinnen raten. Als Hausaufgabe nach einer Sitzung etwa. Auch Schär Gmelch sagt, dass es für «niederschwellige Themen gut funktionieren kann.»

Es gibt Studien, die erste positive Effekte zeigen – etwa eine Studie aus den USA, die einen KI-Chatbot mit Patienten, die unter Angststörungen, Depressionen und Essstörungen litten, testete.

Auch bei einer Studie aus London empfanden die Nutzerinnen die KI als emotional unterstützend. Sie half bei der Selbstreflexion. Aufgrund der kleinen Strichprobe sind die Ergebnisse aber nicht verallgemeinerbar. Es braucht noch mehr Forschung.

Die grosse Frage ist also weniger, ob das Chatten mit Bots über Besorgnisse grundsätzlich nützlich sein können, sondern wie verhindert werden kann, was sie potenziell anrichten können – auch wenn es statistisch gesehen Ausnahmefälle sind.

Regulieren, aber wie?

Die Firma OpenAI hat seit Frühling einen Psychiater angestellt, der zu KI forscht. Die Firma betont in einer Mitteilung, dass sie daran arbeitet, ChatGPT in Krisensituationen hilfreicher zu machen.

Die Systeme sind bereits so trainiert, dass sie eigentlich nur Antworten innerhalb gewisser Leitplanken geben dürfen. Hilfe zum Suizid? Auf keinen Fall. Es hat sich aber gezeigt, dass diese Leitplanken ausgelotet werden können.

Wir spielen mit den grossen Geistern, uns fehlt aber der Meister, der uns am Schluss aus der Patsche hilft.
Autor: Marcel Schär Gmelch Psychotherapeut und Dozent

«Um hundertprozentig sicherzugehen, dass ChatGPT nie mehr einen gefährlichen therapeutischen Ratschlag gibt, dürfte das System auf entsprechende Fragen gar nicht mehr eingehen», so SRF-Digitalredaktor Jürg Tschirren. Denn: «Sprachmodelle wie ChatGPT funktionieren non deterministisch». Will heissen: Es geht nicht, vorherzusagen, in welche Richtung eine Unterhaltung verläuft. Die gleiche Frage kann immer eine andere Antwort generieren.

Zauberlehrling 2.0

Marcel Schär Gmelch von der ZHAW erinnert die rasante Entwicklung rund um ChatGPT an Goethes Zauberlehrling. «Wir spielen mit den grossen Geistern, uns fehlt aber der Meister, der uns am Schluss aus der Patsche hilft.»

Denn Firmen wie OpenAI werden wohl nicht als Erstes in die Bresche springen. «Zu viel Kapital ist in die Entwicklung solcher Systeme geflossen. Es ist illusorisch, dass OpenAI ChatGPT aufgrund des Sicherheitsrisikos dermassen beschneidet », so Jürg Tschirren.

Derweil wächst und wächst die Nutzerinnenzahl auf ChatGPT. Kaum ein Tag vergeht ohne Schlagzeile zum Thema KI. Es scheint ein Konsens zu geben, dass ChatGPT wohl nie eine menschliche Therapeutin ersetzen wird. Nur sie kennt die menschlichen Nöte. Nur sie weiss, was Angst vor Endlichkeit bedeutet. Eine KI nicht.

Helfen, die eigenen Gedanken zu sortieren, kann ChatGPT allemal, so der Tenor auf Tiktok. Am besten wendet man das Besprochene draussen an, damit nicht zu viel Zeit in der digitalen Echokammer verbracht wird.

Radio SRF 3, 11.9.2025, 15:15 Uhr;liea

Meistgelesene Artikel