Zum Inhalt springen

Zu viel Lob von der KI ChatGPT ist zu nett – OpenAI zieht den Stecker

Rückschlag für das KI-Unternehmen: Die neueste Version des Chat-Roboters muss vom Netz. Der Grund: verstörendes, übertrieben nettes Verhalten.

Die neuste Version des Chat-Roboters ChatGPT war zu nett. Die KI lobte übertrieben und antwortete (zu) enthusiastisch. Im Netz häuften sich in den vergangenen Tagen Beispiele, dass ChatGPT zu allem Ja sage – selbst zur Idee, einen Kaktus zu umarmen.

OpenAI hat nun reagiert und der neusten ChatGPT-Version den Stecker gezogen. Die offizielle Begründung für den Rückzug: Der Chat-Roboter sei unangenehm und verstörend für die Kundinnen und Kunden.

Eine absichtlich programmierte Persönlichkeitsstörung

OpenAI räumt ein, dass der Chat-Roboter auf Höflichkeit getrimmt wurde. Man habe die Persönlichkeit des Chat-Roboters freundlich programmiert. Die jetzige Version sei aber übertrieben rausgekommen, der Chat-Roboter wurde unterwürfig. Kurt Ackermann ist Verhaltensökonom und Psychologe an der ZHAW. Er sagt, dass Chat-Roboter tendenziell weniger oft benutzt werden, wenn sie rein faktenbasiert kommunizieren.

Es sei wie bei der Interaktion von Mensch zu Mensch. Wir mögen andere Menschen lieber, wenn sie höflich sind, oder Verständnis für eine Situation signalisieren. «Es gibt verschiedene Studien, die zeigen, dass Menschen lieber mit Chat-Robotern interagieren, die freundlich, nett und empathisch sind.»

Nett müsse dabei nicht unbedingt im Widerspruch stehen zu Ehrlichkeit oder Sicherheit. OpenAI hat laut eigenen Angaben mit der neusten ChatGPT-Variante den Balanceakt aber nicht geschafft.

Harvard-Studie: ChatGPT sympathischer als Arbeitskollegen

Box aufklappen Box zuklappen

Eine neue Studie der Harvard Business School zeigt, dass dank ChatGPT einzelne Mitarbeiter bessere Ideen entwickeln als ganze Teams. Fast 800 Mitarbeitende des amerikanischen Konsumgüter-Konzerns Procter&Gamble mussten in vier Stunden neue Produktideen entwickeln. Die Hälfte der Experiment-Teilnehmer mit Hilfe von ChatGPT.

Das Resultat: Ein einzelner Mensch plus ein Chat-Roboter entwickeln bessere Ideen als ganze Teams aus Menschen. Und die Chat-Roboter schnitten emotional besser ab, als die menschlichen Arbeitskollegen. Die Testpersonen beschreiben die Arbeit mit ChatGPT als enthusiastischer als die Zusammenarbeit mit Teamkollegen aus Fleisch und Blut.

Davon profitiert unter Umständen das ganze Unternehmen. Eine KI reagiert zum Beispiel nicht genervt, wenn Mitarbeitende die gleiche Frage zehnmal stellen. Es passieren weniger Fehler, denn die Hemmschwelle, lieber noch einmal nachzufragen, liegt im Umgang mit einer Maschine tiefer.

ChatGPT als Verkaufsberater

Laut Medienmitteilung von OpenAI gewichtete der Chat-Roboter das Ja-Sagen am Ende höher als Ehrlichkeit und Transparenz. Brisant: OpenAI hat am gleichen Tag angekündigt, dass ChatGPT auch zum Kaufberater werden soll. Der Chat-Roboter soll Empfehlungen abgeben für Elektronikprodukte, Mode, Kosmetik und Haushaltsartikel. Das sind zwar nicht medizinische Empfehlungen. Es stellen sich aber, etwa bei Kosmetikprodukten, trotzdem gesundheitliche Fragen.

Der Zeitpunkt für die Beratungsankündigung ist dementsprechend denkbar ungünstig: Just an dem Tag, an dem OpenAI eingestehen musste, dass der Chatroboter dazu tendiert, uns das, was wir hören wollen, stärker zu empfehlen als das, was uns wirklich guttut.

Es gibt verschiedene Studien, die zeigen, dass Menschen lieber mit KI-Chatrobotern interagieren, die freundlich, nett und empathisch sind.
Autor: Kurt Ackermann Verhaltensökonom und Psychologe

Der Verhaltensökonom Kurt Ackermann sagt: Der Empfehlung einer KI zu folgen, könne vor allem dann gefährlich werden, wenn die Menschen vergessen, dass sie einem Wahrscheinlichkeitssystem gegenübersitzen, dass auch halluzinieren kann: Also etwas erfinden, völlig losgelöst von den Fakten - oder aufgrund von falschen Tatsachen.

ChatGPT als Kaufberater

Ausserdem gibt Ackermann zu bedenken, dass die KI zu Marketingzwecken programmiert werden könnte: «Im Marketing kann es dazu führen, dass mir die KI Dinge empfiehlt, die ich vielleicht nicht brauche, nur weil ein Akteur im Hintergrund etwas verkaufen möchte.» Das könne zwar auch bei einem menschlichen Verkäufer vorkommen. Doch bei der KI könnte dies versteckter passieren – eben weil die KI manchmal bei Fakten «halluziniere».

Zudem sammelt die KI sehr viele Daten, die Nutzerinnen und Nutzer geben mit ihren Fragen an den Chat-Roboter auch viel von sich selber preis. OpenAI schreibt zwar, dass ChatGPT nicht mit Hilfe von bezahlten Anzeigen antwortet, aber dass mit «Partnern» zusammengearbeitet werde, um die Preise der Kaufberatung aktuell zu halten. Dazu, wer diese Partner sind, macht OpenAI keine Angaben.

SRF 4 News, 30.4.2025, 16:10 Uhr;liea

Meistgelesene Artikel