ChatGPT soll ab Dezember eine Erotikfunktion erhalten. Das bedeutet, dass mit dem Chat-Roboter auch intime Gespräche über Sex möglich sein werden. Das hat OpenAI-Chef Sam Altman auf Social Media bekanntgegeben. Experte Oliver Bendel sagt, was damit auf die Gesellschaft zukommen könnte.
SRF News: Deckt die neue Funktion von ChatGPT ein Bedürfnis in der Gesellschaft ab?
Oliver Bendel: Bis jetzt wurden erotische Gespräche weitgehend blockiert. Man verstiess damit gegen bestimmte Richtlinien. Doch an sich ergibt es Sinn. Die Textfunktion ist hervorragend. Dieses stark Synthetische in den Stimmen von ChatGPT ist vorbei. Die neuen Stimmen hören sich gut an, sie sind angenehm verschliffen und man möchte eigentlich mit diesen Stimmen sofort ins Gespräch kommen. Es liegt nahe, das noch erotisch aufzuladen.
Warum ergibt es für Sie Sinn, einem Chatbot eine Erotikfunktion einzubauen?
Die Technologie stimmt und die Leute sind bereit dazu. Wir haben in den letzten Monaten gesehen, dass unheimlich viele Menschen bereit sind, sich auf Beziehungen mit ChatGPT einzulassen. Neulich wurde gesagt, es seien doch nur zwei, drei oder vier Prozent der Benutzer, die sich auf solche einseitigen Beziehungen einlassen. Stimmt, aber das auf mehrere Millionen Menschen. ChatGPT hat so hohe Nutzerzahlen, dass sich das lohnt. Ich sehe das Ganze aber auch skeptisch.
Wir wissen von OpenAI, dass sie an Daten interessiert sind.
Warum sind Sie skeptisch?
Es ist eine Simulationsmaschine. Das kann mal entspannend sein. Aber wenn es zu dauerhaften Beziehungen führen soll, dann ist immer festzuhalten: Es sind einseitige Beziehungen. Auf der anderen Seite ist nichts, kein Interesse, keine Liebe, kein Hass. Ein weiterer Punkt betrifft den Datenschutz oder die informationelle Autonomie, denn viele werden sexuelle Vorlieben preisgeben.
Die Leute werden dem Chatbot alles anvertrauen und dann kann die Falle zuschnappen.
Das ist ein Problem. Wir wissen von OpenAI nicht so viel, aber wir wissen, dass die Firma an Daten interessiert ist. Wir wissen auch, dass es in vielen Belangen eine hochmoralische Firma ist, die Filter und alles Mögliche eingebaut hat. Auf diese stossen jetzt Benutzer, die freizügig über sich und über ihre Vorlieben plaudern. Hier sehe ich eine Gefahr: Die Leute werden dem Chatbot alles anvertrauen und dann kann die Falle zuschnappen. Es stellt sich die Frage, was im Extremfall passieren wird.
Wo sind in dieser Entwicklung die Grenzen aus ethischer Sicht?
Wenn der Chatbot es zulässt, dass man ihn permanent herabwürdigt. Zwar ist da nichts auf der anderen Seite, aber dieses ständige Trainieren könnte zu etwas führen. Ich vermute, dass OpenAI hier etwas einbaut und dass die Chatbots irgendwann sagen «Das geht etwas zu weit.» Auch Kinderpornografie ist eine rote Linie: Wenn man dem Chatbot sagen dürfte, er soll so tun, als wäre er 10 Jahre alt, wäre das ein Problem. Doch auch das wird OpenAI nicht zulassen, denke ich. Eine weitere rote Linie ist wie gesagt der Datenschutz. Ich vertraue OpenAI nicht.
Da ist nichts auf der anderen Seite und das finde ich die Tragödie.
Was die Sexualität unter Erwachsenen angeht, sehe ich wenig rote Linien. Die Leute sollen es ausprobieren. Aber das Wichtigste ist: Da ist nichts auf der anderen Seite, kein Erwachsener, und das finde ich die Tragödie. Wie gesagt, als Spiel, als Unterhaltung ist es fantastisch. Aber ich bedaure Leute, die dann jeden Tag noch eine Stunde länger im Netz bleiben, um mit solchen Fakefriends zu plaudern.
Das Gespräch führte Dominik Brand.