Der ChatGPT-Konzern Open AI wird von Eltern verklagt, deren Teenager sich nach längeren Gesprächen mit dem KI-Chatbot das Leben genommen hat. Wohl nicht zuletzt wegen solcher tragischen Fälle hat Open AI jetzt sogenannte Parental Controls vorgestellt. Worum es sich dabei handelt, weiss SRF-Digitalredaktor Guido Berger.
Wie funktioniert die Kindersicherung bei ChatGPT?
Die Eltern können den Account ihres Kindes oder Teenagers mit dem eigenen Elternaccount verknüpfen. So können sie den Zugang zu verschiedenen Dingen einschränken. Man kann etwa eine Auszeit definieren, in der der Teenager nicht mit ChatGPT sprechen kann. Oder man die Bildgenerierung einschränken. Oder man kann Inhalte wie völlig übertriebene Schönheitsideale sperren. Zudem können die Eltern den Stimmenmodus ausschalten und auch definieren, wie lange sich ChatGPT etwas merkt, das man besprochen hat. Die Teenager sollen die KI so weniger stark vermenschlichen oder eine weniger starke Bindung zu ihr entwickeln.
Was passiert, wenn ein Teenager suizidale Gedanken äussert?
Die KI soll merken, wenn solche heiklen Themen besprochen werden. In einem ersten Schritt wird die Auswahl auf ein bestimmtes Sprachmodell eingeschränkt, von dem Open AI überzeugt ist, dass es am besten geeignet ist, um auf solche Fragen zu antworten. Das Modell ist darauf trainiert, solche Chats nicht einfach abzubrechen oder abzulehnen, sondern in eine sichere Richtung zu lenken. In einem wirklich extremen Fall wird dann ein menschliches Expertenteam bei Open AI auf den Fall aufmerksam gemacht, damit es die Eltern warnen kann.
Ermöglicht diese Kindersicherung in Notfällen tatsächlich schnellere Hilfe?
Das ist auf jeden Fall das Ziel. Bei Open AI hat man offenbar Vertrauen in die eigene Technologie, dass die das tatsächlich kann. Allerdings bleiben viele Fragen offen: Wie viele Fehlalarme generiert das Modell? Wie gross ist das Expertenteam? Wird es mit der Anzahl Alarme zurechtkommen? Hat es genügend Zeit für den einzelnen Fall? Wie gut ausgebildet sind diese «Experten»? Das wissen wir alles nicht.
Wie bedienerfreundlich ist die Kindersicherung für die Eltern?
Solche Funktionen verbreiten sich immer mehr, sie sind auch in Betriebssystemen oder Smartphones enthalten. Auch bieten viele Dienste wie Youtube oder Gaming-Plattformen solche Einschränkungsmöglichkeiten an. Trotzdem: Man hat den Eindruck, das werde nur angeboten, weil man muss – weil bereits etwas passiert ist oder der öffentliche Druck steigt. Das führt dann oft dazu, dass es zwar die Möglichkeit von Schutzmechanismen gibt, diese aber kompliziert einzustellen oder in den Details wenig durchdacht sind. Auch besteht immer die Möglichkeit, dass sich ein Teenager einen zweiten Account anlegt, der nicht von den Eltern kontrolliert wird. Und so stellt sich die Frage, wie viele Teenager, die diese Dienste nutzen, tatsächlich durch die entsprechenden Einstellungsmöglichkeiten geschützt sind.
Könnte man die Technologie für die Jugend nicht verbessern?
Doch, sicher. Da liegt viel ungenutztes Potenzial brach. Es ist eine Frage des Willens bei den Unternehmen, die diese Funktionen bauen müssen, sie einfach zu bauen – was aber kompliziert ist. Und so ist es auch eine Frage, wie man die Prioritäten innerhalb des Unternehmens setzt. Bislang wirken solche Parental Controls oft wie eine Alibiübung. Es scheint vor allem darum zu gehen, vor Gericht auf die Sicherheitssysteme verweisen zu können und zu sagen, wer sie nicht nutze, sei quasi selber schuld.