«Liebes ChatGPT, ich fühle mich antriebslos und traurig und vernachlässige meine Arbeit. Was soll ich tun?»
Eine Frage, die so oder so ähnlich wohl schon manchem KI-Chatbot gestellt wurde. Schliesslich tritt die KI als empathischer, unvoreingenommener Freund und Helfer auf. Nutzerinnen und Nutzer geben einiges preis: Namen, Standorte, intime Gedanken oder Geschäftsgeheimnisse. Manchen dient die KI sogar als Therapie-Ersatz.
Auch wenn solche KI-Systeme vertrauenswürdig wirken – verschwiegen sind sie nicht. Die meisten Chatbots speichern alle unsere Eingaben und übermitteln sie zur Auswertung an ihre Entwickler, oft auf Server im Ausland.
Dazu sagt Angela Müller, Geschäftsführerin der NGO Algorithm Watch CH, die sich für gemeinwohlorientierte KI einsetzt: «KI-Firmen brauchen diese Daten, um ihre Systeme zu trainieren. Mit unseren Eingaben tragen wir also ehrenamtlich zur stetigen Weiterentwicklung der Systeme bei.»
«Opt out» statt «opt in»
Um an Daten zu kommen, greifen die Entwickler gerne zu psychologischen Tricks, weiss Angela Müller: «KI-Chatbots geben einem das Gefühl eines menschlichen Gegenübers. So können die Nutzenden eine starke Bindung zu einem bestimmten System entwickeln, ganz im Interesse des Unternehmens.» Damit sinkt auch die Hemmschwelle, intime oder sensible Inhalte zu teilen.
Inhalte, mit denen sich detaillierte Persönlichkeitsprofile erstellen lassen – zum Beispiel, um Nutzerinnen und Nutzern personalisierte Werbung anzuzeigen. Aber auch für Hacker oder autoritäre Staaten können diese Daten interessant sein, die eindeutig einer Person zugeordnet werden können.
Besonders kritisch: Vielen ist gar nicht bewusst, dass ihre Eingaben gespeichert und analysiert werden. Denn die meisten KI-Unternehmen setzen beim Datenschutz auf «opt out» statt auf «opt in»: Wer nicht will, dass gesammelt wird, muss das in den Einstellungen selber festlegen.
Transparenz statt Kleingedrucktes
Anfang Mai hat der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte (EDÖB) erklärt, das Schweizer Datenschutzgesetz sei auch auf KI direkt anwendbar. Dazu der Datenschutzexperte David Rosenthal: «Für die Nutzer und Nutzerinnen eines Chatbot-Services muss erkennbar sein, wie das, was sie eingeben, vom Provider allenfalls auch selbst genutzt und gespeichert wird.»
Das könne zum Beispiel mit einem Hinweis in den Datenschutzrichtlinien geschehen. Allerdings: Kaum jemand liest diese Texte. Besser wäre es, die Anbieter würden das Publikum auch direkt im Chatbot aufmerksam machen – etwa mit einer Warnung, wenn besonders sensible Daten eingegeben werden.
Kein Freund, sondern Datensammler
Doch David Rosenthal denkt nicht, dass KI-Chatbots eine Änderung des Schweizer Datenschutzes nötig machen: «Das Gesetz ist technologieneutral formuliert und damit sind wir gut gefahren.» Wichtiger sei, dass sich die Kompetenzen im Umgang mit KI weiterentwickeln. «Das kennen wir aus anderen Bereichen: In einigen Jahren werden wir uns kaum noch an die Probleme erinnern, mit denen wir heute kämpfen, weil sich alles weiterentwickelt hat.»
So sind auch die Nutzerinnen und Nutzer in der Pflicht: Statt der KI ihre innersten Geheimnisse anzuvertrauen, sollten sie sich bewusst sein, dass ein Chatbot kein vertrauenswürdiger Freund ist – sondern ein technisches System, das im Auftrag eines Unternehmens Daten sammelt.