Zum Inhalt springen

KI und Privatsphäre Was wir der KI anvertrauen, bleibt nicht geheim

Sie wirken empathisch und neutral – doch KI-Chatbots speichern, analysieren und verwerten alles, was wir eintippen.

«Liebes ChatGPT, ich fühle mich antriebslos und traurig und vernachlässige meine Arbeit. Was soll ich tun?»

Eine Frage, die so oder so ähnlich wohl schon manchem KI-Chatbot gestellt wurde. Schliesslich tritt die KI als empathischer, unvoreingenommener Freund und Helfer auf. Nutzerinnen und Nutzer geben einiges preis: Namen, Standorte, intime Gedanken oder Geschäftsgeheimnisse. Manchen dient die KI sogar als Therapie-Ersatz.

Auch wenn solche KI-Systeme vertrauenswürdig wirken – verschwiegen sind sie nicht. Die meisten Chatbots speichern alle unsere Eingaben und übermitteln sie zur Auswertung an ihre Entwickler, oft auf Server im Ausland.

Dazu sagt Angela Müller, Geschäftsführerin der NGO Algorithm Watch CH, die sich für gemeinwohlorientierte KI einsetzt: «KI-Firmen brauchen diese Daten, um ihre Systeme zu trainieren. Mit unseren Eingaben tragen wir also ehrenamtlich zur stetigen Weiterentwicklung der Systeme bei.»

«Opt out» statt «opt in»

Um an Daten zu kommen, greifen die Entwickler gerne zu psychologischen Tricks, weiss Angela Müller: «KI-Chatbots geben einem das Gefühl eines menschlichen Gegenübers. So können die Nutzenden eine starke Bindung zu einem bestimmten System entwickeln, ganz im Interesse des Unternehmens.» Damit sinkt auch die Hemmschwelle, intime oder sensible Inhalte zu teilen.

Inhalte, mit denen sich detaillierte Persönlichkeitsprofile erstellen lassen – zum Beispiel, um Nutzerinnen und Nutzern personalisierte Werbung anzuzeigen. Aber auch für Hacker oder autoritäre Staaten können diese Daten interessant sein, die eindeutig einer Person zugeordnet werden können.

Der Chatbot als Betriebsspion

Box aufklappen Box zuklappen

Im beruflichen Kontext sind KI-Chatbots ein besonderes Risiko. Prominentes Beispiel ist Samsung: Mitarbeitende kopierten dort internen Quellcode und Meeting-Notizen in ChatGPT, woraufhin das Unternehmen die Nutzung untersagte. Auch Microsoft und Amazon warnten vor der Eingabe sensibler Daten. Denn landen diese Daten im KI-Training, drohen Lecks – oder der Zugriff durch Dritte.

Auch für Mitarbeitende selbst kann der Umgang mit KI-Chatbots zu Problemen führen: Nutzen sie Geschäfts-KI für private Zwecke und geben dort private Daten ein, kann nicht ausgeschlossen werden, dass der Arbeitgeber später Einsicht in diese sensiblen Daten hat.

Besonders kritisch: Vielen ist gar nicht bewusst, dass ihre Eingaben gespeichert und analysiert werden. Denn die meisten KI-Unternehmen setzen beim Datenschutz auf «opt out» statt auf «opt in»: Wer nicht will, dass gesammelt wird, muss das in den Einstellungen selber festlegen.

Transparenz statt Kleingedrucktes

Anfang Mai hat der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte (EDÖB) erklärt, das Schweizer Datenschutzgesetz sei auch auf KI direkt anwendbar. Dazu der Datenschutzexperte David Rosenthal: «Für die Nutzer und Nutzerinnen eines Chatbot-Services muss erkennbar sein, wie das, was sie eingeben, vom Provider allenfalls auch selbst genutzt und gespeichert wird.»

Das könne zum Beispiel mit einem Hinweis in den Datenschutzrichtlinien geschehen. Allerdings: Kaum jemand liest diese Texte. Besser wäre es, die Anbieter würden das Publikum auch direkt im Chatbot aufmerksam machen – etwa mit einer Warnung, wenn besonders sensible Daten eingegeben werden.

Kein Freund, sondern Datensammler

Doch David Rosenthal denkt nicht, dass KI-Chatbots eine Änderung des Schweizer Datenschutzes nötig machen: «Das Gesetz ist technologieneutral formuliert und damit sind wir gut gefahren.» Wichtiger sei, dass sich die Kompetenzen im Umgang mit KI weiterentwickeln. «Das kennen wir aus anderen Bereichen: In einigen Jahren werden wir uns kaum noch an die Probleme erinnern, mit denen wir heute kämpfen, weil sich alles weiterentwickelt hat.»

KI-Chatbots, aber sicher?

Box aufklappen Box zuklappen

Wer einen KI-Chatbot nutzt, gibt mit seinen Eingaben unweigerlich Daten an das Unternehmen dahinter weiter. Trotzdem gibt es Tipps, wie sich die Privatsphäre im Umgang mit einem KI-Chatbot zumindest teilweise schützen lässt:

  • Speicherung deaktivieren
  • Nutzung zur Modellverbesserung ausschalten
  • Chatverlauf regelmässig löschen
  • Falls möglich nicht denselben Account wie für andere Dienste verwenden
  • Bei heiklen Themen falls möglich anonym arbeiten

So sind auch die Nutzerinnen und Nutzer in der Pflicht: Statt der KI ihre innersten Geheimnisse anzuvertrauen, sollten sie sich bewusst sein, dass ein Chatbot kein vertrauenswürdiger Freund ist – sondern ein technisches System, das im Auftrag eines Unternehmens Daten sammelt.

SRF 4 News, Rendez-vous, 22.5.2025, 12:30 Uhr

Meistgelesene Artikel