Zum Inhalt springen

Datenexperiment Zeig mir deine Google-Daten und ich sag dir, wer du bist

Eine Schauspielerin sieht sich an, was eine junge Frau in fünf Jahren alles gegoogelt hat. Dann wird sie zu ihrer Doppelgängerin.

«Ich habe beim Sitzen meine Arschknochen gespürt.» Es war eine leidvolle Episode in Lisas Leben. Sie hatte Essstörungen, googelte nach Produkten, um noch dünner zu werden. Google fütterte sie mit immer neuen Vorschlägen. Auch, als sie längst wieder genesen war.

Wir alle kriegen Werbung angezeigt, wenn wir googeln. Lisas Geschichte ist daher auch unsere Geschichte. Sie ist der Kern des Datenexperiments «Made to Measure».

Zwei Männer und eine Frau sitzen konzentriert vor zwei Laptops.
Legende: Wie ausgeliefert sind wir den globalen Techkonzernen? Hans Block, Cosima Terrasse und Moritz Riesewieck vom Künstlerkollektiv Laokoon suchen mit ihrem Experiment nach Antworten. Konrad Waldmann

Ein Datensatz als Drehbuch

Ist es möglich, allein anhand von Google-Daten einen Menschen – mitsamt seinen Wünschen, Ängsten und Hoffnungen – zu rekonstruieren? Diese Frage steht am Anfang des künstlerischen Datenexperiments « Made to Measure » und im Zentrum des gleichnamigen Dokumentarfilms .

«Made to Measure» – eine digitale Spurensuche

Box aufklappen Box zuklappen

Das künstlerisch-investigative Datenexperiment «Made to Measure» des Künstlerkollektivs Laokoon ist der Versuch, fünf Lebensjahre und die Persönlichkeit eines Menschen zu rekonstruieren – allein anhand von Google-Daten.

Erlebbar wird das Experiment in zwei Teilen:

Film und Webprojekt entstanden in Koproduktion mit der SRG/SSR.

Lisa ist die Protagonistin des Experiments. Die junge Österreicherin stellte dafür ihre persönlichen Google-Daten zur Verfügung. Allein auf Grundlage dieser Daten entstand das Drehbuch für eine fiktive Figur: Eine Schauspielerin soll Lisa verkörpern, zu ihrer Doppelgängerin werden. Sie soll lernen, wie Lisa zu reden, zu hoffen, zu leiden – und Szenen aus ihrem Leben nachspielen. Eine «zweite Lisa» werden: basierend nur auf Daten.

«Die Schauspielerin hat mir bei der Begegnung erzählt, wer sie glaubt, dass ich bin», erzählt Lisa. Das Treffen zwischen Original und Imitat führt durch die Dokumentation. Deren Konfrontation ist gleichzeitig Kontrolle: Ist die Doppelgängerin deckungsgleich? Kann ein solches Experiment gelingen?

Eine dunkle Silhouette einer jungen Frau vor einer Wand, auf der ein Gesicht einer jungen Frau projiziert ist.
Legende: Original und Imitat: Eine Schauspielerin (Bildprojektion) soll zur Doppelgängerin von Lisa (Vordergrund) werden – nur anhand ihrer persönlichen Google-Daten. Konrad Waldmann

Wieder da: der gläserne Mensch

Keine Frage, findet Sandra Matz: «Anhand ihrer digitalen Fussabdrücke können wir die Leben der Menschen nachkonstruieren – umfassend und unglaublich exakt», sagt die Professorin an der Columbia Universität. Matz ist eine der Expertinnen, die im Film zu Wort kommen.

Die Deutsche erforscht, wie sich die Persönlichkeit der Menschen und ihre Verhaltens- und Kommunikationsmuster aus Onlinedaten ablesen lassen. Ihr Spezialgebiet ist das psychologische Targeting: «Wir wissen, an welchen Produkten jemand interessiert ist, auf welche Anzeigen jemand klickt. Diese Daten werden dann abgeglichen mit denen aller Userinnen und User, um herauszufinden, wem jemand am ähnlichsten ist. Dies erlaubt weitere Rückschlüsse auf Eigenschaften, die bisher nicht bekannt waren.»

Mit Hilfe von Profilen lassen sich Userinnen und User gezielt anpeilen – beispielsweise mit Werbung. «Das Targeting ist sehr ausklügelt», so Matz. Sie selbst hat die Methode des Psycho-Targetings mitentwickelt, die durch den Cambridge-Analytica-Skandal in die Schlagzeilen geriet.

Lisa übrigens ist humorvoll, zielstrebig und ordentlich. Der erste Check mit der Doppelgängerin: ein Volltreffer.

Schwächen schamlos ausgenutzt

«Diese Technologie ist der Schlüssel, um Menschen zu manipulieren und ihr Verhalten zu beeinflussen», befürchtet Eliot Bendinelli von der Datenschutzorganisation Privacy International. Die Organisation führt Untersuchungen zum Missbrauch persönlicher Daten von Google, Facebook und Co. durch.

Eine ihrer Studien untersuchte Websites zur psychischen Gesundheit, um herauszufinden, wie viel Tracking dort stattfindet. «Einige Websites speichern die Antworten. Wenn du ‹Ich bin niedergeschlagen› oder ‹Ich hatte Selbstmordgedanken› angeklickt hast, ist dies bereits in der URL gespeichert», sagt Eliot Bendinelli – und ergänzt: «98 Prozent dieser Websites hatten einen Google-Tracker.»

Sensible Daten, zum Beispiel über die psychische Gesundheit von Menschen, seien deshalb so bedeutsam, weil Werbetreibende sie nutzen können, um ihre Inhalte masszuschneidern. «Sie nutzen die Schwächen der Menschen schamlos aus, um damit Geld zu verdienen», so Bendinelli.

Lisa hatte nicht nur eine Essstörung. Sie hatte auch einen Frühabort, erzählt die Doppelgängerin. Dass die Doppelgängerin so viel Intimes über sie weiss, hat Lisa nicht erwartet. «Mir wird gerade schlecht», sagt sie.

ein Google-Suchfenster und im Hintergrund eine Frau, die in einer Wohnung steht
Legende: Für den Dokfilm wurde Lisas Wohnung oberhalb eines Wettbüros nachgebaut. Wie sie aussah, wussten die Macherinnen und Macher dank Google Street View. Konrad Waldmann

In den richtigen Händen?

Auch den Macherinnen und Machern des Experiments war es immer wieder unwohl bei der Sache: «Dürfen wir das alles lesen, was in Lisas Datensatz steht? Was ist zu privat, zu intim?», erzählt Hans Block vom Künstlerkollektiv Laokoon, das hinter «Made to Measure» steht.

Ihnen war klar, dass sie mit diesem Datensatz verantwortungsvoll umgehen müssen. «Was ist, wenn etwa Daten-Broker auch Zugang zu solchen Daten bekommen und sie frivol auf irgendwelchen Datenmärkten verkaufen?»

Wer steht hinter dem Projekt?

Box aufklappen Box zuklappen
Zwei junge Männer und eine junge Frau stehen vor einem dunklen Wald.
Legende: Konrad Waldmann

Unter dem Label Laokoon entwickeln Cosima Terrasse, Moritz Riesewieck und Hans Block künstlerische und crossmediale Projekte. Einen Schwerpunkt ihrer Arbeit bilden Themen von Digitalität und Gesellschaft.

Cosima Terrasse entwickelt partizipative Performance-Projekte und lehrt am Social Design Studio der Universität für angewandte Kunst in Wien.

Der Dokumentarfilm «The Cleaners» von Hans Block und Moritz Riesewieck über die Schattenindustrie der digitalen Zensur in Manila erhielt unter anderem den Prix Europa und den Grimme Publikumspreis sowie eine Nomination für die Emmy-Awards. Im September 2020 erschien ihr Buch «Die digitale Seele».

Patrick Berlinquette, ein Marketing-Spezialist, der selber immer wieder für Google arbeitet, findet: «Wir müssen aufhören, Google als Werbemaschine zu begreifen, die den Leuten Mist andreht.» Ihm ist es egal, wer über die Daten verfügt. Hauptsache, es wird Gutes getan.

Er nutzte etwa eine von Google bereitgestellte Werbetechnik, um suizidgefährdete Userinnen und User vom Sprung von der Golden Gate Bridge abzuhalten. «Ich kaufte Suchbegriffe wie ‹Ich will mich umbringen› oder ‹Ich springe von der Brücke› und alle möglichen Formulierungen, die auf einen Suizidversuch hindeuten könnten», erzählt Berlinquette im Film.

Nun bekommen Menschen, die solche Suchbegriffe bei Google eingeben, Hilfsangebote angezeigt: Beinahe 30 Prozent klicken auf diese Angebote. Gute Sache?

Eine manipulierte Gesellschaft

«Wir werden immer mehr zu einer Gesellschaft, in der davon ausgegangen wird, dass man das Verhalten der Menschen beeinflussen kann», beobachtet SRF-Digitalredaktor Guido Berger. Er beschäftigt sich seit Jahren mit Technologien und deren Auswirkungen auf die Gesellschaft.

Einen Trend, Technologie für altruistische Zwecke einzusetzen, sieht er in der Tech-Welt nicht – die Motivationen seien sehr unterschiedlich. Doch dass diese Technologien die Welt verändern können, sei keine Frage.

Akutes Beispiel: Um den Klimawandel zu stoppen, könnte man auf technischem Weg Einfluss auf die Mobilität, den Konsum oder das Wohnverhalten nehmen. «Aber heiligt das scheinbar hehre moralische Ziel die Mittel? Meiner Meinung nach nicht», ist Guido Berger der Ansicht.

Manipulation – macht nichts?

Für den Ethiker Jean-Daniel Strub, Mitgründer von «ethix – Lab für Innovationsethik», ist Selbstbestimmung ein entscheidendes Stichwort. «Wir Menschen wollen uns Handlungen selbst zuschreiben können – und für die Folgen Verantwortung tragen.»

Kettenrauchen oder Risikosport? Unsere Wahl der Qual! «Menschen sollen in einer freiheitlichen Gesellschaft entscheiden dürfen, ob sie einem Genuss den Vorrang geben vor mehr Sicherheit», so Strub. Prävention bewege sich dabei immer auch in einem Spannungsfeld «zwischen den ethischen Prinzipien der Fürsorge und der Schadensvermeidung einerseits und dem Prinzip der Autonomie andererseits».

Ein Mosaik aus Quadraten mit verschiedenen Teilen eines weiblichen Gesichts.
Legende: Wir sind umgeben von Systemen, die Annahmen über uns machen. Um selbstbestimmter handeln zu können, sei ein grösseres Verständnis der digitalen Welt nötig, meinen Experten. Konrad Waldmann

Marketing-Spezialist Berlinquette nimmt den Autonomieverlust in Kauf: «Ich finde es unbedenklich, dass Leute möglicherweise herausfinden, dass sie manipuliert werden – wenn dafür ihr Leben gerettet oder jemand davon abgehalten wird, Amok zu laufen oder Heroin zu nehmen.»

Keine Depressionen mehr, keine Suchtkrankheiten, keine Armut: Wie perfekt unsere Welt sein könnte, suggeriert ein internes Google-Videos, das im Juni 2018 geleakt wurde. « The Selfish Ledger » zeichnet eine schöne, neue Gesellschaft, in der wir Menschen Marionetten im Dienst des angeblich «Guten» sind. Nur eines fehlt: der freie Wille. «Reine Spekulation» und ein «Gedankenspiel», wiegelte Google rasch ab, nachdem das Video viral gegangen war.

Eine Frage der Regulierung?

Was tun gegen Manipulationen? Gilt es, Techkonzerne in die Schranken zu weisen – etwa durch staatliche Regulierung?

«Ich halte es für einen gedanklichen Kurzschluss, dass man das Problem mit einer besseren Regulierung lösen kann», sagt der Digitalexperte Guido Berger. Zu lasch seien die Strafen, um internationale Konzerne dazu zu zwingen, die nationalen Gesetze einzuhalten. Und zu streng teilweise die Regulierungen für kleine Player, um für Riesen wie Facebook oder Google zur ernsthaften Konkurrenz zu werden.

Regulierung hält der Ethiker Jean-Daniel Strub zwar für ein wirksames und wichtiges Mittel, um ethische Prinzipien wie Freiheit, Transparenz und Solidarität aufrecht zu erhalten. Für ihn braucht es aber auch ein besseres Verständnis. Das dazugehörige Stichwort lautet «digital literacy», digitale Kompetenz: «Möglichst alle Menschen sollten die wichtigsten Zusammenhänge und Funktionsweisen der digitalen Welt hinreichend verstehen, um selbstbestimmt handeln zu können», so Strub. «Doch das ist noch ein weiter Weg.»

Freie Sicht

Cookies? Datenschutzbestimmungen? Akzeptieren und schnell weiter! Hans Block, ein Autor von «Made to Measure», weiss, wie unbedacht Userinnen und User mit solchen Entscheidungen umgehen. Das scheinbar kluge Killerargument sei oft: «Was habe ich schon zu befürchten?»

Ein junger Mann mit Schnauz und pinkem Baseball-Cap.
Legende: Es fehlt der Gesellschaft an Bewusstsein für die «Datensammelei»: Hans Block vom Künstlerkollektiv Laokoon, das «Made to Measure» entwickelt hat. Konrad Waldmann

Block hält dagegen: «Würden wir zustimmen, dass jemand den ganzen Tag vor unserem Fenster steht und uns bei allem, was wir so tun, beobachtet? Natürlich nicht!». Das Bewusstsein, welche Macht und welche Kraft hinter der «Datensammelei» stecke, sei in der breiten Gesellschaft nicht vorhanden.

Allmächtige Alleskönner?

Was hindert uns daran, dieses Bewusstsein zu entwickeln? Wir wissen nicht genau, was Techkonzerne tun und wie sie es tun. Wir wissen nur: Sie sind mächtig – oder behaupten zumindest es zu sein. Genau das sei Teil ihres Erfolgs, so SRF-Digitalredaktor Berger: «Wenn Konzerne immer wieder betonen, wie mächtig Technologien seien, glauben das sowohl Gegner wie Befürworterinnen.»

Die Technologien, das habe sich immer wieder gezeigt, seien fehlbar: «Machine Learning funktioniert gut, wenn Eigenschaften häufig auftreten. Die Technologien sind aber selten gut darin, aussergewöhnliches Verhalten wie beispielsweise das von Amokläufern zu erkennen.»

Ein gutes Beispiel für eine fehlgeleitete Technologie sei die Gesichtserkennung. Diese würde Menschen mit schwarzer Hautfarbe oft falsch identifizieren, da die Datenbank vor allem Gesichter von weissen Menschen enthalte.

Die Verarbeitung von riesigen Datenmengen könne zudem dazu führen, dass Korrelationen mit Kausalitäten verwechselt würden, ergänzt Strub. Mit anderen Worten: Es genügt nicht festzustellen, was Menschen tun. Es ist auch wichtig zu verstehen, warum sie es tun:

«Es ist zentral, die Ursachen bestimmter Erkrankungen und Verhaltensmuster zu erforschen und sich nicht mit der Beobachtung von Korrelationen zu begnügen. Ansonsten droht die Gefahr, dass man nur Symptombekämpfung betreibt, statt die Probleme an der Wurzel zu packen.»

«Ich bin doch ganz wer anders»

Frederike Kaltheuner, Leiterin der Abteilung für Datenmissbrauch der Internationalen Bürgerrechtsorganisation Privacy, hat viele Probleme mit der Analyse von Big Data. Ein grosses: «Sie wird als absolute Wahrheit interpretiert und als wesentlich glaubwürdiger präsentiert, als ich es selbst bin», sagt sie im Dokumentarfilm «Made to Measure». Wir seien umgeben von Systemen, die Annahmen über uns machten. «Doch das, was ich in der Vergangenheit gemacht habe, ist nicht unbedingt, was ich Zukunft machen möchte.»

Auch Jean-Daniel Strub betont, wie grundlegend es für uns sei, sich frei definieren zu können: «Die Freiheit zur autonomen Gestaltung unserer Lebensverläufe kommt bei der Anwendung dieser Technologie unter Druck. Denn zu dieser Freiheit gehört es, uns selbst auch einmal neu zu erfinden.»

Es fühlt sich wie ein Drehbuch an

Reset und Neustart: Die Freiheit des Menschen, sich zu verändern, darf auch für das Künstlerkollektiv Laokoon nicht aufgegeben werden. Doch genau dies passiert, wenn Algorithmen ein bestimmtes Verhalten, eine bestimmte Zukunft nahelegen – auch wenn sie nicht immer richtig liegen. «Wir richten uns danach aus und werden im Grunde zu einer selbsterfüllenden Prophezeiung.»

«Ich vermische mittlerweile schon die Realität mit der dargestellten Geschichte», sagt Lisa. Ihr Leben, es fühle sich ein wenig wie ein Drehbuch an.

SRF 1, Sternstunde Philosophie, 29.08.2021, 10 Uhr

Meistgelesene Artikel