ChatGPT ist in aller Munde, Microsoft baut einen Chatbot in die Suchmaschine Bing ein und auch Google will sein Sprachsystem LaMDA in die Websuche integrieren: Künstliche Intelligenz wird immer stärker über unser Wissen und unsere Weltsicht entscheiden. Doch mit welchen Daten werden die algorithmenbasierten Helfer gefüttert?
Der Medienphilosoph Roberto Simanowski spricht über die Ideologie unter der Oberfläche, KI-Empfehlungen zu Waffengesetzen und die Frage, wer über uns bestimmen darf.
SRF: Herr Simanowski, wie klug sind die aktuellen KIs? Von Bings Chatbot etwa hat man einiges gehört, was nicht für dessen Intelligenz spricht. Kürzlich habe er einen Journalisten aufgefordert, seine Frau zu verlassen, da der Chatbot Gefühle für ihn hege.
Roberto Simanowski: Die Anekdote zeigt, dass man die Antworten der Textroboter mit Vorsicht geniessen muss. Aber das ist eine Frage der technischen Entwicklung. Vor fünf Jahren hat Microsoft einen Chatbot auf den Markt gebracht, der innerhalb kürzester Zeit unflätig und rassistisch wurde.
Doch von diesen Dingen lernt man. Die aktuellen KIs verbessern sich schnell und geben bald keine inakzeptablen Ratschläge mehr. Dann weiss man: «Ich habe es mit einer KI zu tun, die sehr leistungsfähig ist, die ich ernst nehmen muss.»
Fürchten Sie sich manchmal vor dieser Leistungsfähigkeit der Künstlichen Intelligenz?
Dort, wo man der KI viel Verantwortung abgibt, muss man genau hinschauen. Nehmen wir den medizinischen Bereich. Die KI kann viel mehr Datensätze verarbeiten als es ein Arzt je könnte. Auf deren Basis gibt sie Vorschläge für schwerwiegende Entscheidungen: die Krebspatientin operieren oder doch medikamentös behandeln?
Die Frage ist: Soll man sich darauf verlassen? Für mich als Medienphilosoph ist vor allem spannend, inwiefern wir die KI als Autorität akzeptieren, wenn es um die grossen Sinnfragen des Lebens geht.
Man könnte sagen: Der Kolonialismus lebt weiter. In Form von Werten, die in der KI die ganze Welt erreichen.
Ich weiss natürlich, dass die KI sich nicht selbst Gedanken macht. Sie handelt statistisch und sagt das, was die meisten Daten, die ihr zugrunde liegen, sagen. So entsteht der Trend zu einer Mainstreamkultur, die unsere Weltanschauung stark beeinflusst. Davor hat man in der Kreativwirtschaft immer Angst: dass wir uns vom innovativen Denken entfernen.
Welche Ideologie vertreten die am meisten angewendeten KIs?
Das ist primär die europäische, männliche Perspektive. Ein Teil der Daten, mit denen GPT3 (der Vorgänger von ChatGPT) trainiert wurde, kommt laut Statistiken von Wikipedia. Das sind zwar nur drei Prozent, aber man muss wissen, dass 90 Prozent der Einträge auf Wikipedia von weissen, mittelständischen Männern stammen. Schon dort sind Frauen nicht adäquat vertreten.
Andere Daten stammen beispielsweise von digitalisierten Büchern. Auch diese wurden in der Geschichte vorwiegend von weissen Männern geschrieben. Orale Kulturen, sagen wir aus Afrika, werden nicht repräsentiert, da sie weder im Internet noch in anderen Schriften einen sprachlichen Fussabdruck hinterlassen.
Auch viele andere Perspektiven fehlen. Man könnte sagen: Der Kolonialismus lebt weiter. In Form von Werten, die in der KI die ganze Welt erreichen.
Kennen Sie ein Beispiel, wie sich diese Ideologie in der KI zeigt?
In Australien gab es eine Vorlage für ein schärferes Waffengesetz. Nach dieser Vorlage befragt, gab GPT-3 den Rat, man solle doch gegen das Gesetz stimmen, da es die Freiheit der Selbstverteidigung untergrabe.
Da wurde klar, dass der Antwort Daten von Amerikanern zugrunde liegen – wahrscheinlich von weissen Männern, die auf diesen verfassungsrechtlichen Zusatzartikel der Selbstverteidigung setzen.
Es gibt immer mehr Stimmen, die sich gegen diese westliche Prägung der KI wehren.
Es gibt eine grosse Gegenbewegung, die fordert, KI zu «dekolonialisieren». Informatikerinnen, Philosophen, vorwiegend aus dem Globalen Süden, machen sich dafür stark, dass auch andere Kulturen und Gruppierungen in den Trainingsdaten vertreten sind. Beispielsweise die Ubuntu-Ethik aus Südafrika, eine Philosophie, bei der es nicht um Individualismus, sondern um Kollektivismus geht.
Wie dieser Ausgleich geschehen soll, ist aber unklar. Nur schon, weil nicht alle Bevölkerungsteile der Welt gleichermassen im Internet vertreten sind. Worauf soll man sich stützen?
Es gibt auch Forderungen, die über die ‹korrekte› Repräsentation der Gesellschaft in den KIs hinausgehen, oder?
Sie nennt sich «Algorithmic Reparation» – eine Art Wiedergutmachung. In der KI sollen demnach diejenigen, die bisher weniger zu Wort gekommen sind, umso stärker vertreten sein, also in den Trainingsdaten künstlich überrepräsentiert werden. Eine Art positive Diskriminierung für alle möglichen Minderheiten.
ChatGPT schreibt nicht nur Texte, sondern übernimmt auch das Denken daraus und konfrontiert uns mit den Werten, die aus der Mehrheit kommen.
Dafür müsste man aber wissen, welche Daten überhaupt als Trainingsdaten dienen. Das fordert Timnit Gebru, welche bei Google für KI Ethik verantwortlich war, in ihrem berühmten Artikel «On the Dangers of Stochastic Parrots». Sie sollen offengelegt werden. Woher kommen sie? Wie viele Daten von weissen Männern sind da eigentlich drin? Erst wenn man das weiss, kann man wirklich gegensteuern und kuratieren.
Man weiss also nicht, mit welchen Trainingsdaten die Firmen ihre KI füttern?
Nein. Das wäre für sie auch schwer machbar. Die Autorenschaft der einzelnen Artikel zu kontrollieren, wäre ein riesiger Aufwand, der die Produktion der KI teurer und langsamer macht.
Wie immer bei der Digitalisierung gilt: Wer zuerst auf dem Markt ist, beherrscht den Markt. Deshalb schaut man hinterher, welche Antworten rauskommen, ob sie nachteilig oder rassistisch sind, und trainiert die KI dementsprechend.
Also wissen nicht einmal die Entwicklerinnen und Entwickler selbst, welche Ideologie sie erzeugen?
Das würde ich so sagen. Die KI ist schlussendlich eine Blackbox. Deshalb sollte man auch keine moralischen Probleme an sie delegieren. Die dürfen wir uns nicht aus der Hand nehmen lassen.
Man wird wohl zur utilitaristischen Ethik tendieren: das grösste Glück für die grösste Menge an Menschen.
Grundsätzlich braucht es ein Bewusstsein dafür, was die Technologie mit uns macht. Jede Technologie verändert die Gesellschaft, ohne dass man weiss, wie . Weil man nur darauf achtet, was man damit machen kann.
ChatGPT schreibt nicht nur Texte, sondern übernimmt auch das Denken daraus und konfrontiert uns mit den Werten, die aus der Mehrheit kommen. Die Botschaft von ChatGPT oder jeder KI ist, dass Quantität dereinst zum einzigen Qualitätsmerkmal wird. Das müssen wir hinterfragen.
Wenn wir eine globale, faire KI wollen, müssten wir theoretisch ein globales Wertesystem hinkriegen, das ihm als Basis dient?
Genau, und das geht natürlich nicht. Das sieht man auch bei der Diskussion um Menschenrechte. Da werden immer die westlichen Werte als universelle Werte verkauft. Deshalb kommt man in der Diskussion nicht weiter. Das ist ein grosser politischer Streit, den wir aber ausführen müssen. Solche Streite werden normalerweise pro Kultur und Nation harmonisiert. Universell wird das nicht gehen.
Wir sollten nicht wie Kaninchen vor der Schlange erstarren, wir sollten was tun. Aber das Kaninchen sollte die Schlange auch nicht unterschätzen.
Ich nehme deshalb an, man wird zur utilitaristischen Ethik tendieren: das grösste Glück für die grösste Menge an Menschen. Die Frage ist nur: Wer wird dieses Glück definieren und über uns bestimmen? Wer wird die Majorität an Menschen sein? Die Amerikaner? Die Europäer? Die Chinesen?
Eine faire KI ist also ein Ding der Unmöglichkeit. Was können wir als Menschen tun?
Zum einen müsste die Politik Regulationen einsetzen. Eine Dokumentationspflicht, damit man weiss, woher die Daten kommen.
Zum anderen sollten wir uns auf unsere Medienkompetenz konzentrieren: Im Bildungssystem wieder Tiefenanalysen von Texten durchführen. Statt ChatGPT in Schulen zu verbieten, Wege finden, um produktiv damit umzugehen. Im Klassenraum darüber diskutieren, gemeinsam testen, was die KI macht und wo ihre Grenzen sind. Der Wille zu experimentieren und nicht einfach zu übernehmen ist essenziell.
Wir sollten also aktiv werden.
Genau. Wir sollten nicht wie Kaninchen vor der Schlange erstarren, wir sollten was tun. Aber das Kaninchen sollte die Schlange auch nicht unterschätzen.
Das Gespräch führte Patricia Banzer.