Zum Inhalt springen

Header

Inhalt

Auf der Suche nach Wahrheit Mit künstlicher Intelligenz gegen echte Lügen

Fake News stören demokratische Prozesse, transportieren Verschwörungsmythen und dienen als Waffe im Cyberwar. Forschende der Armasuisse setzen im Kampf gegen Desinformation nun auf künstliche Intelligenz.

«Heizt der Nachbar die Wohnung über 19 Grad auf? Bitte informieren Sie uns!» Diese angebliche Aufforderung des Bundes zirkulierte im September im Internet. Eine Fälschung. Im Gegensatz zu diesem harmlosen Scherz brachten die Anschuldigungen Donald Trumps, die Präsidentschaftswahl sei gestohlen, die USA 2021 an den Rand eines Bürgerkriegs.

Ein scheinbar authentisches Infoplakat, darauf steht: «Heizt der Nachbar die Wohnung über 19 Grad auf? Rufen Sie an!»
Legende: Fake News: Der Bund ruft dazu auf, die Nachbarn zu denunzieren. TWITTER/ @KDENKWRITES

Der Bund unterstützt die Forschung

Der Bundesrat möchte gefährliche Desinformations-Kampagnen frühzeitig erkennen. Deshalb forscht der Cyber-Defence Campus der Armasuisse, dem Bundesamt für Rüstung, daran, Fake News automatisiert aufzuspüren.

Aufgrund der riesigen zu prüfenden Datenflut setzen die Forschenden auf Methoden der künstlichen Intelligenz, konkret auf Machine Learning (ML). Dabei entdecken Algorithmen selbständig Muster in Daten. Ein gut trainiertes ML-Modell kann einen Tweet schnell klassifizieren: Fake News oder nicht?

Wer überwacht die künstliche Intelligenz?

Box aufklappen Box zuklappen

Der Einsatz von künstlicher Intelligenz birgt auch Risiken. Das gilt insbesondere dann, wenn Algorithmen über die Wahrheit von Nachrichten urteilen. Marcel Waldvogel, 15 Jahre lang Professor für Informatik an der Universität Konstanz und jetzt IT-Berater, warnt: «Machine Learning ist ein mächtiges Werkzeug. Aber es sollte nicht blindlings als Universallösung eingesetzt werden. Die Entscheide sind kaum erklärbar und reproduzieren Einseitigkeiten, die in Trainingsdaten vorliegen.»

So musste beispielsweise Amazon eine Software zur Auswahl von Bewerbern, die auf künstlicher Intelligenz basierte, abschalten, weil sie Frauen benachteiligte. «Ebenfalls lassen sich Hintertüren in diese Modelle einbauen, die von aussen nicht erkennbar sind», sagt Waldvogel.

Wer die Trainingsdaten kontrolliert, kann beliebige Nachrichten am Modell vorbeischleusen. Die Diskussion darüber, was künstliche Intelligenz überhaupt darf und wie sie zu regulieren ist, läuft bereits. Die EU arbeitet sogar an einem Artificial Intelligence Act, der solche Fragen für Mitgliedsländer verbindlich klären soll.

Jagd auf Social Bots und Memes

Gérôme Bovet leitet bei Armasuisse die Gruppe für Datenwissenschaften, welche die KI entwickelt. Die laufenden Forschungsprojekte verfolgen einen doppelten Ansatz: «Wir versuchen zwei Dinge zu erkennen: Social Bots und Memes mit Desinformation», erklärt Bovet.

Social Bots sind automatisierte Social-Media-Konten – Konten also, hinter denen keine Menschen, sondern ein Computerprogramm sitzt. Memes wiederum sind Posts, die meist aus Bildern mit darübergelegten, witzigen Texten bestehen. Wenn beide zusammen kommen, wird es besonders brisant: Werden Fake News als Memes verpackt und von Bots im grossen Stil verbreitet, besteht die Gefahr, dass die Lügen besonders viele Nutzende erreichen.

Bots verschmutzen die Informationsqualität in sozialen Netzwerken.
Legende: Informationsqualität auf Social Media BU: Bots verschmutzen die Informationsqualität in sozialen Netzwerken. Eine Simulation zeigt: Sobald mehr als ein Prozent der menschlichen Konten auch Bots (gelbe Kreise) folgt, sinkt die Gesamtqualität der geteilten Inhalte rapide (rechte Seite, dunkle Farbe dominiert). Scientific American / Filippo Menczer

Um das zu verhindern, werden die ML-Modelle mit Informationen über Meme-Texte, Bildeigenschaften und Statistiken der Absender-Konten gefüttert. Damit sollen die Lügner erkannt werden – in der Theorie.

War das sarkastisch gemeint?

In der Praxis kommt das Problem der Doppeldeutigkeit dazu. Für die Erkennung von Hassmeldungen ist Machine Learning bereits gut erforscht. Hier werden über 90 Prozent der Texte und 67 Prozent der Memes korrekt klassifiziert. Wie gut diese Methode indes bei Fake News funktioniert, lässt sich gemäss Bovet noch schwierig abschätzen. Hass lässt sich gut anhand von Fluchwörtern erkennen. Aber eine gehässige Nachricht muss nicht zwangsläufig falsch sein.

Eine Knacknuss seien sarkastische Memes, deren Bedeutung sich erst aus der Kombination von Text und Bild erschliesst. 

Sarkastische Memes sind schwierig für KI. Die Bedeutung ergibt sich nur, wenn Bild und Text zusammen verstanden werden.
Legende: Sarkasmus Online Sarkastische Memes sind eine Knacknuss für künstliche Intelligenz. Deren Bedeutung erschliesst sich erst, wenn Bild und Text zusammen verstanden werden. Imago & Reuters / Fotomontage: SRF

Doch über all dem schwebt ein noch grundsätzlicheres Problem: So benötige das Training der ML-Modelle grosse Datensätze, in denen Social Bots und Memes bereits korrekt klassifiziert sind. Solche Daten seien schwierig zu erhalten: «Die Social-Media-Plattformen arbeiten kaum mit uns zusammen. Die Daten sind ihr Gold, das sie nicht herausrücken.», so Datenspezialist Bovet.

Social Bots

Box aufklappen Box zuklappen

Social Bots sind automatisierte Social-Media-Konten, die von Computerprogrammen gesteuert werden. Sie können ganz oder teilweise automatisierte Aktionen auslösen, wie beispielsweise Nachrichten versenden oder auf gewisse Stichwörter in Nachrichten reagieren. Meist besitzen Bots sehr viele Follower – viele davon wiederum Bots. Ein Netzwerk aus Bots eignet sich für die Verbreitung von Fake News im grossen Stil: Indem die Bots gegenseitig ihre Nachrichten teilen, verhelfen sie sich zu enormen Reichweiten. Erfolgreiche Memes gehen «viral» – das heisst: sie verbreiten sich im ganzen Internet. Doch gerade die starke Vernetzung der Bots hilft den Algorithmen der Armasuisse auch dabei, sie von Menschen zu unterscheiden.

Wahrheit ist die Basis einer Demokratie

Obwohl noch einige Hürden zu nehmen sind, ist absehbar: Künstliche Intelligenz wird eine wichtige Rolle im Kampf gegen Desinformation spielen. Soziale Netzwerke könnten dadurch ihre Nachrichtenfeeds bereinigen und so mehr Werbekunden anlocken. Für freiheitliche Nationalstaaten wie die Schweiz wiederum steht noch mehr auf dem Spiel: Ein gemeinsames Verständnis davon, was wahr ist, bildet schliesslich die Basis jeder demokratischen Gesellschaft.

Audio
Eine Gamer-Brille, die Gehirnerkrankungen erkennt
aus Echo der Zeit vom 02.01.2023. Bild: MachineMD
abspielen. Laufzeit 4 Minuten 30 Sekunden.

Echo der Zeit, 02.01.2023, 18:00 Uhr

Meistgelesene Artikel