Zum Inhalt springen
Audio
Künstliche Texte und Datenleck-Sammlung
Aus Digital Podcast vom 10.07.2020.
abspielen. Laufzeit 23 Minuten 13 Sekunden.

Künstliche Intelligenz Eine künstliche Intelligenz als Propaganda-Maschine?

Die Textmaschine GPT-3 hat gelernt, selber Texte zu schreiben. Viele fürchten, das könnte missbraucht werden.

Es kommt selten vor, dass ein Unternehmen eine neue Technologie entwickelt und sie dann nicht veröffentlichen will. Bei GPT-2 war das der Fall: Die künstliche Intelligenz hat gelernt, selber Texte zu schreiben. Der Mensch gibt ihr einen Satz vor und die Maschine schreibt munter weiter – mitunter so gut, dass sich der Text nicht von dem eines Menschen unterscheiden lässt.

«Zu gefährlich!», sagten die Macher von OpenAI im Februar letzten Jahres und beschlossen, die Technologie unter Verschluss zu halten. Die Gefahr für Missbrauch sei zu gross. GPT-2 könnte zum Beispiel dafür verwendet werden, das Internet mit computergenerierter Propaganda zu fluten, Leute online zu belästigen oder unerwünschte Werbung zu verschicken.

Allerdings: Etwas später machte OpenAI die Software doch zugänglich und beobachtete, wie sie verwendet wurde. Hinweise auf Missbrauch habe man keine gefunden, sagen die Macher heute. Nicht wenige Forscher im Feld der künstlichen Intelligenz sehen hinter dem ursprünglichen Entscheid, GPT-2 zurückzuhalten, deshalb bloss einen PR-Schachzug, mit dem die Effektivität des eigenen Produktes raffiniert übertrieben wurde.

Künstliche Intelligenz zum Wohle der Menschheit

Box aufklappen Box zuklappen

Hinter GPT-3 steht die Firma OpenAI, die von Elon Musk mitgegründet wurde. Musk hat OpenAI zu Beginn mit einer Milliarde Dollar unterstützt, das Unternehmen mittlerweile aber verlassen. OpenAI hat sich zur Aufgabe gesetzt, künstliche Intelligenz zum Wohle der gesamten Menschheit zu schaffen.

Von GPT-3 verspricht sich das Unternehmen nicht zuletzt auch Erkenntnisse für die Entwicklung einer sogenannten «Artificial general intelligence» – einer künstlichen Intelligenz, die nicht auf eine spezifische Aufgabe beschränkt ist, sondern wie der Mensch die unterschiedlichsten Probleme lösen kann, ohne dafür jedes Mal wieder neu trainiert werden zu müssen.

Unter KI-Experten gehen die Meinungen aber weit auseinander, ob so ein Vorhaben überhaupt realistisch ist.

Nun hat OpenAI einen Nachfolger veröffentlich: GPT-3. Im Vergleich zum Vorgänger soll die neue Version noch mehr können. Trainiert wurde sie mit einem riesigen Datensatz von fast einer Trillion Wörtern – Texten aus dem Internet, Wikipedia-Artikeln oder digitalisierten Büchern.

So hat GTP-3 gelernt, wie menschliche Sprache funktioniert, welche Wendung mit der grössten Wahrscheinlichkeit auf die vorige folgt. Das Verständnis bleibt aber rein statistisch. Wirklich begreifen, was sie gerade schreibt, kann die Maschine nicht.

Eine Roboterhand liegt auf dem Keyboard eines Laptops
Legende: Die künstliche Intelligenz GPT-3 wurde mit einem Datensatz von fast einer Trillion Wörtern darauf trainiert, selber Texte zu schreiben. Colourbox

Wer die Schnittstelle zu GTP-3 brauchen will, muss sich bei OpenAI anmelden (und nach einer Testphase dafür zahlen). So lasse sich sicherstellen, dass die Technologie nicht missbraucht werde. Im Notfall könne der Zugang einfach gesperrt werden. Ausserdem sagt OpenAI, man habe eine Software entwickelt, die mit 95-prozentiger Sicherheit feststellen könne, ob ein Text von GPT-3 stamme oder von einem Menschen.

Den Texten der Maschine fehlt es an innerer Logik

Für eine Technologie wie GPT-3 sind die unterschiedlichsten Einsatzmöglichkeiten denkbar. Ein Unternehmen konnte sie zum Beispiel mit den Beschreibungen all seiner Produkte und all seiner Dienstleistungen füttern und obendrein noch mit allen bisherigen Kundenfragen. So liesse sich ein Chatbot trainieren, der sich vollautomatisch um Kundenanliegen kümmert.

Doch wer im Internet ein wenig mit GPT-2 herumspielt (z.B. hier) merkt rasch, dass das Potenzial der Technologie noch beschränkt ist – jedenfalls, wenn es um längere Texte geht. Die ersten ein, zwei Sätze können denen eines Menschen zwar verblüffend ähnlich sein. Doch danach beginnt die Maschine abzudriften. Ihren Texten fehlt es an Konsistenz und auch an innerer Logik.

Audio
Bei der Kreativität sind wir Computern immer noch voraus
aus SRF 4 News aktuell vom 13.07.2020. Bild: Keystone
abspielen. Laufzeit 6 Minuten 4 Sekunden.

Wer etwa einen Text wie diesen vorgibt: «Ich habe fünf Äpfel. Ich esse zwei davon und gebe meinem Freund einen weiteren. Wie viele Äpfel habe ich noch?» erhält folgende Antwort: «Je nachdem, was Sie über den Zweck des Gesetzes denken, könnte eine Person ihr gesamtes Apfelinventar verschenken, oder einen pro Person, aber die Frage, warum jeder einzelne im Haus bleiben durfte, ist bedeutungslos.»

Angesichts dieser Antwort scheinen auch die Ängste bedeutungslos, die Technologie könnte bald schon für böse Zwecke missbraucht werden.

Podcast Digital Podcast

Der Technologie-Podcast von SRF über Internet, Smartphones, soziale Netzwerke, Computersicherheit und Games.

Weitere Audios und Podcasts

SRF 4 News, 13.7.2020, 6.25 Uhr

Jederzeit top informiert!
Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden.
Schliessen

Jederzeit top informiert!

Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden. Mehr

Push-Benachrichtigungen sind kurze Hinweise auf Ihrem Bildschirm mit den wichtigsten Nachrichten - unabhängig davon, ob srf.ch gerade geöffnet ist oder nicht. Klicken Sie auf einen der Hinweise, so gelangen Sie zum entsprechenden Artikel. Sie können diese Mitteilungen jederzeit wieder deaktivieren. Weniger

Sie haben diesen Hinweis zur Aktivierung von Browser-Push-Mitteilungen bereits mehrfach ausgeblendet. Wollen Sie diesen Hinweis permanent ausblenden oder in einigen Wochen nochmals daran erinnert werden?

Meistgelesene Artikel