Zum Inhalt springen

Header

Audio
Künstliche Texte und Datenleck-Sammlung
Aus Digital Podcast vom 10.07.2020.
abspielen. Laufzeit 23:13 Minuten.
Inhalt

Künstliche Intelligenz Eine künstliche Intelligenz als Propaganda-Maschine?

Die Textmaschine GPT-3 hat gelernt, selber Texte zu schreiben. Viele fürchten, das könnte missbraucht werden.

Es kommt selten vor, dass ein Unternehmen eine neue Technologie entwickelt und sie dann nicht veröffentlichen will. Bei GPT-2 war das der Fall: Die künstliche Intelligenz hat gelernt, selber Texte zu schreiben. Der Mensch gibt ihr einen Satz vor und die Maschine schreibt munter weiter – mitunter so gut, dass sich der Text nicht von dem eines Menschen unterscheiden lässt.

«Zu gefährlich!», sagten die Macher von OpenAI im Februar letzten Jahres und beschlossen, die Technologie unter Verschluss zu halten. Die Gefahr für Missbrauch sei zu gross. GPT-2 könnte zum Beispiel dafür verwendet werden, das Internet mit computergenerierter Propaganda zu fluten, Leute online zu belästigen oder unerwünschte Werbung zu verschicken.

Allerdings: Etwas später machte OpenAI die Software doch zugänglich und beobachtete, wie sie verwendet wurde. Hinweise auf Missbrauch habe man keine gefunden, sagen die Macher heute. Nicht wenige Forscher im Feld der künstlichen Intelligenz sehen hinter dem ursprünglichen Entscheid, GPT-2 zurückzuhalten, deshalb bloss einen PR-Schachzug, mit dem die Effektivität des eigenen Produktes raffiniert übertrieben wurde.

Künstliche Intelligenz zum Wohle der Menschheit

Hinter GPT-3 steht die Firma OpenAI, die von Elon Musk mitgegründet wurde. Musk hat OpenAI zu Beginn mit einer Milliarde Dollar unterstützt, das Unternehmen mittlerweile aber verlassen. OpenAI hat sich zur Aufgabe gesetzt, künstliche Intelligenz zum Wohle der gesamten Menschheit zu schaffen.

Von GPT-3 verspricht sich das Unternehmen nicht zuletzt auch Erkenntnisse für die Entwicklung einer sogenannten «Artificial general intelligence» – einer künstlichen Intelligenz, die nicht auf eine spezifische Aufgabe beschränkt ist, sondern wie der Mensch die unterschiedlichsten Probleme lösen kann, ohne dafür jedes Mal wieder neu trainiert werden zu müssen.

Unter KI-Experten gehen die Meinungen aber weit auseinander, ob so ein Vorhaben überhaupt realistisch ist.

Nun hat OpenAI einen Nachfolger veröffentlich: GPT-3. Im Vergleich zum Vorgänger soll die neue Version noch mehr können. Trainiert wurde sie mit einem riesigen Datensatz von fast einer Trillion Wörtern – Texten aus dem Internet, Wikipedia-Artikeln oder digitalisierten Büchern.

So hat GTP-3 gelernt, wie menschliche Sprache funktioniert, welche Wendung mit der grössten Wahrscheinlichkeit auf die vorige folgt. Das Verständnis bleibt aber rein statistisch. Wirklich begreifen, was sie gerade schreibt, kann die Maschine nicht.

Eine Roboterhand liegt auf dem Keyboard eines Laptops
Legende: Die künstliche Intelligenz GPT-3 wurde mit einem Datensatz von fast einer Trillion Wörtern darauf trainiert, selber Texte zu schreiben. Colourbox

Wer die Schnittstelle zu GTP-3 brauchen will, muss sich bei OpenAI anmelden (und nach einer Testphase dafür zahlen). So lasse sich sicherstellen, dass die Technologie nicht missbraucht werde. Im Notfall könne der Zugang einfach gesperrt werden. Ausserdem sagt OpenAI, man habe eine Software entwickelt, die mit 95-prozentiger Sicherheit feststellen könne, ob ein Text von GPT-3 stamme oder von einem Menschen.

Den Texten der Maschine fehlt es an innerer Logik

Für eine Technologie wie GPT-3 sind die unterschiedlichsten Einsatzmöglichkeiten denkbar. Ein Unternehmen konnte sie zum Beispiel mit den Beschreibungen all seiner Produkte und all seiner Dienstleistungen füttern und obendrein noch mit allen bisherigen Kundenfragen. So liesse sich ein Chatbot trainieren, der sich vollautomatisch um Kundenanliegen kümmert.

Doch wer im Internet ein wenig mit GPT-2 herumspielt (z.B. hier, Link öffnet in einem neuen Fenster) merkt rasch, dass das Potenzial der Technologie noch beschränkt ist – jedenfalls, wenn es um längere Texte geht. Die ersten ein, zwei Sätze können denen eines Menschen zwar verblüffend ähnlich sein. Doch danach beginnt die Maschine abzudriften. Ihren Texten fehlt es an Konsistenz und auch an innerer Logik.

Wer etwa einen Text wie diesen vorgibt: «Ich habe fünf Äpfel. Ich esse zwei davon und gebe meinem Freund einen weiteren. Wie viele Äpfel habe ich noch?» erhält folgende Antwort: «Je nachdem, was Sie über den Zweck des Gesetzes denken, könnte eine Person ihr gesamtes Apfelinventar verschenken, oder einen pro Person, aber die Frage, warum jeder einzelne im Haus bleiben durfte, ist bedeutungslos.»

Angesichts dieser Antwort scheinen auch die Ängste bedeutungslos, die Technologie könnte bald schon für böse Zwecke missbraucht werden.

SRF 4 News, 13.7.2020, 6.25 Uhr

Jederzeit top informiert!
Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden.
Schliessen

Jederzeit top informiert!

Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden. Mehr

Push-Benachrichtigungen sind kurze Hinweise auf Ihrem Bildschirm mit den wichtigsten Nachrichten - unabhängig davon, ob srf.ch gerade geöffnet ist oder nicht. Klicken Sie auf einen der Hinweise, so gelangen Sie zum entsprechenden Artikel. Sie können diese Mitteilungen jederzeit wieder deaktivieren. Weniger

Push-Mitteilungen aktivieren

Sie haben diesen Hinweis zur Aktivierung von Browser-Push-Mitteilungen bereits mehrfach ausgeblendet. Wollen Sie diesen Hinweis permanent ausblenden oder in einigen Wochen nochmals daran erinnert werden?

Meistgelesene Artikel

Nach links scrollen Nach rechts scrollen

6 Kommentare

Navigation aufklappen Navigation zuklappen

Sie sind angemeldet als Who ? (whoareyou) (abmelden)

Kommentarfunktion deaktiviert

Uns ist es wichtig, Kommentare möglichst schnell zu sichten und freizugeben. Deshalb ist das Kommentieren bei älteren Artikeln und Sendungen nicht mehr möglich.

  • Kommentar von Beat Kessler  (KLERUS)
    Sehr interessanter Artikel, trotzdem gibt es einen Kritikpunkt, der nicht nur SRF unterläuft! Meine Damen und Herren das ist immer noch keine künstliche Intelligenz! Im Prinzip ist es eine Art Zellverbund, der zu rudimentären Rechenoperationen befähigt ist. Eine KI, die wäre künstlich ja, aber eben intelligent! Es wäre im Grunde ein Wesen mit Seele und einem freien Willen. Dieser Begriff KI wird leider zu inflationär verwendet und eigentlich ist es nur ein Algorithmus, mehr nicht! MfG
    Ablehnen den Kommentar ablehnen
  • Kommentar von Daniel Gion  (dgion)
    Was heute noch völlig unbrauchbar, wird morgen greifbar nah und übermorgen im Einsatz stehen!
    Dazu gibt es zuviele Beispiele als das man diese Gefahr die davon ausgeht auf die leichte Schulter nehmen kann ..
    Ablehnen den Kommentar ablehnen
  • Kommentar von Beat Leutwyler  (Beat Leutwyler)
    Intelligenz wird gerne als "schnell lernen und abrufen" verstanden. Das ist aber nur Speichern und Auslesen.

    Intelligenz ist aber die Fähigkeit etwas komplett Neues zu kreieren, wozu Schöpfungs- und Vorstellungskraft kombiniert mit der Logik der zwingenden Folgerichtigkeit und Willen nach Erfolg nötig ist. Das Unmögliche denk- und vermittelbar machen.

    Etwas, wozu eine Maschine nie fähig sein wird. Daher gibt es "künstliche Intelligenz" nicht - aufgrund des Wortes nur bei gewissen Menschen.
    Ablehnen den Kommentar ablehnen
    1. Antwort von Remo Diethelm  (thed0992)
      Intelligenz ist nur sehr schwer greifbar - Wenn eine Maschine im Spiel Go neue Züge erfindet, kann man das nicht als kreativ bezeichnen? Meiner Meinung nach schon.
      Ablehnen den Kommentar ablehnen
    2. Antwort von Daniel Gion  (dgion)
      Diese Argumente "nie möglich" wurden in der Vergangenheit zu oft widerlegt als das man sich noch darauf verlassen könnte.

      Wenn man sich die Fortschritte von Neuronalen Netzen und KI in wenigen Jahren sieht könnte Ihre Aussage schneller widerlegt werden wie es uns allen lieb ist ...
      Ablehnen den Kommentar ablehnen