Zum Inhalt springen

Künstliche Intelligenz ChatGPT: Wer hats geschrieben – Mensch oder Maschine?

KI, die Texte einer anderen KI erkennen könnte, würde viele Probleme lösen: An Schulen oder bei der Verbreitung von Spam. Doch so einfach ist das nicht.

Mit Sprachmodellen wie ChatGPT können Schüler ihre Hausarbeiten, Softwareentwicklerinnen Programmcode und die Absender von Werbemails Texte generieren lassen. Eine Software, die zuverlässig analysieren kann, ob ein Text von einem Menschen oder einer Maschine stammt, könnte viele Probleme lösen, zum Beispiel Betrugsversuche.

«Es gibt verschiedene Algorithmen, die das können», sagt Mark Cieliebak, der an der ZHAW die Abteilung für Sprachverarbeitung (NLP) leitet. Es gibt jedoch gravierende Schwächen.

KI auf den Spuren von KI

Das Angebot an Analyse-Tools ist gross, ihr Vorgehen unterschiedlich. Allen gemeinsam: Immer analysieren sie mit statistischen Methoden das Vokabular eines Textes und berechnen die Wahrscheinlichkeit, ob ein Mensch dahinter steckt. Viele Anbieter behaupten eine Erkennungsrate von weit über 90 Prozent.

Doch auch die raffiniertesten Analysemethoden versagen, wenn man vor der Überprüfung den Text entweder selbst überarbeitet oder durch eine andere KI umschreiben lässt. Das bestätigt auch Sam Altman, CEO bei Open AI, dem Startup hinter ChatGPT.

Obwohl sein Unternehmen auch an einem komplexen Erkennungs-Tool arbeitet, ist Altman überzeugt, dass man auch diese Software austricksen kann, wenn man das wirklich will und warnt: «Ich denke nicht, dass sich die Gesellschaft darauf verlassen sollte.»

Sprachgeneratoren wie ChatGPT werden die Gesellschaft verändern, meint Sam Altman weiter, natürlich auch das Bildungssystem.

Potenzial nützen

«Wir können ChatGPT weder verbieten noch detektieren», bringt Christian Rapp, Didaktik-Spezialist an der ZHAW, das Dilemma der Hochschulen auf den Punkt. Statt verbieten hat die ZHAW Regeln erarbeitet, wann die Studierenden bestimmte Funktionen der Sprachgeneratoren benützen dürfen.

Wie hilfreich die neue Technologie ist, haben die Teilnehmenden in Mark Cieliebaks Kursen schnell begriffen: Bei englischen Texten sei das Sprachniveau plötzlich viel besser geworden, meint der Dozent: «Ich gehe davon aus, dass ich keine Texte mehr sehe mit massenhaft schlechten Formulierungen und wörtlichen Übersetzungen aus dem Deutschen.» ChatGPT hätte sogar eine seiner Prüfungen lösen können.

Ganze Abschlussarbeiten lassen sich damit aber nicht generieren, trotzdem kann ChatGPT dabei helfen: Bei der Literaturrecherche können Sprachmodelle Vorschläge machen, auch wenn zwischendurch immer wieder Bücher auf der Liste auftauchen, die es gar nicht gibt.

Schafft KI Fähigkeiten ab, die es zur Kontrolle bräuchte?

Wichtig ist deshalb, dass ein Mensch in jedem Fall den Output der Maschine sorgfältig kontrolliert – ob Programmcode, Literaturlisten oder Texte. Doch da sieht Christian Rapp ein grosses Problem: Beim Schreiben lerne man viel über das Schreiben und sein Fachgebiet, unabdingbares Wissen, um Texte kritisch zu beurteilen.

Wie kommen die Studierenden in Zukunft zu diesen Fähigkeiten, wenn sie nicht mehr selbst schreiben müssen? Wie eignen sich Softwareentwickler die Fähigkeiten an, komplexe Programme zu verstehen, wenn sie das Programmieren delegieren?

Für Christian Rapp sind die Herausforderungen für die Hochschulen noch grösser als während der Corona-Zeit: Grundlegendes müsse in Frage gestellt werden. Dennoch bleibt der Didaktiker optimistisch und meint, dass man in Zukunft noch besser und schöner mit den Studierenden zusammenarbeiten könne.

SRF1; 5.7.2023; 14:45 Uhr

Meistgelesene Artikel