Der Chatbot Grok des von Elon Musk gegründeten Start-ups xAI sorgt seit einigen Tagen für Schlagzeilen. Beschwerden von Userinnen und Usern, wonach der Chatbot zum «Holocaust» aufrufe und teils themenunabhängig «Hitler gegen Hass auf Weisse» empfohlen habe, machen die Runde. Was hinter «Grok» steckt und was das Tool kann und was nicht, erklärt Digitalredaktor Jürg Tschirren.
Welchen Einfluss hat Grok mit solchen Aussagen?
Die von Grok generierten Inhalte sind viel sichtbarer als jene von anderen KI-Tools wie etwa ChatGPT. Denn ChatGPT braucht man für sich und sieht die Antworten nur selber, solang man sie nicht aktiv teilt. Ganz anders die Aussagen von Grok, die zum Teil in Threads auch auf dem sozialen Netzwerk X landen, in welches Grok integriert ist. Entsprechend hat Grok eine grössere Breitenwirkung. Wenn es darum geht, dass Leute solch fragwürdigen Aussagen folgen, so ist Grok wohl höchstens ein Symptom, aber sicher nicht die Ursache. Die starke Polarisierung in den USA und der Zulauf zu extremen Haltungen geschieht nicht wegen Grok.
Auf was muss sich die Welt mit Grok einstellen?
Das Tool entspricht wohl stark dem Weltbild von Musk, der gegen eine Woke-Ideologie vorgehen will, die seiner Meinung nach alles weichspüle und nur gefällige Antworten zulasse. Die Wahrheit müsse halt wehtun und Fakten stünden über den Gefühlen, sagt der reichste Mann der Welt jeweils. Er sieht sich gern als kontroverser, aber sehr wahrheitssuchender Denker. Da erstaunt es nicht, wenn seine KI Antworten gibt, die weit entfernt vom allgemein akzeptierten Konsens liegen. Die Episode zeigt auch, dass die wachsende Informationsflut im Internet den Wunsch nach einer Instanz mit sich bringt, die zwischen wahr und falsch unterscheiden kann. Doch die Hoffnung, dass eine KI, ein grosses Sprachmodell, diese Rolle einnehmen kann, wird sich kaum erfüllen. Eher dürfte es einst verschiedene KI mit unterschiedlichen «Wahrheiten» geben.
Ist die Gesellschaft fit genug, um mit KI umzugehen?
Es gibt mittlerweile eine grosse Spannbreite von Menschen, welche künstliche Intelligenz im Rahmen der grossen Sprachmodelle wie Grok, ChatGPT oder Gemini von Google für spezifische Aufgaben gut zu nutzen wissen. Sie sind sich bewusst, dass diese KI-generierten Maschinen zwar Texte schreiben können, aber nicht genau verstehen, was die Texte bedeuten. Irrtümer sind also immer möglich, weil die KI nach rein statistischen Wahrscheinlichkeiten funktioniert. So können Antworten schlicht nicht stimmen oder sind ganz erfunden. Es gibt auch Leute, welche die KI sehr unkritisch brauchen und nichts gegenchecken. Und es gibt auch jene, die noch gar nicht wissen, was KI ist.
Wie sieht die Zukunft von KI aus?
Vermutlich wird die KI zurzeit ein bisschen überschätzt. Vor allem wegen der grossen Versprechungen, die auch Musk immer wieder macht, oft nicht auf technischen Grundlagen beruhend, sondern aus Marketinggründen. So haben sich etwa die grossen Produktivitätsgewinne durch KI eigentlich noch nirgends manifestiert. Viele Firmen sind immer noch am Suchen, wie sie mit KI mehr Geld verdienen können. Der Einfluss von KI auf die Gesellschaft ist also noch schwer abschätzbar. Es wird sich zeigen, ob der grosse Hype abflauen und zu einem pragmatischen, nutzbringenden Umgang mit KI führen wird.