Helen Toner war im Verwaltungsrat von OpenAI, als die Firma mit ChatGPT einen weltweiten Hype auslöste. Im Gespräch erklärt sie, warum sie für die Entlassung von CEO Sam Altman stimmte, wieso der Wettlauf der Tech-Giganten gefährlich und mehr Kontrolle von KI-Firmen wichtig ist.
SRF News: Sie waren im Verwaltungsrat von OpenAI, wussten aber nicht, dass ChatGPT veröffentlicht wird?
Helen Toner: Ja, genau. Ich habe davon auf Twitter erfahren. Das zeigt, wie schnell diese Firmen Entscheidungen treffen, weil sie unter hohem Konkurrenzdruck stehen.
Sie sprechen von einem «Wettlauf nach unten», der mit dieser Veröffentlichung lanciert wurde. Was meinen Sie damit?
Man hat in den Monaten danach gesehen, dass viele Firmen, etwa Google, unter Druck gerieten. Sie haben interne Sicherheitsverfahren übersprungen, nur um möglichst rasch ein ähnliches Produkt auf den Markt zu bringen. Sicherheitsbedenken wurden nach hinten gestellt, es ging darum, schnell zu sein.
Ein Jahr später haben Sie für die Entlassung von Open-AI-Chef Sam Altman gestimmt. Warum?
Im Grunde ging es darum, dass wir als Verwaltungsrat zum Schluss kamen, dass wir ihm nicht mehr vertrauen können. Wir bekamen nicht die Informationen, die wir gebraucht hätten, um unseren Job zu machen – nämlich sicherzustellen, dass die Firma das Richtige macht. Ohne Vertrauen in den CEO war das unmöglich.
Altman kam nach wenigen Tagen zurück in sein Amt, Sie haben den Verwaltungsrat verlassen. Wo sehen Sie heute die grössten Risiken bei der Entwicklung von künstlicher Intelligenz?
Es gibt viele unterschiedliche Risiken. Eines ist, dass wir tatsächlich so mächtige KI-Systeme bauen, dass wir die Kontrolle über sie verlieren. Das klingt nach Science-Fiction, aber führende KI-Forscher nehmen diese Gefahr ernst.
Wir sehen bereits Fälle, in denen Kinder nach intensiven ‹Beziehungen› mit einem Chatbot Suizid begangen haben.
Heisst das, nicht einmal die Entwickler wissen genau, was sie tun?
Ja, so ist es. Es ist kein Zauber. Aber es sind sehr grosse statistische Modelle, die wir schlecht verstehen können. Das gilt auch für die klügsten KI-Forscherinnen und Forscher.
Welche weiteren Gefahren sehen Sie?
Die emotionale Abhängigkeit von Chatbots. Wir sehen bereits Fälle, in denen Kinder nach intensiven «Beziehungen» mit einem Chatbot Suizid begangen haben. Ein anderes grosses Risiko ist der Missbrauch. Experten befürchten, dass mit KI zum Beispiel schlimmere biologische Waffen entwickelt werden könnten.
Sehen sie auch Chancen von KI?
Natürlich, in verschiedenen Bereichen. Ein Beispiel sind selbstfahrende Autos. Die Daten aus den USA zeigen bereits, dass sie sicherer sind als menschliche Fahrer. Wenn man bedenkt, dass in den USA jährlich 40'000 Menschen bei Autounfällen sterben, müssen wir eine Technologie, die diese Zahl senken kann, feiern.
Die Firmen müssen offenlegen, was sie tun, wie sie entscheiden und welche Risiken sie sehen.
Wer kontrolliert diese mächtigen Firmen?
Aktuell muss man sagen: kaum jemand. Sie haben sehr viel Freiheit, selbst zu entscheiden, was sie tun wollen.
Was fordern Sie konkret?
Zwei grosse Dinge: Erstens mehr Transparenz. Die Firmen müssen offenlegen, was sie tun, wie sie entscheiden und welche Risiken sie sehen. Zweitens müssen sie unabhängige Prüfer reinlassen, die ihre Systeme testen und überprüfen, ob die Firmen wirklich das tun, was sie behaupten.
Das Gespräch führte Simone Hulliger.