Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

Grok und ChatGPT übertroffen Überholt die Schweiz die Supermächte bei der KI?

Könnte die Schweiz die grossen Weltmächte übertreffen bei der Entwicklung einer KI, die «denkt» wie Menschen?

Seit ChatGPT im Jahr 2022 der Öffentlichkeit zugänglich gemacht wurde, haben sich Millionen von Menschen daran gewöhnt, mit künstlicher Intelligenz zu interagieren, als wäre sie eine reale Person. Bisher hat sich jedoch noch kein KI-Tool als intelligent im «menschlichen» Sinn des Worts herausgestellt.

Unternehmen und Forschungseinrichtungen weltweit arbeiten weiter mit Hochdruck an der Entwicklung einer solchen künstlichen allgemeinen Intelligenz (AGI), die genau dieses menschliche Verständnis nachbilden soll.

Testen der maschinellen Intelligenz

Im Mittelpunkt des Wettbewerbs steht das Schweizer Start-up Giotto.ai, das derzeit die Rangliste des ARC-Preises anführt.

Bei diesem globalen Wettbewerb wird anhand einer Reihe visueller Rätsel gemessen, wie nah KI-Systeme dem menschlichen Denken kommen.

Was ist ARC?

Box aufklappen Box zuklappen

Das Abstraction and Reasoning Corpus (ARC) ist einer der weltweit führenden Massstäbe, um Fortschritte auf dem Weg zur künstlichen allgemeinen Intelligenz zu messen.

Es besteht aus visuellen Rätseln, die die Fähigkeit einer KI testen, abstrakt zu denken und aus Beispielen zu generalisieren – Aufgaben, die Menschen in der Regel relativ leicht lösen können, die aber für aktuelle KI-Systeme nach wie vor schwierig sind.

Aktuell gibt Giotto.ai an, 27.08 Prozent der Rätsel gelöst zu haben. Damit werden etablierte grosse Sprachmodelle wie Grok 4 und GPT-5 übertroffen.

Das in Davos ansässige Forschungsinstitut Lab 42 verfolgt ebenfalls das Ziel der künstlichen allgemeinen Intelligenz.

Im Jahr 2024 berichtete das Institut, dass es einen neuen Weltrekord aufgestellt habe, indem es 34 Prozent der ARC-Tests in einem inoffiziellen Wettbewerb gelöst habe.

Bunte Figuren, bestehend aus Quadraten.
Legende: Ein Beispiel für ein ARC-Puzzle: Die KI muss die versteckte Regel verstehen, indem sie dem Beispiel in den Eingabebildern (links) folgt und sie auf die Ausgabebilder (rechts) anwendet. arcprize.org

Diese Leistung ist zwar beeindruckend, erreicht aber bei Weitem nicht das Niveau menschlicher Intelligenz. Laut François Chollet, dem Erfinder der ARC-Tests, sollte ein «intelligenter» Mensch in der Lage sein, mehr als 95 Prozent der Quizfragen zu lösen.

LLMs sind nicht intelligent genug

Marco Zaffalon, wissenschaftlicher Direktor des Dalle Molle Institute for Artificial Intelligence, ist der Meinung, dass AGI für aktuelle KI-Modelle unerreichbar bleiben wird.

«Die meisten der heutigen grossen Sprachmodelle haben nichts wirklich Intelligentes an sich – sie erkennen Muster, verstehen aber keine Ursachen.»

Laut Zaffalon besteht das Problem bei der Entwicklung einer AGI darin, dass die meisten Tech-Unternehmen es vorziehen, ihre Modelle mit Big Data und technischen Abkürzungen zu verbessern, statt eine wissenschaftliche Revolution anzustreben.

Der Aufstieg der Schlussfolgerungsmodelle

Einige Forschende glauben, dass eine neue Generation von KI-Modellen, die als Schlussfolgerungssysteme bekannt sind, dazu beitragen könnte, KI «menschlicher» denken zu lassen.

Diese Systeme versuchen, menschliches Denken zu simulieren, indem sie komplexe Probleme in kleinere Teilaufgaben zerlegen und diese nacheinander lösen.

Giotto.ai ist nur eines von vielen Unternehmen weltweit, die darauf hoffen, dass Schlussfolgerungsmodelle sie auf dem Weg zur AGI voranbringen.

Sollte die KI von Giotto.ai den ARC-Preis vor den US-Giganten gewinnen, wäre das eine bemerkenswerte Leistung für die Schweiz.

KI auf menschlichem Niveau: verführerisch, aber riskant

KI auf dem Niveau des Menschen scheint also weiterhin ausser Reichweite zu sein. Für viele Forschende ist das jedoch nicht so schlecht.

KI-Modelle, welche die Grenzen zwischen Mensch und Maschine verwischen, seien ethisch problematisch, sagt Peter Kirchschläger, Professor für Ethik an der Universität Luzern.

«Das Risiko besteht nicht darin, dass Maschinen uns imitieren, sondern darin, dass sie beginnen, Entscheide an unserer Stelle zu treffen, ohne dass jemand dafür Verantwortung übernimmt», sagt er. «Entscheide müssen in den Händen von Menschen bleiben.»

News Plus, 22.10.2025, 16 Uhr; sten

Meistgelesene Artikel