Das neue Schweizer KI-Sprachmodell Apertus wird als Alternative zu den Produkten aus den USA wie ChatGPT oder Lama oder das chinesische Deepseek angesehen. Entwickelt wurde es von der ETH Zürich und EPFL und dem Supercomputerzentrum in Lugano. Doch Apertus sorgt seit seiner Einführung Anfang September auch für Diskussionen – wegen kleinerer Leistungsfähigkeit. Imanol Schlág, Apertus-Mitentwickler an der ETH Zürich, kontert die Kritik.
SRF News: Apertus hat schnell viel Aufmerksamkeit bekommen. Wie waren die Reaktionen?
Imanol Schlág: Wir haben sehr viel Feedback bekommen, auch von anderen Modellentwicklern weltweit – überwiegend positiv. Unsere Modelle wurden bereits 350'000 Mal heruntergeladen. Es gibt Interesse von anderen nationalen Initiativen, auf Apertus aufzubauen – das freut uns besonders. Aber natürlich gibt es auch kritische Stimmen. Fehler zu finden, ist nicht schwer.
Dass wir überhaupt mit Big Tech verglichen werden, ist eigentlich fantastisch.
Viele vergleichen Apertus mit ChatGPT. Wie sehen Sie das?
Das ist verständlich, aber der Vergleich ist unfair. Die amerikanischen und chinesischen Firmen, die KI-Modelle entwickeln, sind riesige Tech-Unternehmen mit Tausenden Forschern und sehr viel Geld. Dass wir überhaupt mit denen verglichen werden, ist eigentlich fantastisch. ChatGPT ist ein fertiges Produkt – für die Assistenz von jedem Einzelnen, in jeder Situation. Wir dagegen sind eine Plattform für Forschung und Entwicklung. Wichtig dabei: Ein eigenes Sprachmodell wie dasjenige von ChatGPT bieten wir nicht selbst an, sondern den Chat eines Drittanbieters.
Sie sagen, Ihr Modell halte zum Teil mit?
Ja. Das kleinere unserer beiden Modelle mit 8 Milliarden Parametern schlägt sogar KI-Sprachmodelle ähnlicher Grösse. Unser grösseres Modell, mit 70 Milliarden Parametern, ist zwar stärker, braucht aber noch Feinschliff, um ein Produkt zu werden. Auf publicai.co kann jeder das Modell testen – auch das 70-Milliarden-Modell, wenn man sich einloggt.
Compliance und Transparenz bei KI-Sprachmodellen werden immer wichtiger.
Das Alleinstellungsmerkmal von Apertus ist die Transparenz der Daten?
Genau. Compliance und Transparenz werden immer wichtiger. Der Europäische AI Act (das EU-Gesetz zur künstlichen Intelligenz) verlangt, dass klar ist, mit welchen Daten trainiert wurde. Das ist bei vielen Modellen aus den USA oder China nicht der Fall. Apertus ist das grösste Modell, das die Compliance-Anforderungen des EU-AI-Act erfüllt.
Sie preisen Ihr Modell als sprachbegabt an, das auch Schweizer Idiome wie Rätoromanisch verstehe. Doch es gibt Kritik an der Leistungsfähigkeit. Wie gut ist Apertus darin wirklich?
Erstaunlich gut, gerade wenn man bedenkt, wie wenig Effort wir darin investiert haben. Beim Verstehen von Rätoromanisch sind wir besser als viele amerikanische Modelle. Natürlich könnte man noch mehr herausholen, wenn man es gezielt optimiert.
Wie geht es weiter?
Wir arbeiten an Multimodalität – also dem Input von Bildern oder Audio. Damit kann man neue Anwendungsfälle ermöglichen, zum Beispiel in der Bildung oder im Gesundheitswesen. Parallel bauen wir unser Kernteam aus.
Das Interview führte Harry Stitzel.