Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

Anthropics KI-Modell «Mythos» KI soll zu gefährlich für die Welt sein – das steckt dahinter

Die US-Firma Anthropic hält ihr neues KI-Modell «Mythos» zurück. Es sei zu gut darin, unbekannte Sicherheitslücken zu finden und diese auszunutzen. Deshalb stelle man das Modell vorerst nur ausgewählten grossen Firmen zur Verfügung. SRF-Digitalredaktor Guido Berger über die Hintergründe.

Guido Berger

Leiter SRF Digital-Redaktion

Personen-Box aufklappen Personen-Box zuklappen

Guido Berger leitet die SRF Digital-Redaktion und erklärt seit 2006 digitale Technologie und Games.

Was kann das «Mythos»-Modell konkret?

KI-Modelle schreiben mittlerweile sehr gut Programmcode, also die Sprache, in der Software geschrieben ist. Zudem können sie bestehenden Code auf Fehler analysieren und auch gleich neuen Code schreiben, der diese Fehler ausnutzt, in das System eindringt und Schaden anrichtet. Das neue «Mythos»-Modell von Anthropic soll besonders gut darin sein, diese Lücken zu finden. Es ist aber nicht das einzige Modell, welches vollautomatisch das kann, was sonst Sicherheitsforscher oder Cyberkriminelle tun. Aber das «Mythos»-Modell arbeitete gründlich: So soll es Fehler gefunden haben, die seit Jahrzehnten unentdeckt blieben.

Warum ist das gefährlich?

Die Menge von Lücken und die Geschwindigkeit, mit der sie gefunden werden, wird in Zukunft rasant zunehmen. Der übliche Wettlauf beschleunigt sich: Die Bösen suchen Lücken und versuchen, sie auszunutzen. Die Guten suchen Lücken und versuchen, sie zu stopfen. Die Gefahr ist, dass es zu viele Lücken sind, um sie schnell genug stopfen zu können. Insbesondere bei Software, die von vielen eingesetzt, aber nur von wenigen Entwicklern aktiv unterhalten wird. Wenn diese Einzelkämpfer plötzlich hunderte Hinweise auf neue Lücken erhalten, haben sie möglicherweise keine Kapazitäten, alle Schwachstellen rechtzeitig zu beseitigen. Das macht Programme, die wir tagtäglich benutzen, unsicherer.

Weshalb stellt Anthropic ihr neues KI-Modell nur ausgewählten US-Firmen zur Verfügung?

Dieses Vorgehen ist sogar sehr üblich, wenn Sicherheitslücken gefunden werden: Man will den Betroffenen eine Chance geben, die Lücke noch zu stopfen, bevor sie öffentlich wird – also den Guten einen Vorsprung geben.

Die Ankündigung von Anthropics KI-Modell hat grosse Wellen geschlagen. Ist das mehr als Marketing?

Es ist eine Methode von Anthropic, in der Öffentlichkeit den Weltuntergang zu verkünden, uns damit aber vor allem die unglaublichen Fähigkeiten der eigenen Modelle unter die Nase zu reiben. Doch hier ist das Problem real und grösser als «Mythos», weil auch andere Modelle diese Fähigkeiten haben oder haben werden. Cyberkriminelle, Geheimdienstler und Schurkenstaaten reiben sich die Hände. Sicherheitsforscher und -verantwortliche müssen sich auf schweren Wellengang vorbereiten.

Was heisst das für den privaten Laptop?

Persönlich kann man nur das tun, was man immer tun sollte: Software auf dem neusten Stand halten, Backups machen, verantwortungsvoll mit Passwörtern umgehen und generell Vorsicht walten lassen mit persönlichen Daten.

Rendez-Vous, 9.4.2026, 12:30 Uhr;laur;weds ; 

Meistgelesene Artikel