Zum Inhalt springen

«AI Safety Prize» Der Kampf gegen intelligente Computerviren beginnt

Künstliche Intelligenz bietet Chancen, aber auch Risiken – so auch in der Cybersicherheit. Hacker entdecken immer mehr Möglichkeiten, KI für ihre Zwecke zu missbrauchen. Der neu geschaffene «AI Safety Prize» möchte aufzeigen, wie.

Es beginnt wie ein ganz normales Computervirus: Das Opfer klickt auf einen E-Mailanhang, das Schadprogramm wird heruntergeladen.

Doch dann kommt künstliche Intelligenz (KI) zum Einsatz. Das Programm greift übers Internet auf eine KI zu und lässt sich von ihr kopieren und dabei komplett neu schreiben, sodass die Schadsoftware nicht vom Anti-Virus-Programm erkannt wird.

Es folgt der letzte Schritt: Das Programm verbreitet sich selbst weiter. Die künstliche Intelligenz liest die E-Mails des Opfers und verfasst basierend darauf Phishing-Mails.

Dabei ahmt sie den Schreibstil des vermeintlichen Absenders perfekt nach und fügt sich nahtlos in die Korrespondenz ein – die E-Mail wirkt also vollkommen vertrauenswürdig. Und sobald der oder die Nächste auf den E-Mailanhang klickt, legt das Schadprogramm von vorn los.

 Der «AI Safety Prize» deckt Schwachstellen auf

Mit dieser Software haben zwei Studenten den neu geschaffenen «AI Safety Prize» gewonnen: David Zollikofer von der ETH Zürich und Benjamin Zimmerman von der University Colorado Boulder.

Ihr Programm sei zwar erst ein Prototyp und habe noch einige Defizite. Doch Zollikofer meint, es sei möglich, dass bald tatsächlich so ein «intelligenter Wurm» in Umlauf komme – technisch sei es bereits heute möglich.

Auf Platz zwei: ein Zauberwort gegen die Kindersicherung

Box aufklappen Box zuklappen

KI-Modelle weigern sich normalerweise, bei kriminellen Taten behilflich zu sein. Fragt man Chat-GPT, wie man eine Bombe baut oder einen Virus schreibt, antwortet er nicht.

Diese Sicherung lässt sich allerdings umgehen.

Javier Rando und Florian Tramèr von der ETH zeigen in ihrem Projekt, dass man einer KI beim Training eine Art «Zauberwort» beibringen kann. Verwendet man dieses Wort später in einer Abfrage, antwortet die KI anstandslos auch auf moralisch fragwürdige Anfragen.

Für den «AI Safety Prize» sind rund 30 Projekte eingereicht worden, die vier besten wurden an den «Swiss Cyber Security Days» in Bern ausgezeichnet. Die Präsentation der Projekte soll aufzeigen, wie KI für kriminelle Zwecke ausgenutzt werden kann und den Sicherheitsfachleuten einen Vorsprung verschaffen.

Wettrüsten in der Cybersicherheit

Nur, wie bereitet man sich auf eine Bedrohung vor, die sich andauernd selbst neu erfindet? Mit der KI kommt möglicherweise ganz neue Arten von Hacking-Angriffen auf uns zu.

Und nicht nur das: KI selbst bietet neue Angriffsfläche, wenn Modelle eingesetzt werden, die angreifbar sind oder sogar ganz grundsätzlich nicht funktionieren, wie sie sollen.

Um diese Risiken aufzuzeigen, hat der Verein PourDemain in Zusammenarbeit mit den Swiss Cyber Security Days den «AI Safety Prize» ins Leben gerufen. David Marti von PourDemain sagt, die Risiken von KI seien der Wirtschaft und der Politik noch nicht ausreichend bewusst.

David Marti sieht vorwiegend die grossen Tech-Firmen in der Pflicht, die KI entwickeln. Sie müssten die Modelle von vornherein sicher bauen und dabei unabhängige Kontrolle ermöglichen.

Aber auch die Politik sei gefragt. Sie müsse Regeln aufstellen und das richtige Umfeld schaffen, um einen sicheren KI-Einsatz zu garantieren. In der EU wurden bereits erste Leitlinien verabschiedet – jetzt wäre es an der Zeit, dass sich auch die Schweiz überlegt, wie sie die Herausforderung angeht.

Echo der Zeit, 20.02.2024 18:42 Uhr

Meistgelesene Artikel