Darum geht es: Es ist eine der wichtigsten Grundsatzfragen der heutigen Zeit: Wie und in welchem Rahmen darf künstliche Intelligenz im Krieg, in Konflikten, bei den Waffen eingesetzt werden? Welches sind die Grenzen bei der Überwachung der Bevölkerung? Darüber ist im US-Verteidigungsministerium jüngst ein offener Konflikt ausgebrochen.
Die Gegenspieler: Es sind zwei hochrangige Kontrahenten. Auf der einen Seite Pete Hegseth, der Verteidigungsminister der USA und auf der anderen Seite Dario Amodei, der Chef von Anthropic. Bisher sind sich die beiden über den Einsatz von KI uneinig und nach der letzten Verhandlungsrunde kam es zum Eklat. Das Ultimatum läuft bis diesen Freitag.
-
Bild 1 von 2. Dario Amodei, Chef von Anthropic, stellt kritische Fragen zum Einsatz von KI im Pentagon. Bildquelle: Keystone / AP / markus Schreiber.
-
Bild 2 von 2. US-Verteidigungsminister Pete Hegseth stellt die Zusammenarbeit mit Anthropic in Frage. Bildquelle: Keystone / ap / alex brandon.
Die Firma: Anthropic gehört zu den führenden und wichtigsten Firmen der KI-Branche. Insbesondere hat das Unternehmen das KI-Modell Claude entwickelt, welches weltweit von Millionen von Menschen genutzt wird. Anthropic wurde vor fünf Jahren gegründet und zählt inzwischen rund 3000 Angestellte. Claude ist etwas ähnliches wie ChatGPT und Gemini von Google, die KI-Modelle von Anthropic legen allerdings einen höheren Stellenwert auf die Sicherheit, deshalb wird die Firma vom Pentagon bisher bevorzugt.
Der Streitpunkt: Anthropic setzt dem Verteidigungsministerium Grenzen: Die künstliche Intelligenz der Firma soll nicht für die Massenüberwachung der Bevölkerung in den USA eingesetzt werden und auch nicht für autonome Waffen. Das Pentagon unter Pete Hegseth wiederum fordert mehr Flexibilität, dass KI im Rahmen des gesetzlich Erlaubten eingesetzt werden könne. Im vergangenen Jahr hat das Verteidigungsministerium dem US-Unternehmen einen Auftrag im Umfang von 200 Millionen Dollar erteilt.
-
Bild 1 von 2. Bereits seit vielen Jahren warnen Menschenrechtsorganisationen vor dem Einsatz von KI im Krieg. Kundgebung 2018 in Washington. Bildquelle: Stop Killer Robots.
-
Bild 2 von 2. Kundgebung auch am UNO-Sitz in Genf. 2018. Bildquelle: Stop Killer Robots.
Die Drohung: Falls Anthropic seine Bestimmungen nicht lockert, könnte die Firma vom Pentagon als Lieferkettengefahr deklariert werden. Die Regierung verfügt über die Macht, dies so zu bestimmen. Das wäre allerdings ein aussergewöhnlicher Schritt, denn als solche werden bisher nur jene ausländische Firmen deklariert, die als Gefahr für die nationale Sicherheit eingestuft werden. Der Entscheid würde bedeuten, dass Firmen, die mit der US-Regierung zusammenarbeiten, nicht die KI von Anthropic verwenden dürften und auch sonst keine Geschäfte mit der Firma treiben dürften.
Die bisherige Zusammenarbeit: Bisher hatte Anthropic beim Pentagon einen Sonderstatus. Es waren die einzigen KI-Modelle, welche in Zusammenhang mit geheimen und vertraulichen Angelegenheiten verwendet wurden, denn die Programme gelten als sicherer als jene der Konkurrenz.
Die Konkurrenz: Vom Streit zwischen den Kontrahenten könnten die anderen Anbieter profitieren. So zum Beispiel OpenAI, der Hersteller von ChatGPT oder auch Google und Elon Musk mit der Firma XAI, die ebenfalls KI-Modelle entwickelt. Diese Firmen arbeiten auch mit dem Pentagon, allerdings weniger eng als Anthropic.
Wie geht es weiter: Gut möglich, dass es einen Kompromiss zwischen den Streitparteien geben wird. Tendenziell wird aber das Pentagon die Zusammenarbeit mit Anthropic wohl eher reduzieren, weil das Unternehmen der Demokratischen Partei nahe steht. Den Vorzug erhält künftig wahrscheinlich eher XAI von Elon Musk, der beim letzten Wahlkampf die Republikanische Partei mit namhaften Beträgen unterstützt hatte. So zumindest können die jüngsten Signale interpretiert werden.