Die Firma Anthropic will nicht, dass ihr KI-System zur Massenüberwachung in den USA oder für autonome Waffensysteme verwendet werden darf. Deshalb hat US-Verteidigungsminister Pete Hegseth kürzlich alle Bundesbehörden angewiesen, auf die Nutzung von Anthropics KI-System Claude zu verzichten. Die Firma wurde als Risiko für die Lieferketten eingestuft. SRF-Digitalredaktor Jürg Tschirren über die Hintergründe.
Anthropic versus US-Regierung: Wie kommt es, dass dieser Streit so eskaliert ist?
US-Medien haben kürzlich nicht namentlich genannte Personen zitiert, die in die Verhandlungen zwischen dem Pentagon und Anthropic involviert waren. Sie sprechen von einer Gemengelage aus strukturellen, politischen und persönlichen Gründen, die zu der Eskalation geführt haben, zum Beispiel, dass die US-Regierung Anthropic für «zu woke» hält. Präsident Trump spricht in gewohnt zugespitzter Art gar von einem «linksradikalen Unternehmen». Man kann diese Auseinandersetzung als Grundsatzentscheidung darüber sehen, welchen Einfluss zivile KI-Unternehmen auf den Einsatz ihrer Systeme im militärischen Bereich oder bei der Überwachung der Bevölkerung haben sollen.
Welche Folgen hat es für Anthropic, dass die US-Behörden die Firma als «Lieferkettenrisiko» einstufen?
Das lässt sich im Moment schwer abschätzen, zumal Anthropic angekündigt hat, sich vor Gericht zu wehren. Theoretisch könnte es für Anthropic einschneidende Folgen haben. Denn mit einem Lieferkettenrisiko darf kein Unternehmen, das mit dem US-Militär Geschäfte macht, mehr zusammenarbeiten. So positioniert sich jedenfalls das Verteidigungsministerium. Das Unternehmen wäre damit von einem grossen Teil der Infrastruktur abgeschnitten, die es zur Entwicklung seiner Systeme braucht. Und natürlich würde Anthropic auch seine Verträge mit dem Pentagon verlieren und in Zukunft nicht mehr mit US-Behörden zusammenarbeiten können. Da geht es um Summen von mehreren 100 Millionen Dollar.
Wie wichtig ist Anthropic und seine System Claude für die US-Behörden?
Sehr wichtig. Bislang war Claude das einzige KI-Modell, das mit Daten umgehen durfte, die der höchsten Geheimhaltungsstufe des US-Militärs unterliegen. Es soll sogar nach dem offiziellen Verbot bei den Luftangriffen auf den Iran noch zum Einsatz gekommen sein. Seit einigen Tagen ist auch das Modell Grok von Elon Musk für den Umgang mit solchen hochgeheimen Daten zugelassen, allerdings sagen Insider im Pentagon, dass sich die Leistung von Grok nicht mit der von Claude vergleichen lasse. Ausserdem arbeitet Anthropic seit 2024 mit dem Datenanalyse-Unternehmen Palantir zusammen. Palantir sammelt die Daten, die von Claude ausgewertet werden, nicht nur beim militärischen Einsatz, auch bei der Einwanderungsbehörde ICE. Es ist für die Behörden ein grosser Aufwand, Claude aus den Abläufen zu entfernen und ein neues System einzubinden.
Könnte es noch zu einer Einigung kommen?
Auch das ist schwer zu sagen. Anthropic jedenfalls ist an einer weiteren Zusammenarbeit mit den Behörden interessiert, solange das innerhalb der Grenzen passiert, die sich das Unternehmen ausbedingt. Und den US-Behörden droht der Verlust des in der Praxis leistungsfähigsten KI-Modells. Je nachdem, welche Konsequenzen die Affäre für Anthropic hat, könnte es sogar das Ende dieses Unternehmens bedeuten. Daran hat die US-Regierung sicher kein Interesse, sieht sie sich doch bei der Entwicklung künstlicher Intelligenz in einem ständigen Wettkampf mit China.