Das US-Verteidigungsministerium will vermehrt künstliche Intelligenz in Waffensystemen einsetzen und KI im Militär intensiver nutzen. Die Firma Anthropic, die mit KI für das Pentagon Daten analysiert, wehrt sich gegen die Ausweitung und verweigert den Einsatz ihrer KI Claude bei der Massenüberwachung der US-Bevölkerung und bei autonomen Waffensystemen. Nun hat Präsident Donald Trump reagiert und entzieht der Firma sämtliche Aufträge, die Zusammenarbeit wird beendet. Dieses Vorgehen erntet Kritik bei den Nichtregierungsorganisationen, die ein Verbot von KI-Waffen fordern. Thomas Küchenmeister, Sprecher der Kampagne «Stop Killer Robots», nimmt Stellung.
SRF News: Das US-Verteidigungsministerium forderte von Anthropic, ihre Einschränkungen bei der Nutzung der KI zu lockern. Was sagen Sie zum Vorgehen des US-Militärs?
Thomas Küchenmeister: Ich finde das sehr bemerkenswert. Allein die Vorstellung, dass man so über das Eigentum eines Unternehmens verfügen will, ohne eine rechtliche Handhabe dafür zu haben, finde ich schon mehr als bedauerlich. Man will unbedingt diese KI-Technologie für alle möglichen Zwecke, einschliesslich Waffennutzung und Überwachung der Bevölkerung, einsetzen und ist da wohl bereit, alle Grenzen zu überschreiten.
Scharfe Kritik des Verteidigungsministeriums an Anthropic
Das Verteidigungsministerium will KI so viel wie möglich einsetzen, betont aber, die Gesetze einhalten zu wollen. Wie stark schränken Regeln das Militär beim Einsatz von künstlicher Intelligenz in den USA ein?
Also die Regeln in den USA sind eigentlich eindeutig. Man will so viel KI einsetzen und so viel Autonomie in die Waffensysteme bringen, wie es irgendwie geht. Man sagt, man hätte Ziele und Regeln, die einzuhalten sind. Nur glaube ich nicht, dass diese Regeln sehr weitreichend sind. Nicht umsonst sprechen sich die USA ja auch gegen eine verbindliche internationale Regulierung von autonomen Waffensystemen aus.
Vor zwei Jahren hat die UNO eine Resolution verabschiedet. Diese betont die Notwendigkeit menschlicher Kontrolle von Waffen. Reicht dies?
Nein, eindeutig nicht, weil das eine Absichtserklärung ist. Es ist eine Resolution und kein verbindlicher Vertrag. Wenn etwas vereinbart werden kann, dann geht das nur im Rahmen der UNO-Vollversammlung in New York. So wie wir das zum Beispiel auch bei den Nuklearwaffen gemacht haben.
Sie fordern ein Verbot autonomer Waffen, also von Systemen, die sich selber ihre Ziele und Opfer suchen. Wie soll das gehen?
Das ist ganz einfach. Die Frage, die im Raum steht, ist: Kann ein Waffensystem ohne menschliche Kontrolle Ziele finden und töten? Und wenn das der Fall ist, dann müssen solche Waffensysteme verboten werden. Es reicht einfach nicht, über Prinzipien zu reden und zu sagen, dass menschliche Kontrolle grundsätzlich gewährleistet werden muss. Das ist viel zu schwammig. Wir brauchen klare, eindeutige Formeln und Regeln.
Welche Länder wehren sich am meisten?
Jene, die die meisten solchen Waffen besitzen, das sind Russland, die USA, China und Israel.
Wo sehen Sie die Grenzen beim Einsatz von KI in Waffensystemen?
Die Grenzen sind ganz eindeutig und klar: Sie liegen dort, wo eine Waffe die Fähigkeit hat, ohne menschliche Kontrolle menschliche Ziele zu finden, zu orten und anzugreifen und zu töten. Das ist eine klare Grenzüberschreitung. Hier wollen wir ein Verbot. Und das wollen viele Länder, aber leider nicht die grossen Staaten. Und das verhindert gegenwärtig auch eine internationale Regulierung.
Das Gespräch führte Manuel Rentsch.