Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

KI im Krieg Wenn im Krieg Maschinen statt Menschen entscheiden

Künstliche Intelligenz macht die Kriegsführung schneller, indem sie Unmengen an Daten innert Minuten analysiert. Das Pentagon spricht von Präzision – Fachleute aber warnen.

Der Angriff der USA im Iran erinnert an frühere Kriege in der Region. Eines ist dieses Mal jedoch anders: Welche Ziele die Raketen und Bomben treffen sollen, wird nicht mehr allein von Menschen entschieden, sondern auch von Maschinen.

Am ersten Tag des Krieges bombardierten die US-Streitkräfte über 1000 Ziele im Iran. Diese enorme Menge an Zielen wurde vom Maven Smart System erfasst, einer KI-Software des US-Konzerns Palantir, der Datenanalysen für Militär und Sicherheitsbehörden liefert.

Eine Satellitenaufnahme zeigt brennende Schiffe in Bandar Abbas, Iran, nach einem US-Angriff.
Legende: Der Krieg im Iran markiert eine Zäsur in der modernen Kriegsführung. Die Intensität der Luftangriffe in der Operation «Epic Fury» übertrifft laut US-Angaben bereits jetzt die Schlagzahl des Irakkriegs von 2003. Möglich wird dies durch eine technologische Aufrüstung im Hintergrund: KI. Keystone/Planet Labs PBC

Aus Satellitenbildern, Funksignalen und Informationen aus sozialen Netzwerken erstellt das KI-System in Echtzeit ein digitales Lagebild des Schlachtfelds. Das Programm kann innerhalb von Stunden Tausende feindliche Ziele identifizieren, ihre Bewegungen verfolgen und sogar passende Waffensysteme vorschlagen.

Der Einsatz dieser KI erlaubt Tausende Zielerfassungen in kurzer Zeit. Gleichzeitig bleibt den Soldaten oft zu wenig Zeit, die Ergebnisse kritisch zu prüfen.
Autor: Jessica Dorsey Völkerrechtlerin

Was früher Wochen von Analysten erforderte, erledigt das Maven-System heute in Stunden. Das Ergebnis ist eine industrielle Skalierung des Krieges.

Schnelle Prozesse, wenig Zeit

Die Völkerrechtlerin Jessica Dorsey sieht diese Entwicklung kritisch: «Der Einsatz dieser KI erlaubt Tausende Zielerfassungen in kurzer Zeit. Gleichzeitig bleibt den Soldaten oft zu wenig Zeit, die Ergebnisse kritisch zu prüfen. Aus früheren Konflikten ist bekannt, dass Menschen sich dann zu stark auf die Entscheidungen der Maschine verlassen.»

Wir trauen einem System, einer Maschine grundsätzlich erst mal mehr als unserer eigenen Intuition.
Autor: Vanessa Vohs Expertin für autonome Waffensysteme

Auch die Expertin für autonome Waffensysteme, Vanessa Vohs, warnt vor dem unkontrollierten Einsatz solcher KI-Systeme: «Wichtig dabei zu verstehen ist auch, dass wir Menschen sogenannten Automation Bias haben. Das heisst, dass wir einem System, einer Maschine grundsätzlich erst mal mehr vertrauen als unserer eigenen Intuition. Und das wird beim Kriegseinsatz besonders gefährlich.»

KI zum Schutz von Zivilisten?

Diese Dynamik könnte auch bei US-Angriffen im Südiran eine Rolle gespielt haben, bei denen eine Mädchenschule getroffen und 165 Kinder sowie 26 Lehrpersonen getötet wurden. Laut Pentagon-Untersuchungen war das Gebäude in veralteten Datenbanken noch als Militärstützpunkt aufgeführt.

KI könnte auch dazu beitragen, zivile Opfer zu reduzieren – wenn dies zur Priorität gemacht würde.
Autor: Jessica Dorsey Völkerrechtlerin

Würde der Fokus auf dem Schutz von Zivilisten liegen, könnten KI‑Tools helfen, zivile Opfer zu verringern. KI könne grundsätzlich alles tun, was man von ihr verlange, sagt Jessica Dorsey. «Sie könnte auch dazu beitragen, zivile Opfer zu reduzieren – wenn dies zur Priorität gemacht würde. Beim Pentagon steht der Schutz von Zivilisten offenbar nicht im Fokus.»

Regeln fehlen

Um KI-gestützte Waffensysteme verantwortungsvoll einzusetzen, braucht es aber ausreichend menschliche Kontrolle. Der Grad an Autonomie werde steigen, ist Vanessa Vohs überzeugt. «Es ist die Frage, wie am Ende die Entscheidungen über Zielauswahl und Bekämpfung erfolgen.» So plädiert Vohs dafür, dass die bedeutsame menschliche Kontrolle gewahrt wird.

Zudem fehlen bislang klare internationale Regeln für den Einsatz von KI-gestützten Waffensystemen.

10 vor 10, 19.03.2026, 21:50 Uhr

Meistgelesene Artikel