Autonome Waffensysteme, die mit künstlicher Intelligenz ausgerüstet selbständig Entscheide treffen, kämpfen und töten – das ist keine fiktive Vorstellung mehr, sondern bald schon Realität. Internationale Institutionen stellen sich deshalb die Frage, ob und wie diese Waffensysteme reguliert werden sollen oder ob es gar ein Verbot braucht.
In Genf trafen sich letzte Woche Vertreter verschiedenster Länder und Institutionen in der UNO, um diesen Fragen nachzugehen. Denn grundsätzlich darf im Krieg getötet werden. Gewalt darf allerdings nicht unverhältnismässig ausgeübt und Zivilisten müssen geschützt werden.
Entwicklung ist schon weit fortgeschritten
Genau da haben viele Robotik-Spezialisten ihre Zweifel, ob autonome Waffen etwa wirklich zwischen Soldaten und Zivilisten unterscheiden können oder ob sie sehen, wenn Soldaten sich ergeben. Für viele Institutionen ist deshalb klar, dass immer der Mensch bei der Entscheidung über Leben und Tod die Kontrolle haben muss.
Auf dem Feld zum Einsatz kommen die autonomen Waffensysteme noch nicht, viele Komponenten sind heute aber vorhanden, wie etwa Sensoren, Werkzeuge zur Bilderkennung, Softwaresysteme für Autopiloten, GPS und Datenbanken. Neben Staaten sprechen sich deshalb auch Teile der Industrie und der Forschung für ein Verbot der autonomen Waffensysteme aus.
Die USA, Russland und China stehen auf die Bremse
Für die Industrie ist die Gefahr zu gross, dass zivile Forschung und Produkte für militärische Zwecke verwendet werden. So hat etwa der Tesla-Gründer Elon Musk mit einem Brief an die UNO ein Verbot autonomer Waffensysteme gefordert. Forscher wollen weiterhin Anwendungen entwickeln können, mit der Gewissheit, dass diese lediglich zivil und friedlich genutzt werden.
Die aktuelle Diskussion an der UNO in Genf zeigt allerdings, dass sich die Staaten noch lange nicht auf eine einheitliche Regulierung einigen können. Vor allem die USA, Russland und China, aber auch Grossbritannien, Israel und Südkorea bremsen das Verbot.
Die Schweiz will kein Verbot
Während die USA ihre militärtechnologische Führung behalten wollen, hoffen Russland und China, dass sie sich mit künstlicher Intelligenz und Robotik einen Vorteil gegenüber den USA verschaffen können. Weiter haben die Länder Angst, dass die anderen Staaten im Geheimen weiterforschen, auch wenn ein Verbot kommt.
Auch die Schweiz ist gegen ein Verbot von autonomen Waffensystemen. In Teilbereichen ist die Autonomie für die Schweizer Armee durchaus ein Thema. Armasuisse, das Bundesamt für Rüstung, hat bei der Universität Zürich eine Studie in Auftrag gegeben, welche die Frage klären soll, wie man autonome Waffen und Roboter im Kriegseinsatz oder im Sicherheitsbereich auf ihren ethisch korrekten Einsatz hin prüfen kann.
Sabrina Dallafior, Chefin der Schweizer Delegation in Genf, hat an der UNO-Abrüstungskonferenz teilgenommen. Auch sie sieht in den autonomen Waffensystemen durchaus Gefahren:
SRF News: Sabrina Dallaflor, warum sind Waffensysteme aus Ihrer Sicht problematisch?
Sabrina Dallafior: Letztlich geht es bei autonomen Waffensystemen um die Frage, ob man die Entscheidung über Leben und Tod an eine Maschine delegieren kann und will. Wir müssen eine ganze Palette von komplexen Fragen in militärischer, rechtlicher, ethischer, politischer und technologischer Hinsicht diskutieren, um die Problematik zu begreifen. In einem zweiten Schritt müssen wir prüfen, ob ein Regulierungsbedarf besteht.
Für die Schweiz ist das Völkerrecht das Leitmotiv.
Sie sagen, dass man den Regulierungsbedarf noch überprüfen muss. Es gibt Staaten und NGOs (Nichtregierungsorganisationen), die bereits jetzt ein Verbot fordern. Wo genau steht die Schweiz bei dieser Frage?
Ein Verbot dieser Waffensysteme mag auf den ersten Blick verlockend wirken, aber ich denke, es ist eindeutig noch zu früh dafür. Wir verstehen die ganze Komplexität der Materie noch nicht – wissen momentan gar nicht, was wir verbieten sollen. Zuerst müssen wir genau schauen, welche Fragen diese Waffen aufwerfen.
Wo könnte eine mögliche Grenze für ein Verbot durchgehen und was könnte man zulassen?
Für die Schweiz ist ganz klar das humanitäre und das allgemeine Völkerrecht das Leitmotiv. Autonome Waffensysteme, wie alle anderen Waffen auch, müssen dem Völkerrecht entsprechen und völkerrechtskonform sein. Das ist für uns der entscheidende Punkt.
Sie fordern, dass man Waffen bei der Neubeschaffung genau überprüft. Wie soll das konkret aussehen?
Die Kontrolle ist bereits heute eine Auflage des Völkerrechts. Man muss alle Waffen auf ihre Konformität mit dem Recht hin prüfen. Es ist aber auch so, dass dies nur eine Handvoll Staaten tatsächlich in ihre nationale Gesetzgebung und ihre nationalen Prozeduren eingebaut haben, darunter die Schweiz. Wir fordern, dass diese Auflage ab jetzt viel breiter angewandt wird – vor allem auch in Bezug auf autonome Waffensysteme.
Interessiert sich die Schweiz für die Beschaffung autonomer Waffensysteme?
Nein, die Schweiz ist mitnichten an der Front dieser Entwicklung.
Das Gespräch führte Tobias Gasser.
Ethnische Bedenken, weil die Menschlichkeit fehlt
Frank Sauer, Politologe an der Universität der deutschen Bundeswehr in München, betont die ethnische Komponente der Diskussion rund um autonome Waffensysteme.
«Das grundsätzliche Problem ist, dass bei dem, was wir autonome Waffensysteme nennen, keine Menschen mehr an der Entscheidung beteiligt sind», so Sauer. Wegen der divergierenden Interessen der verschiedenen Staaten, würden die diplomatischen Bemühungen um eine mögliche Regulierung dieser Waffen aber vergleichsweise sehr langsam vorangehen.
«Alle sehen die potentiellen Gefahren»
Mittlerweile gäbe es 20 Staaten, die klar und wiederholt gefordert hätten, autonome Waffensysteme völkerrechtlich bindend zu verbietend. «Aber es gibt eben auch eine ganze Reihe anderer Staaten, die zumindest eine abwartende Haltung einnehmen, um zuerst genauer auszuloten, wo möglicherweise bestimmte Vorteile aus militärischer Sicht liegen.»
Dabei habe sich bisher kein Staat ganz klar für die autonomen Waffensysteme ausgesprochen. «Alle, das ist mein sehr klarer Eindruck, sehen die potentiellen Gefahren, die Risiken und stellen sich die Frage, wie man damit umgehen soll», so Sauer.
«Der Rüstungswettlauf ist im Gang»
Und auch wenn im Feld bisher keine vollautomatischen Systeme eingesetzt würden, sagt der Politologe: «Ich denke, dass man in der Zwischenzeit sagen kann, dass ein Rüstungswettlauf im Gang ist.»
«Wir beobachten eigentlich überall ein hohes Interesse am Vorantreiben dieser Technologie für die militärische Nutzung.» Die Dual-Use-Problematik, also doppelte Anwendung der Technik einerseits für Militärzwecke und andererseits für die zivilgesellschaftliche Entwicklung, sei hier tatsächlich sehr ausgeprägt.
«Denn vieles von dem, was man technologisch so an Grundlagen entwickelt, findet in der zivilen Forschung statt.» So etwa bei grossen Unternehmen wie Google, Facebook oder etwa Yahoo, sagt Sauer. So spiele etwa auch autonomes Fahren in einem gewissen Sinne mit rein, «einfach, weil die Grundlagenforschung dafür gelegt wird, die man dann militärisch adaptieren kann.»