Roboterforscher Ron Arkin Wie Kampfroboter den Krieg humaner machen sollen

Roboter, die im Krieg das Töten übernehmen: für viele ein Schreckensszenario. Nicht so für den Roboterforscher Ron Arkin, der diese Woche die Uni Zürich besuchte.

Ein Roboter sucht 2011 in Afghanistan nach Bomben, im Hintergrund betrachtet eine Gruppe Kinder ihn. Bild in Lightbox öffnen.

Bildlegende: Roboter werden im Krieg bereits heute eingesetzt: dieser sucht 2011 in Afghanistan nach Bomben. Reuters

  • Immer häufiger werden in bewaffneten Konflikten Kriegsroboter eingesetzt – viele Forscher warnen vor der Gefahr, die von dieser maschinellen Tötung ausgeht.
  • Der amerikanische Roboterforscher Ron Arkin widerspricht: Automatische Waffensysteme könnten Leben retten, weil man sie im Gegensatz zu Soldaten darauf programmieren könnte, keine Zivilisten angreifen.
  • Voraussetzung für den Einsatz von Kriegsrobotern ist laut Ron Arkin, dass ihnen ein «ethischer Chef», eine Art künstliches Gewissen, eingepflanzt wird.

Mehr Roboter im Krieg

Immer mehr Armeen setzen auf Roboter. Feindliche Stellungen werden mit unbemannten Drohnen angegriffen, manche Grenzen bereits mit bewaffneten Robotern gesichert.

Ein Militärroboter sucht das Gelände ab, auf den Golanhöhen, im Hintergrund zwei israelische Soldaten. Bild in Lightbox öffnen.

Bildlegende: Bisher inspizieren Militärroboter vor allem das Gelände, wie hier auf den Golanhöhen. Reuters

Noch geben Menschen den letzten, tödlichen Schiessbefehl. Aber bald, so warnen viele Experten, könnten die Roboter auch dies übernehmen. Viele Forscher und Aktivisten fordern ein Verbot vollautomatischer Kriegsroboter, und die UNO diskutiert kontrovers darüber.

Nicht so schnell, sagt hingegen der amerikanische Roboterforscher Ron Arkin. Denn richtig gebaut, könnten Kriegsroboter sogar Menschenleben retten.

Deprimierend und verstörend

Eine Kriegsgurgel – das sei er keineswegs, betont Ron Arkin: Er arbeite auch an Pflegerobotern und hatte beim putzigen Roboterhund Aibo von Sony seine Finger im Spiel. Diese Forschung mache ihm Freude, sagt der Professor vom Georgia Institute of Technology.

Ganz anders sei es gewesen, als er sich mit dem Verhalten von Soldaten im Krieg befasst habe: «Das Verhalten von Soldaten im Einsatz zu studieren, war eine der deprimierendsten Erfahrungen, die ich im Lauf meiner Karriere machte. Es war sehr verstörend.»

Zusatzinhalt überspringen

Zur Person

Ron Arkin

Ron Arkin Wikimedia/Howcheng

Ronald C. Arkin forscht am Georgia Institute of Technology zu Robotern und zu ethischen Fragen rund um sie. 2006 wurde er vom US-Verteidigungsminsterium an Kriegsschauplätze geschickt. Arkin sollte untersuchen, inwiefern tödliche Gewalt durch autonome Waffensysteme angewendet und reguliert werden kann.

Roboter handeln konsequenter

Erst letzte Woche habe die UN bekanntgegeben, dass während dem zweijährigen Krieg im Jemen 10‘000 Zivilsten getötet wurden, sagt Ron Arkin. Mit den richtigen Kriegsrobotern könnte das anders sein, lautet seine These:

«Einer der Wege, wie das Töten von Zivilisten verhindert werden kann, ist, in manchen heiklen Situationen automatische Waffensysteme einzusetzen. Diese halten sich konsequenter als menschliche Soldaten an die internationalen Menschenrechte und die Genfer Konvention, die Zivilisten schützt.» Voraussetzung sei, dass dem Roboter die Gesetzestreue einprogrammiert sei.

Menschen als Überwacher

«Tatsache ist: das Tempo auf dem Schlachtfeld nimmt täglich zu», gibt Ron Arkin zu bedenken. Unter diesen Umständen könne ein Mensch kaum mehr adäquat entscheiden. Ein Grund für die Beschleunigung sei, dass immer mehr halbautomatische Waffensysteme eingesetzt werden: Zum Beispiel das Phalanx-System, das US-Kriegsschiffe vor Raketen schützt.

Der Kapitän müsse das System zwar einschalten, aber wenn sein Schiff angegriffen werde, frage Phalanx vor dem Feuern nicht mehr um Erlaubnis. Solche halbautomatischen Systeme unterscheiden sich kaum mehr von vollautonomen Kriegsrobotern, findet Ron Arkin. Es sei gar nicht mehr möglich, eine klare Grenze zu ziehen.

Stets kühles Blut

Südkorea zum Beispiel lässt die Grenze zu Nordkorea von Robotern überwachen. Offiziell heisst es, ein Mensch müsse diesem den Feuerbefehl geben. Unbestätigte Quellen aber berichten von einem vollautomatischen Modus.

Für Ron Arkin nicht unbedingt ein Schreckensszenario: «Wenn Soldaten im Kampf Angst haben, vielleicht übermüdet sind, oder wütend – dann kann es passieren, dass sie falsch handeln.» Ein Roboter aber bewahre stets kühles Blut und halte sich an die Regeln, die man ihm einprogrammiert hat.

Zusatzinhalt überspringen

Beiträge zum Thema

Künstliches Gewissen

Genau dies hat Arkin bereits getan, nicht bei einem realen Roboter, aber bei einem Computer. Das Herzstück ist eine Software, der «ethische Chef»: dieser überwacht, was der Roboter tun will und verweigert den tödlichen Schuss, wenn das Ziel ein Zivilist ist.

Ron Arkins Forschung wird unter Wissenschaftlern kontrovers diskutiert. Die Sicherheitsforscherin Heather Roff von der Arizona State University etwa glaubt nicht, dass ein solches System zuverlässig funktionieren wird – zumindest nicht in den nächsten Jahrzehnten.

Man könne einem Roboter zwar beibringen, nicht auf Objekte zu schiessen, die wie ein Schulbus aussehen. Das führe vermutlich dazu, dass weniger Schulbusse attackiert würden. Aber es sei für einen Roboter viel schwieriger, einen Kämpfer ohne Uniform von einem harmlosen Zivilisten unterscheiden zu können: «Das ist ein zu grosser Denkschritt.»

Debatte ist wichtig

Ethische Kriegsroboter à la Ron Arkin würden nur in wenigen, sehr speziellen Situationen funktionieren, glaubt Heather Roff. Das Militär werde kaum all die nötigen Millionen ausgeben für einen solchen Roboter, der erst noch den Schiessbefehl verweigern kann. Arkin habe zwar ehrenwerte Gründe für seine Forschung, aber sie komme einem Feigenblatt gleich.

Ron Arkin lässt diese Kritik gelten, er hat sie schon oft gehört. Und erwidert: «Die Debatte, die meine Forschung auslöst, ist ebenso wichtig, wenn nicht noch wichtiger, als diese Forschung selbst.»

Sendung: Radio SRF, Echo der Zeit, 19.01.17, 18 Uhr

Sendungsbeitrag zu diesem Artikel