Künstliche Intelligenz ist der Grundstein für autonome Waffen, welche ohne menschliches Wirken Krieg führen können. Über solche selbständigen Waffen diskutieren diese Woche UNO-Mitgliedstaaten in Genf. Experten sagen, solange der Mensch sie programmiert, seien sie nicht gefährlicher als andere Waffen. Ihnen widerspricht der Philosoph Albert Newen.
SRF: UNO-Mitgliedstaaten diskutieren über ein Verbot von autonomen Waffen. Sie werden aber noch nirgends eingesetzt. Ist dies nur noch eine Frage der Zeit?
Albert Newen: Ich denke, dass in den nächsten zehn Jahren autonome, sogenannte Killer-Roboter, realistisch sind. Das Schreckensszenario ist, dass diese autonomen Waffen zum Beispiel für einen Häuserkampf eingesetzt werden. Leider ein sehr übliches Szenario, man denke an den Libyen-Krieg. In diesem Eroberungszug durch die Stadt würden sehr viele Zivilisten als Opfer in Kauf genommen.
Wir dürfen die Genfer Konventionen nicht einbüssen.
Wie schätzen sie die Entwicklung der autonomen Waffen ein?
Künstliche Intelligenz entwickelt sich rasant. Es ist absehbar, dass mit den neuen Mechanismen sehr mächtige Systeme gebaut werden. Sie sind so mächtig, dass sie aufgrund von Erfahrungen neue Algorithmen entwickeln und nicht mehr nur vorgegebene abarbeiten. So treffen die Maschinen Entscheidungen, die der Programmierer nicht vorhersehen kann.
Das heisst: Die Maschine kommt dem menschlichen Verstand sehr nahe?
Ja und nein. Es gibt einen irreführenden Vergleich, dass die Maschinen genauso denken werden wie wir. Das werden sie nicht! Sie können aber in bestimmten Bereichen weit vorausschauender planen und entscheiden als wir Menschen es können – etwa bei der Planung des Verkehrs.
Sie sprechen auch positive Aspekte der künstlichen Intelligenz an. Ist es denn sinnvoll jetzt schon über mögliche Verbote zu diskutieren?
Unbedingt! Die erwähnten Killer-Roboter und der Häuserkampf stellen eine enorme Herausforderung für das Militär dar. Dieser Krieg wäre sehr verlustreich und extrem schwierig, gegen solche Gruppen vorzugehen.
Die besondere Entwicklung besteht darin, dass die Killer Roboter quasi wie Soldaten als einzelne Maschinen in den Kampf eintreten und der menschlichen Kontrolle entzogen würden.
Trotz dieser Gefahren gibt es Länder, die sich gegen ein solches Verbot aussprechen, so auch die Schweiz. Die Begründung: Ein Verbot würde die Entwicklung von autonomen Systemen hemmen. Ist das naiv?
Wir sollten uns natürlich nicht der Entwicklung der künstlichen Intelligenz, wie sie in ganz vielen Gebieten stattfindet, verschliessen.
Aber Experten müssten den Unterschied zwischen von Menschen weitgehend gesteuerten Systemen und den sehr autonom arbeitenden Killer-Robotern herausarbeiten. Ein Verbot zurückzustellen, weil man denkt es würde die Entwicklung der Technologie behindern, scheint mir fadenscheinig.
Es ist fadenscheinig, sich wegen der Entwicklung der Technologie, gegen ein Verbot zu stellen.
Was droht, wenn keine Verbote aufgestellt würden?
Die Technologie ist teilweise in China, den USA und Grossbritannien schon sehr entwickelt. Die Militärs werden sie sowieso weiter vorantreiben. Es geht aber bei der Diskussion darum, dass von vornherein der Einsatz solcher Technologien geregelt wird. Krieg ist immer unmenschlich. Aber wir sollten verhindern, dass wir unsere minimalen Fortschritte in der Kriegsführung, etwa die Genfer Konventionen, einbüssen.
Das Gespräch führte Vanda Dürring.
Sendung: Kultur Aktualität, SRF 2 Kultur, 27.8.2018, 17.10 Uhr