Was bis jetzt nur dem Mensch eigen war, hat auch die Maschine gelernt: die Moral. Denn «moralische Maschinen» sind im Kommen. So zum Beispiel das «moralische Auto». Ein fahrerloses Gefährt mit einem Bordcomputer, der seine Insassen und auch andere Autofahrer im Verkehr schützen soll. Doch so vernünftig das auch tönen mag, es birgt ein Dilemma. Denn der Computer entscheidet: Sterben die 20 Menschen im Bus, auf den ich gerade zurase, oder die beiden Menschen, die bei mir im Auto sitzen?
Wenn dumme Maschinen zu Entscheidungsträgern werden
Mit solch heiklen Fragen beschäftigt sich Oliver Bendel. Der Philosoph und Wirtschaftsinformatiker lehrt und forscht an der Fachhochschule Nordwestschweiz (FHNW), unter anderem auch im Bereich Maschinenethik. Bendel ist dafür, dass Maschinen Moral einprogrammiert wird. Aber nur «einfachen» Maschinen: «Das sind Maschinen, die vorher dumm waren und jetzt eine kleine Entscheidung in einer übersichtlichen Situation mit wenigen Alternativen treffen können. Eine Entscheidung, die aber für Menschen und Tiere wichtig sein kann.»
Eine Idee für einen «einfachen Roboter» hat Bendel schon entwickelt: Der Staubsauger «Ladybird» soll mithilfe von Bilderkennung und Bewegungssensoren Krabbeltiere vor dem Tod retten. Tierfreunde werden sich freuen. Im Fall der Krabbeltiere ist die Ausgangssituation relativ simpel. Was aber, wenn «moralische Maschinen» in philosophisch hochkomplexen und emotional aufgeladenen Situationen wie im Strassenverkehr oder gar im Krieg zum Einsatz kommen sollen?
Am Ende entscheidet das Gefühl
In Situationen wie diesen sollte der Mensch die Entscheidung nicht der Maschine überlassen, so Bendel. Er warnt deshalb vor vollautomatisierten Kriegsdrohnen: «Wir delegieren Entscheidungen von höchster Tragweite, die Entscheidung über Leben und Tod, an Maschinen. Das ist gefährlich.»
Denn die Maschine hat keine Gefühle. Oft sind diese aber entscheidend: «Viele Menschen halten sich an ein bestimmtes Regelwerk und hängen im Kern einer einfachen Moral an. Aber Reflektion, Empathie und Gewissen kommen bei den meisten Menschen zusätzlich mit ins Spiel.» Das emotionale Manko der Maschine, die Unmöglichkeit, dass sie einen erbarmt, macht dem Menschen Angst. «Die Maschine ist objektiver als der Mensch, sie berechnet. Und das erscheint uns so brutal», erklärt Bendel. Und je moralisch aufgeladener die Situation, desto brutaler scheint dem Menschen die Entscheidung der Maschine.
Globale, moralische Beliebigkeit?
Beiträge zum Thema
Komplexe Ausgangslage versus einfache Ausgangslage: So simpel die Unterscheidung in Sinn oder Unsinn von moralischen Maschinen scheint, so einfach ist es nicht. Windkraftanlagen, die Vögel verschonen. Oder 3D-Drucker, die keine Waffen ausdrucken: Diese intelligenten Selbstbeschränkungen von Maschinen leuchten vielen Menschen ein. Doch der Geschäftsmann, dem jeder gerettete Vogel Windenergie raubt, und der Waffenliebhaber, der sich eine neue Waffe ausdrucken will, würden dieser Logik vehement widersprechen. Persönliche Vorlieben und kulturelle Eigenheiten: Sie beeinflussen die Moral.
Endet das also in einer totalen moralischen Beliebigkeit? Oder gibt es etwa so etwas wie die globale Moral? «Es braucht keine globale Moral. Man darf bestimmte Vorlieben und Geschmäcker berücksichtigen. Man muss die Eigenheiten von moralischen Maschinen einfach eindeutig deklarieren», so Bendel.
Bei «moralischen Maschinen» muss also klar deklariert werden, welchen Zweck sie erfüllen sollen und in welchen Situationen sie gefährlich sind. «Maschinen müssen dressiert werden. Jeder Schritt in Richtung mehr Autonomie für Maschinen bedeutet weniger Autonomie für Menschen.»