Zum Inhalt springen
François Hollande hält einen Roboter im Arm.
Legende: Auf den richtigen Umgang mit moralischen Maschinen kommt's an. Reuters

Gesellschaft & Religion Das Zähmen der Maschinen

Wie entscheide ich moralisch richtig? Diese Kompetenz wird immer mehr auch Maschinen eingebaut. Das selbstfahrende «moralische» Auto ist nur ein Beispiel dafür. Vielen macht diese Entwicklung Angst. Alles eine Frage des richtigen Dressierens, sagt der Maschinenethiker Oliver Bendel.

Was bis jetzt nur dem Mensch eigen war, hat auch die Maschine gelernt: die Moral. Denn «moralische Maschinen» sind im Kommen. So zum Beispiel das «moralische Auto». Ein fahrerloses Gefährt mit einem Bordcomputer, der seine Insassen und auch andere Autofahrer im Verkehr schützen soll. Doch so vernünftig das auch tönen mag, es birgt ein Dilemma. Denn der Computer entscheidet: Sterben die 20 Menschen im Bus, auf den ich gerade zurase, oder die beiden Menschen, die bei mir im Auto sitzen?

Zur Person

Box aufklappen Box zuklappen

Oliver Bendel ist Philosoph und promovierter Wirtschaftsinformatiker. Er ist Professor an der Hochschule für Wirtschaft (FHNW). Seine Schwerpunkte: E-Learning, Wissensmanagement, Social Media, Mobile Business, Informationsethik und Maschinenethik. Er leitet unter anderem das Projekt «Goodbot» , ein Chatbot, der moralisch richtig entscheiden soll.

Wenn dumme Maschinen zu Entscheidungsträgern werden

Mit solch heiklen Fragen beschäftigt sich Oliver Bendel. Der Philosoph und Wirtschaftsinformatiker lehrt und forscht an der Fachhochschule Nordwestschweiz (FHNW), unter anderem auch im Bereich Maschinenethik. Bendel ist dafür, dass Maschinen Moral einprogrammiert wird. Aber nur «einfachen» Maschinen: «Das sind Maschinen, die vorher dumm waren und jetzt eine kleine Entscheidung in einer übersichtlichen Situation mit wenigen Alternativen treffen können. Eine Entscheidung, die aber für Menschen und Tiere wichtig sein kann.»

Eine Idee für einen «einfachen Roboter» hat Bendel schon entwickelt: Der Staubsauger «Ladybird» soll mithilfe von Bilderkennung und Bewegungssensoren Krabbeltiere vor dem Tod retten. Tierfreunde werden sich freuen. Im Fall der Krabbeltiere ist die Ausgangssituation relativ simpel. Was aber, wenn «moralische Maschinen» in philosophisch hochkomplexen und emotional aufgeladenen Situationen wie im Strassenverkehr oder gar im Krieg zum Einsatz kommen sollen?

Am Ende entscheidet das Gefühl

In Situationen wie diesen sollte der Mensch die Entscheidung nicht der Maschine überlassen, so Bendel. Er warnt deshalb vor vollautomatisierten Kriegsdrohnen: «Wir delegieren Entscheidungen von höchster Tragweite, die Entscheidung über Leben und Tod, an Maschinen. Das ist gefährlich.»

Denn die Maschine hat keine Gefühle. Oft sind diese aber entscheidend: «Viele Menschen halten sich an ein bestimmtes Regelwerk und hängen im Kern einer einfachen Moral an. Aber Reflektion, Empathie und Gewissen kommen bei den meisten Menschen zusätzlich mit ins Spiel.» Das emotionale Manko der Maschine, die Unmöglichkeit, dass sie einen erbarmt, macht dem Menschen Angst. «Die Maschine ist objektiver als der Mensch, sie berechnet. Und das erscheint uns so brutal», erklärt Bendel. Und je moralisch aufgeladener die Situation, desto brutaler scheint dem Menschen die Entscheidung der Maschine.

Globale, moralische Beliebigkeit?

Beiträge zum Thema

Komplexe Ausgangslage versus einfache Ausgangslage: So simpel die Unterscheidung in Sinn oder Unsinn von moralischen Maschinen scheint, so einfach ist es nicht. Windkraftanlagen, die Vögel verschonen. Oder 3D-Drucker, die keine Waffen ausdrucken: Diese intelligenten Selbstbeschränkungen von Maschinen leuchten vielen Menschen ein. Doch der Geschäftsmann, dem jeder gerettete Vogel Windenergie raubt, und der Waffenliebhaber, der sich eine neue Waffe ausdrucken will, würden dieser Logik vehement widersprechen. Persönliche Vorlieben und kulturelle Eigenheiten: Sie beeinflussen die Moral.

Endet das also in einer totalen moralischen Beliebigkeit? Oder gibt es etwa so etwas wie die globale Moral? «Es braucht keine globale Moral. Man darf bestimmte Vorlieben und Geschmäcker berücksichtigen. Man muss die Eigenheiten von moralischen Maschinen einfach eindeutig deklarieren», so Bendel.

Bei «moralischen Maschinen» muss also klar deklariert werden, welchen Zweck sie erfüllen sollen und in welchen Situationen sie gefährlich sind. «Maschinen müssen dressiert werden. Jeder Schritt in Richtung mehr Autonomie für Maschinen bedeutet weniger Autonomie für Menschen.»

Meistgelesene Artikel