Zum Inhalt springen
Eine Grafik mit einem Auto und Passanten. Zwei Szenarien: entweder die eine oder die andere Gruppe stirbt.
Legende: Welche Entscheidung soll das Auto treffen? Eines der vielen Szenarien der «Moral Machine». The Moral Machine

Studie zu autonomen Autos Alte Frau oder Kind – wer soll sterben?

Wie soll ein selbstfahrendes Auto entscheiden, wenn es zu einem Unfall kommt? Soll die ältere Frau oder das Kind auf der Strasse überleben? Eine weltweite Studie zeigt erstaunliche Resultate.

Forscher des Massachusetts Institut of Technology in Boston (MIT) haben 2014 eine weltweite Umfrage gestartet. In der sogenannten Moral Machine konnten Nutzer verschiedene Szenarien bei Autounfällen durchspielen.

Zum Beispiel: Wenn ein selbstfahrendes Auto auf einen Fussgängerstreifen zufährt und die Bremsen versagen, konnte man zwischen zwei Optionen wählen:

  1. Das Auto bleibt auf der Fahrbahn, eine ältere Frau kommt zu Tode.
  2. Das Auto weicht auf die andere Fahrspur aus, ein Kind stirbt.

In weiteren Szenarien musste man sich entscheiden: Mensch oder Tier? Mehr Leben oder weniger Leben? Frau oder Mann? Arm oder reich?

Über 40 Millionen Entscheidungen

Die Webseite des MIT stiess auf reges Interesse. 8,5 Millionen Menschen aus 233 Ländern haben mitgemacht und über 40 Millionen Entscheidungen getroffen. Die «Moral Machine» ist damit eine der grössten Studien, die je zu moralischen Fragen gemacht wurde.

Die Resultate wurden kürzlich in der Fachzeitschrift Nature veröffentlicht. Und sie geben einen interessanten Einblick in die ethischen Werte verschiedener Kulturen.

Zwei Männer in einem Auto, die Hände sind nicht am Lenkrad. Das Auto fährt autonom.
Legende: Wie soll ein selbstfahrendes Auto entscheiden, wenn es zu einem Unfall kommt? Keystone

Ältere Menschen sind in China mehr wert

Die Forscher fanden zum Beispiel heraus, dass die getroffenen Entscheidungen stark mit der Kultur der Länder zusammenhängen. Kollektivistische Länder wie China oder Japan verschonen zum Beispiel eher ältere Personen als Kinder. Die Forscher vermuten, weil diese Länder grossen Wert auf Respekt vor älteren Menschen legen.

Auch verblüffend: Die Anzahl von Menschen, die bei den Szenarien sterben würden, ist nicht überall auf der Welt ausschlaggebend. Vor allem individualistische Kulturen wie die USA oder England versuchen immer, möglichst viele Leben zu retten.

Menschenwürde ist unantastbar

Die Studie sollte man trotzdem mit Vorsicht zur Kenntnis nehmen. Schliesslich geben die Teilnehmer nur Einschätzungen ab. Ob man sich in einer echten Situation auch so verhält wie bei der Umfrage, ist fragwürdig.

Das sagt auch Armin Grunwald, Leiter vom Karlsruher Institut für Technologie: «Aus Umfragen gewinnt man nie Informationen darüber, was ethisch legitim geboten und erlaubt ist, sondern nur, was die Menschen darüber denken. Daraus folgt aber nicht, dass dies ethisch richtig ist.»

Als Mitglied der Ethikkommission des deutschen Bundesministeriums für Verkehr, hat Armin Grunwald am Bericht «Autonomes und vernetztes Fahren» mitgearbeitet. Und da steht: «Der Algorithmus darf nicht Menschen nach unterschiedlichen Werten abwägen. Das ist in Deutschland verboten. Bei uns gilt: die Menschenwürde ist unantastbar. Und da ist es egal, welcher Mensch das ist.»

Es gibt keine richtige Entscheidung

Was also müsste das Programm konkret in einer solchen Situation tun, wie sie in der «Moral Machine» vorkommt? «Im Prinzip kann sie nur eine Notbremsung machen. Oder sie müsste nach Zufallsgenerator reagieren. Es gibt ja keine richtige Entscheidung.»

Wichtig ist, dass man diese Fragen in einen grösseren Zusammenhang stellt. Weltweit kommen jährlich 1,2 Millionen Menschen auf der Strasse zu Tode. Mit selbstfahrenden Autos könnte man vermutlich die meisten dieser Unfälle verhindern.

«Autonome Fahrzeuge reagieren besser als Menschen»

Box aufklappen Box zuklappen
Legende: ETH Zürich

SRF: Wieviel Macht soll ein Auto haben?

Roland Siegwart: Autonome Fahrzeuge können viel besser reagieren, als Menschen. Sie sind immer wachsam und würden in solchen Situationen wahrscheinlich eine Lösung finden, bei der kein Mensch verletzt wird.

Ich glaube die Frage wäre eher: Wie können wir Maschinen optimieren, dass nur ein minimales Risiko besteht, dass ein Mensch zu Schaden kommt. Unabhängig, was das für ein Mensch ist.

Autonome Fahrzeuge sind den Menschen überlegen?

Wir machen ja alle die Fahrprüfung und werden auch nicht an diesen Situationen getestet. Grundsätzlich müsste man die Frage stellen: Können wir Menschen als Fahrer zulassen, die in diesen Situationen völlig falsch reagieren würden?

Es gibt Untersuchungen, die zeigen, dass der Mensch in Stresssituationen typischerweise eher falsch reagiert. Und genau das macht, was man nicht machen sollte – zum Beispiel jemanden überfahren.

Wenn Sie solche autonomen Systeme und Maschinen konstruieren, sind solche ethischen Fragen ein Thema?

Unser Ziel ist, dass unsere Maschinen abschätzen können, wo der Mensch sich mit grösster Wahrscheinlichkeit hinbewegt. Und dann optimale Wege plant, wo das Risiko minimal ist, dass es überhaupt zu einer Interaktion kommen kann zwischen Mensch und Maschine.

Sendung: Kultur aktuell, Radio SRF 2 Kultur, 26.10.2018, 06.50 Uhr

Meistgelesene Artikel