«Wer aus einem derartigen Unfall nichts lernen will, ist dumm»

Der Bund verfolgt den ersten tödlichen Unfall mit einem selbstfahrenden Auto genau. Denn er arbeitet zur Zeit an neuen Verkehrsregeln für intelligente Autos. Und muss mit entscheiden, wer im Fall eines Unfalls verantwortlich ist. Keine leichte Aufgabe, denn es stellen sich auch moralische Fragen.

Ein Auto, auf der Heckscheibe steht "Dieses Auto fährt selbst. Wer drin sitzt, fährt mit." Bild in Lightbox öffnen.

Bildlegende: Wer heute in der Schweiz ein selbstfahrendes Auto benutzen möchte, braucht eine Sonderbewilligung. Wie hier in Zürich. Keystone

Nach dem tödlichen Unfall mit einem selbstfahrenden Tesla in den USA stellt sich die Frage: Wer ist schuld? Das Auto oder der Fahrer?

In der Schweiz wäre der Fall heute klar: Bei einem Unfall ist immer der Fahrer verantwortlich. Auch wenn er einen Spur- oder Tempoassistenten eingeschaltet hatte.

Das könnte sich in Zukunft ändern. Denn im zuständigen Bundesamt für Strassen Astra tüftelt man an neuen Regeln für intelligente Autos, erzählt Mediensprecher Thomas Rohrbach. Ein Beispiel: Ein intelligentes Auto bremst effizienter als ein Mensch. Deshalb könnte es in Zukunft näher an das vor ihm fahrende Auto aufschliessen dürfen. Nur: Was passiert, wenn es dann doch nicht reicht und es zu einem Unfall kommt?

«  Unsere Gesellschaft verzeiht gewisse menschliche Fehler. Bei Maschinen sind wir viel weniger tolerant. »

Thomas Rohrbach
Mediensprecher des Astra

Zusatzinhalt überspringen

Autonomes Postauto: kein Stopp

Autonomes Postauto: kein Stopp

Postauto hält nach dem tödlichen Unfall am Test mit zwei selbstfahrenden Postautos fest. Dieses fährt zur Zeit durch Sion. «Bei uns hat die Sicherheit einen hohen Stellenwert», sagt Postauto-Sprecher Urs Bloch. Zudem sei immer ein Sicherheitsfahrer mit dabei. Den Unfall in den USA schaue man wegen der ähnlichen Technologie aber genau an.

Für Thomas Rohrbach ist klar: «Diese Frage zu beantworten, wird nicht einfach.» Denn während die Gesellschaft - und auch das Gesetz - menschliche Fehler bis zu einem gewissen Masse toleriere, sei sie bei Autos strenger.

Zudem gibt es noch eindrücklichere Beispiele. Ein Kind rennt vor ein selbstfahrendes Auto. Das Auto kann ausweichen, fährt dabei aber entweder in eine Mauer oder in eine Menschenmenge. Was soll es tun?

Lernen aus den Unfällen von heute

«Hier geht es nicht nur um rechtliche Fragen, sondern um moralische», sagt Thomas Rohrbach. Diese moralischen Fragen müsse die Politik in den nächsten Jahren beantworten. Und dabei wird der tödliche Unfall in den USA bestimmt eine Rolle Spielen. Denn Thomas Rohrbach findet: «Wer aus einem derartigen Unfall nichts lernen will, ist dumm.»

Kunden bevorzugen «unmoralische Autos»

Rein technisch könnte man den selbstfahrenden Autos die Informationen, die sie für moralische Entscheidungen brauchen, auch einfach vorenthalten. Eine Studie im Wissenschaftsmagazin «Science» deutet darauf hin, dass die Kunden dies sogar bevorzugen würden.

In einer Umfrage fanden sie es zwar gut, wenn andere ein moralisches Auto kaufen. Sie selber hätten sich aber für ein «dummes» Auto entschieden. Das im entscheidenden Moment nicht abwägt, ob es die Insassen des Autos opfern soll oder das Kind, das vor das Auto rennt.

Sendungsbeitrag zu diesem Artikel

  • Todesfall mit Tesla-«Autopilot»

    Aus Tagesschau vom 1.7.2016

    Erstmals ist der Fahrer eines Tesla -Elektrowagens bei einem Unfall ums Leben gekommen. Gemäss Tesla erkannte das Fahrassistenz-System einen Lastwagen-Anhänger nicht, der den Fahrweg kreuzte.