Das grosse Versprechen des autonomen Fahrens ist, dass dadurch weniger Unfälle auf den Strassen passieren werden. Denn geschätzte 90 Prozent aller Unfälle sind auf menschliches Fehlverhalten zurückzuführen: überhöhte Geschwindigkeit, Alkohol- und Drogenkonsum oder schlicht Unachtsamkeit.
Industrie und Forschung arbeiten deshalb an immer ausgefeilteren Sensoren und Algorithmen, um dem Risikofaktor Mensch das Steuer aus der Hand zu nehmen. Doch bleibt dann auch die Moral auf der Strecke? Oder kann man einer Maschine ethisches Verhalten einprogrammieren?
Programmierte Moral
Für die gesellschaftliche Akzeptanz autonomer Fahrzeuge sei dies sogar unabdingbar, sind die Technikethikerin Franziska Poszler und der Software-Ingenieur Maximilian Geisslinger von der Technischen Universität München überzeugt. Die Software in unseren Autos müsse in der Lage sein, in unvorhersehbaren Situationen ethisch korrekt zu reagieren.
Die grosse Frage ist: Wie soll sich ein Auto verhalten, wenn sich ein Unfall nicht mehr vermeiden lässt? Soll es die Insassen schützen oder andere Verkehrsteilnehmer? Alte oder junge Menschen? Forscher des Massachusetts Institute of Technology (MIT) haben im Experiment « Moral Machine » tausende solcher Fragen gestellt.
Das Ergebnis: Es gibt deutliche kulturelle Unterschiede. In westlichen Ländern werden Kinder eher geschützt, in China und Japan eher ältere Menschen. Auch die Frage, ob ein Mensch zugunsten mehrerer geopfert werden darf, wird je nach Kultur anders beantwortet.
Diskriminierung von Personengruppen ist verboten
Das Experiment habe die Problematik der ethischen Programmierung erstmals ins Bewusstsein gerückt, betont Poszler. Bei der Programmierung ihres ethischen Algorithmus sei es jedoch nicht entscheidend gewesen. Denn die EU-Kommission hat 2020 Ethik-Empfehlungen veröffentlicht , die Diskriminierung aufgrund von Alter, Geschlecht oder körperlicher Verfassung verbieten.
Der Algorithmus der Münchner Forscher orientiert sich an diesen Empfehlungen und trifft ausgewogenere Entscheidungen als bisherige Algorithmen, die oft Entweder-oder-Entscheidungen treffen mussten. «Bei uns steht immer die Frage im Mittelpunkt: Wie verteilen wir die Risiken im Strassenverkehr gerecht? Das ist eine Weiterentwicklung der Frage, wer soll geopfert werden», betont Maximilian Geisslinger.
Faire Verteilung des Risikos
Der neue Algorithmus bewertet kontinuierlich das Risiko für alle Fahrzeuge und Menschen auf der Strasse. Wenn zum Beispiel ein autonomes Fahrzeug ein Fahrrad überholen will und sich ein Lkw auf der Gegenfahrbahn nähert, berechnet der Ethik-Algorithmus das Gefahrenpotenzial für diverse Fahrmanöver.
Aufgrund dessen trifft der Algorithmus dann eine ethische Entscheidung, zum Beispiel langsamer zu fahren, um den LKW vor dem Überholen passieren zu lassen, oder mehr Abstand zum Radfahrer zu halten. Ziel ist es, Dilemmasituationen zu vermeiden, in denen über Leben und Tod entschieden werden muss.
Derzeit validieren die Forscher die automatisierte Moral noch in Simulationen, bevor sie nächstes Jahr mit dem autonomen Forschungsfahrzeug EDGAR auf der Strasse getestet wird. Der Algorithmus mit den Erkenntnissen der Studie steht dann als Open Source zur Verfügung.