Eine neue wissenschaftliche Untersuchung zeigt: Menschen sind zu Maschinen nicht besonders nett . Gegenüber einem Roboter oder einem intelligenten Automaten verhalten wir uns jedenfalls rücksichtsloser als gegenüber unseren Mitmenschen. Das kann gefährlich werden, sagt Jurgis Karpus, einer der Co-Autoren der Studie.
SRF: Warum sind Menschen rücksichtlos gegenüber Maschinen?
Jurgis Karpus: Man könnte vermuten, dass Menschen den Maschinen nicht trauen. Dem ist aber nicht so. Experimente zeigen: Menschen trauen der Maschine sehr wohl. Aber sie wissen auch: Die Maschine ist nicht verletzt wie ein Mensch, wenn man sie schlecht behandelt. Darum handeln manche Menschen gegenüber Maschinen rücksichtsloser.
Dann knallt's.
Was ist das Problem, wenn der Mensch die Maschine anders behandelt als seine Mitmenschen?
Wir haben es heute mit unterschiedlichen Maschinen zu tun. Google Translate zum Beispiel ist ein Tool – ich gebe meinen Text ein, er wird übersetzt. Da brauche ich nicht gross zu interagieren.
Aber ein selbstfahrendes Auto ist etwas ganz anders. Ein Robo-Taxi etwa ist für den Fahrgast etwas, das er oder sie nutzt. Aber für die anderen Autofahrerinnen oder die Fussgänger ist es etwas, mit dem sie interagieren müssen – so wie sie mit anderen Verkehrsteilnehmern interagieren. Mal lässt man den Vortritt, mal nicht.
Aber eben: Maschinen gegenüber sind wir nicht so kooperativ. Das kann gefährlich werden. Geht das selbstfahrende Auto davon aus, dass es zuerst fahren darf, wenn es Vortritt hat – aber der Mensch sich nicht darum schert, dann knallt's.
Aber die Maschine ist doch lernfähig?
Ja, aber im schlimmsten Fall schaut sie uns Menschen das «schlechte Benehmen» ab. Nehmen wir an, die Maschine – also hier das Robo-Taxi –ist darauf programmiert, dass die anderen Verkehrsteilnehmer kooperieren. Wenn die Künstliche Intelligenz aber lernt, dass die anderen das eben nicht immer tun, könnte es rein theoretisch sein, dass die Maschine lernt, sich auch nicht mehr kooperativ zu verhalten.
Eine Lösung wäre, dass es eine eigene Spur nur für selbstfahrende Autos gibt.
Wie will die Forschung dieses Problem lösen?
Eine Möglichkeit ist, dass man den Verkehrsteilnehmern Informationen vorenthält. Dass sie gar nicht wissen, dass das Taxi ein selbstfahrendes Auto ist – dank dunklen Scheiben oder einem Dummy am Steuer, der wie ein Chauffeur aussieht. Aber das ist natürlich ethisch problematisch.
Eine andere Lösung wäre, dass selbstfahrende Autos nur mit anderen Maschinen interagieren. Etwa, indem sie eine eigene Spur erhalten. Oder eine dritte Möglichkeit: Man trainiert sie so, dass sie Situationen ausweichen, wo es problematisch werden könnte – stauanfällige Strassen etwa.
Oder man lässt es ganz bleiben. Denn: Letztlich ist in der Interaktion mit der Maschine immer der Mensch das Problem, weil er sich oft nicht ganz rational verhält.