Zum Inhalt springen

Header

Audio
Studie: Rücksichtslose Menschen vs. gutmütige Maschinen
Aus Kultur-Aktualität vom 14.06.2021.
abspielen. Laufzeit 03:13 Minuten.
Inhalt

Interaktion im Alltag Mensch mobbt Maschine – das kann böse enden

Eine neue wissenschaftliche Untersuchung zeigt: Menschen sind zu Maschinen nicht besonders nett. Gegenüber einem Roboter oder einem intelligenten Automaten verhalten wir uns jedenfalls rücksichtsloser als gegenüber unseren Mitmenschen. Das kann gefährlich werden, sagt Jurgis Karpus, einer der Co-Autoren der Studie.

Jurgis Karpus

Jurgis Karpus

Personen-Box aufklappen Personen-Box zuklappen

Jurgis Karpus ist Spieltheoretiker. Er untersucht, wie Menschen sich verhalten untereinander – oder eben gegenüber Maschinen oder Robotern.

SRF: Warum sind Menschen rücksichtlos gegenüber Maschinen?

Jurgis Karpus: Man könnte vermuten, dass Menschen den Maschinen nicht trauen. Dem ist aber nicht so. Experimente zeigen: Menschen trauen der Maschine sehr wohl. Aber sie wissen auch: Die Maschine ist nicht verletzt wie ein Mensch, wenn man sie schlecht behandelt. Darum handeln manche Menschen gegenüber Maschinen rücksichtsloser.

Dann knallt's.
Autor: Jurgis Karpus Spieltheoretiker

Was ist das Problem, wenn der Mensch die Maschine anders behandelt als seine Mitmenschen?

Wir haben es heute mit unterschiedlichen Maschinen zu tun. Google Translate zum Beispiel ist ein Tool – ich gebe meinen Text ein, er wird übersetzt. Da brauche ich nicht gross zu interagieren.

Aber ein selbstfahrendes Auto ist etwas ganz anders. Ein Robo-Taxi etwa ist für den Fahrgast etwas, das er oder sie nutzt. Aber für die anderen Autofahrerinnen oder die Fussgänger ist es etwas, mit dem sie interagieren müssen – so wie sie mit anderen Verkehrsteilnehmern interagieren. Mal lässt man den Vortritt, mal nicht.

Aber eben: Maschinen gegenüber sind wir nicht so kooperativ. Das kann gefährlich werden. Geht das selbstfahrende Auto davon aus, dass es zuerst fahren darf, wenn es Vortritt hat – aber der Mensch sich nicht darum schert, dann knallt's.

Aber die Maschine ist doch lernfähig?

Ja, aber im schlimmsten Fall schaut sie uns Menschen das «schlechte Benehmen» ab. Nehmen wir an, die Maschine – also hier das Robo-Taxi –ist darauf programmiert, dass die anderen Verkehrsteilnehmer kooperieren. Wenn die Künstliche Intelligenz aber lernt, dass die anderen das eben nicht immer tun, könnte es rein theoretisch sein, dass die Maschine lernt, sich auch nicht mehr kooperativ zu verhalten.

Eine Lösung wäre, dass es eine eigene Spur nur für selbstfahrende Autos gibt.
Autor: Jurgis Karpus Spieltheoretiker

Wie will die Forschung dieses Problem lösen?

Eine Möglichkeit ist, dass man den Verkehrsteilnehmern Informationen vorenthält. Dass sie gar nicht wissen, dass das Taxi ein selbstfahrendes Auto ist – dank dunklen Scheiben oder einem Dummy am Steuer, der wie ein Chauffeur aussieht. Aber das ist natürlich ethisch problematisch.

Eine andere Lösung wäre, dass selbstfahrende Autos nur mit anderen Maschinen interagieren. Etwa, indem sie eine eigene Spur erhalten. Oder eine dritte Möglichkeit: Man trainiert sie so, dass sie Situationen ausweichen, wo es problematisch werden könnte – stauanfällige Strassen etwa.

Oder man lässt es ganz bleiben. Denn: Letztlich ist in der Interaktion mit der Maschine immer der Mensch das Problem, weil er sich oft nicht ganz rational verhält.

 

Sendung: Radio SRF 2 Kultur, Kultur Aktualität, 10.6.2021, 8:15 Uhr;

Meistgelesene Artikel

Nach links scrollen Nach rechts scrollen

10 Kommentare

Navigation aufklappen Navigation zuklappen

Sie sind angemeldet als Who ? (whoareyou) (abmelden)

Kommentarfunktion deaktiviert

Uns ist es wichtig, Kommentare möglichst schnell zu sichten und freizugeben. Deshalb ist das Kommentieren bei älteren Artikeln und Sendungen nicht mehr möglich.

  • Kommentar von Katharina Bleuer  (Blk)
    Wo liegt denn Ihrer Meinung nach das Problem, wenn jemand mit menschlichen Fahrern Reissverschluss macht und mit Roboterautos nicht?
    Bzw wie könnte man das lösen, damit der Verkehrsfluss aufrecht erhalten wird?
  • Kommentar von Valentine Marcar  (ValMarcar)
    Wurden da nicht die drei Gesetze der Robotik von isaac Azimov vergessen?
    1) Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
    2) Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.
    3) Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.
    1. Antwort von Urs Müller  (Jackobli)
      Nett, nur sind die Gesetze nur eine Idee, wenn auch eine geniale, wie vieles von Asimov.
      Und zudem führte die Umsetzung schon in seinen Romanen zu Dilemmas, wie denn erst eine der üblichen, fehlerbehafteten Umsetzungen in der realen Welt.
    2. Antwort von Valentine Marcar  (ValMarcar)
      Am Anfang von Allem steht die Idee.
  • Kommentar von Verena Schär  (Nachdenklich)
    SRF, jetzt bringen sie mich aber in Verwirrung. " Mensch mobbt Maschine".

    Da muss ich ja mein Denken bezüglich Mobbing erweitern. Nein, bitte nicht! Verdacht auf Wort/Unwort des Jahres. Sie müssen es nicht anpassen.

    "durch das eigene Verhalten einem Kollegen so lange und intensiv zeigen, dass man ihn nicht mag, dass dieser irgendwann krank wird oder kündigt"

    Wird die Maschine nun krank und kollabiert oder schreibt die Kündigung.