Zum Inhalt springen

Header

Audio
Buchbesprechung: «Künstliche Intelligenz und Empathie»
Aus Kontext vom 12.04.2021.
abspielen. Laufzeit 15:38 Minuten.
Inhalt

Künstliche Intelligenz Was passiert, wenn uns Roboter trösten?

Die Philosophin Catrin Misselhorn hat ein Buch über das Zusammenleben mit Künstlicher Intelligenz geschrieben – und was das mit uns Menschen macht.

Maschinenwesen, die eigene Gefühle entwickeln und die von den Menschen als bedrohliche Konkurrenz angesehen werden – das gibt es bisher nur in Science-Fiction-Filmen wie «Blade Runner».

Auch wenn der menschengleiche Roboter noch Zukunftsmusik ist – die Forschung hat in den letzten Jahrzehnten bereits Maschinen geschaffen, die erstaunlich weit entwickelt sind: In Ländern wie Japan gehören nette Pflege-Roboter bereits zum Alltag in Altenheimen und Spitälern.

Was machen menschenähnliche Maschinen mit uns?

Es gibt Hotels mit freundlichen Empfangs-Robotern. Computersysteme, die Diagnose-Gespräche führen können – und es gibt Sex-Puppen, die erstaunlich menschenähnliche Merkmale haben.

Video
Roboter Pepper: Charmant aber noch wenig intelligent
Aus Einstein vom 13.04.2017.
abspielen

Die Philosophin Catrin Misselhorn geht in ihrem neuen Buch «Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sex-Robotern und Co.» der Frage nach, was das für uns Menschen bedeutet, wenn wir unseren Alltag mit mehr und mehr Maschinenwesen teilen. Mit Maschinen, die über eine menschenähnliche Intelligenz verfügen.

Über eine Intelligenz also, die mit Emotionalität gekoppelt ist. Denn die kognitiven Fähigkeiten des Menschen sind eng an seine Fähigkeit gekoppelt, emotional mit seiner Umwelt in Kontakt zu treten.

Auslegeordnung der Künstlichen Intelligenz

In dem Band macht die Expertin für Maschinenethik eine Art Auslegeordnung: Was ist KI? Was kann KI? Wo stehen wir mit der Forschung? Wo wollen wir hin?

Buchhinweis:

Box aufklappen Box zuklappen

Catrin Misselhorn: «Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sex-Robotern und Co.», Reclam, 2021.

Catrin Misselhorn stellt auch einige technische Möglichkeiten für KI vor und diskutiert die daran geknüpften ethischen Fragestellungen.

Wozu überhaupt Emotionen?

Auf engem Raum reisst sie viele Fragen an. Wozu braucht es Emotionen? Was sind überhaupt Emotionen? Was unterscheidet Emotionen von Stimmungen, von Empfindungen? Wie kann man einer Maschine beibringen, Emotionen zu lesen?

Eine Möglichkeit ist die visuelle Emotionserkennung. Dabei lassen sich bestimmte Punkte im Gesicht markieren, deren Veränderung etwas über die Emotionen einer Person verraten: Augenbrauen, Augenlider oder auch Mundwinkel.

Stimmanalysen für Bewerbungsverfahren

Eine weitere Möglichkeit bietet die Stimmanalyse: Eine Methode, die nicht nur Rückschlüsse auf die aktuelle Gestimmtheit einer Person zulässt. Forschende hoffen anhand von Stimmanalysen auch grundsätzliche Aussagen über den Charakter einer Person machen zu können.

In den USA gibt es bereits Überlegungen, ob solche Stimmanalyseverfahren auch in Bewerbungsprozessen eingesetzt werden können.

Menschen reagieren emotional – auch auf Maschinen

Solche kleinen Exkurse zeigen: Die mit der KI-Entwicklung verbundenen Forschungen sind sehr weitreichend und können sich in vielen Bereichen auf die Gesellschaft und das Leben Einzelner auswirken.

Künstliche Intelligenz beeinflusst Menschen allerdings auch dadurch, dass die meisten emotional reagieren, wenn sie mit einem anderen Wesen kommunizieren – und sei es mit einem Maschinenwesen.

Catrin Misselhorn beschreibt das sehr eindrucksvoll in einer Passage über das Computer-Programm ELIZA, das in den 1960er-Jahren vom Informatiker Joseph Weizenbaum für den Einsatz auf dem Gebiet der Psychotherapie entwickelt wurde:

Auszug aus «Künstliche Intelligenz und Empathie»

Box aufklappen Box zuklappen

«ELIZA imitierte so überzeugend ein psychotherapeutisches Gespräch, dass viele Patienten sich gut verstanden fühlten, und zwar selbst dann, wenn sie um die maschinelle Natur ihres Gesprächspartners wussten.

Die Funktionsweise dieses Programms ist einfach. Die Kommunikation erfolgt schriftlich über ein Display. Die Eingaben der Nutzer werden nach bestimmten Schlüsselwörtern wie «Vater» oder «Ich» abgesucht.

Diese werden dann in schematischen Rückfragen aufgegriffen, beispielsweise: «Erzählen Sie mir mehr über Ihren Vater!» (…) Sollte das Programm keine Schlüsselwörter finden, reagiert es mit Floskeln wie «Erzählen Sie mir mehr darüber!»


Menschen können sehr emotional auf Maschinen reagieren. Sie trauen den Maschinen Empathie zu. Sie können ihrerseits auch Empathie mit Robotern haben. Das könne durchaus sinnvoll sein, sagt Catrin Misselhorn.

Es zeuge von Menschlichkeit, auch in Maschinen ein echtes Gegenüber sehen zu können. Es kann aber auch zu Problemen führen. Die Maschinen-Ethikerin spricht diese und viele andere Fragen rund um das Leben mit KI an – und regt an, das Thema weiterzuverfolgen und weiterzudenken.

SRF2 Kultur, Kontext: 12.04.2021, 17:58 Uhr

Meistgelesene Artikel

Nach links scrollen Nach rechts scrollen

4 Kommentare

Navigation aufklappen Navigation zuklappen

Sie sind angemeldet als Who ? (whoareyou) (abmelden)

Kommentarfunktion deaktiviert

Uns ist es wichtig, Kommentare möglichst schnell zu sichten und freizugeben. Deshalb ist das Kommentieren bei älteren Artikeln und Sendungen nicht mehr möglich.

  • Kommentar von Herbert Gaug  (hga)
    Die angestrebte Entwicklung solcher "menschenähnlicher" Roboter wird verheerende Folgen haben. Die Entmenschlichung wird durch solche Maschinen weiter angetrieben.
    1. Antwort von Nadia Makita  (NadiaMakita)
      Für eine "Entmenschlichung" müssten wir zuerst mal definieren, was menschlichkeit für uns bedeutet und ich denke gerade die Pandemie hat uns gezeigt dass wir alle unterschiedliche Normen und Werte haben.
  • Kommentar von Werner Gürr  (FrMu)
    "ELIZA imitierte so überzeugend ein psychotherapeutisches Gespräch, dass viele Patienten sich gut verstanden fühlten, und zwar selbst dann, wenn sie um die maschinelle Natur ihres Gesprächspartners wussten."
    Wie würden Psychotherapeuten dieser Beobachtung kommentieren? Vielleicht würden sie darauf hinweisen, dass Therapie eher dann geschieht, wenn sich Patienten NICHT gut verstanden fühlen und trotzdem dran bleiben. Effektive Psychotherapie ist vieles aber sicher keine Wohlfühlübung.
    1. Antwort von Nadia Makita  (NadiaMakita)
      Effektive Psychotherapie ist nur in einem Umfeld möglich in dem man sich sicher und verstanden fühlt.
      Sicher kann Therapie bei Menschen die sich nicht von ihrem Therapeut verstanden fühlen, auch funktionieren.
      Aber wenn der Mensch sich nicht wohl und verstanden fühlt wird er sich ja wohl kaum öffnen und auch kaum offen und ehrlich über Lösungsansätze reden können.