Zum Inhalt springen

Header

Video
Mensch und Maschine – «Blade Runner» wird immer aktueller
Aus Kulturplatz vom 06.11.2019.
abspielen. Laufzeit 8 Minuten 53 Sekunden.
Inhalt

Wie real ist «Blade Runner»? «Entscheide über Leben und Tod überlasse ich ungern Maschinen»

Der Science-Fiction-Film «Blade Runner»spielt im November 2019. Der Film von 1982 handelt von Robotern, die menschliche Gefühle hegen und von uns fast nicht mehr unterscheidbar sind.

Wo ist die Science-Fiction heute bereits Realität? Die Technikphilosophin Catrin Misselhorn forscht zu Künstlicher Intelligenz und Roboterethik.

Catrin Misselhorn

Catrin Misselhorn

Technikphilosophin

Personen-Box aufklappen Personen-Box zuklappen

Catrin Misselhorn ist Professorin für Philosophie an der Georg-August-Universität Göttingen. Zu ihren Forschungsschwerpunkten zählen die Philosophie der Künstlichen Intelligenz sowie Roboterethik. Zuletzt veröffentlichte sie das Buch «Grundfragen der Maschinenethik» (Reclam, 2018).

SRF: Welche Szenarien aus Science-Fiction-Filmen sind heute bereits denkbar?

Catrin Misselhorn: Das Thema der androiden Roboter ist sicher etwas, das uns heute schon beschäftigt. Man diskutiert ja die Möglichkeit, dass man vielleicht im Verlauf der nächsten Dekaden Künstliche Intelligenz auf dem Niveau menschenähnlicher Intelligenz oder sogar noch darüber erschaffen kann.

Filmszene: eine Frau raucht eine Zigarette und schaut in die Kamera
Legende: Im Film «Blade Runner» gibt es im Jahr 2019 Roboter, die kaum mehr von Menschen zu unterscheiden sind. Warner Bros.

Die Debatte ist also präsent, die Technologie natürlich noch nicht. Aber da zeigt sich die Rolle von Science-Fiction: Sie muss sich nicht mit dem technisch Machbaren beschäftigen.

Es geht auch darum, in Zusammenhang mit Zukunftstechnologien zu erhellen, wer wir eigentlich sind, was uns Menschen ausmacht. Wie verändert uns die Interaktion mit bestimmten Technologien? Welche gesellschaftlichen Folgen hat das? Science-Fiction bietet die Möglichkeit zu einer ethischen Reflexion.

Eine Maschine hat nicht diesen moralischen Spielraum, den Menschen haben.

Können Maschinen moralisch handeln?

Ich forsche viel im Bereich der Pflege. Ein Pflegeroboter muss zum Beispiel Medikamente abgeben. Wie oft soll er den Menschen daran erinnern? Je öfter, desto besser? Oder soll er darauf Rücksicht nehmen, dass es Nutzer gibt, die das nervt und die sich in ihrer persönlichen Freiheit eingeschränkt fühlen?

Der Roboter muss gesundheitliche Risiken gegen die Autonomie des Nutzers abwägen. Eine solche Situation erfordert eine einfache moralische Entscheidung.

Mir schwebt ein System vor, das sich auf den Nutzer einstellen kann, weil unterschiedliche Menschen eben unterschiedliche Moralvorstellungen haben.

Maschinenethik

Box aufklappen Box zuklappen

Die Maschinenethik ist eine Disziplin an der Schnittstelle von Philosophie, Informatik und Robotik. Sie befasst sich mit der Möglichkeit, künstliche Intelligenz mit der Fähigkeit zu moralischem Handeln auszustatten. Anwendungsbereiche sind etwa das autonome Fahren, der Pflegebereich und die Militärrobotik. Man könnte zwar argumentieren, dass nicht die Maschine sondern der Programmierer moralische Entscheidungen trifft. Doch je größer die Fortschritte der Künstlichen Intelligenz werden, desto weniger können die Entwickler planen und vorhersagen, welche Entscheidungen ein System in einer spezifischen Situation treffen wird.

Wie unterscheidet sich da die Maschine vom Menschen?

Moralisches Handeln beim Menschen bezieht sich auf viel mehr Aspekte. Da spielt Bewusstsein eine Rolle, die Reflexion über unsere moralischen Werte und die Moralbegründung. Die Willensfreiheit spielt eine grosse Rolle – also auch die Möglichkeit, sich unmoralisch zu verhalten. Alle diese Fähigkeiten haben Maschinen nicht.

Filmszene: Ein Mann zielt mit einer Pistole auf ein nicht sichtbares Ziel
Legende: Harrison Ford als Rick Deckard in «Balde Runner». Ob er Mensch oder Maschine ist, bleibt im Film ungewiss. Warner Bros.

Dennoch werden Maschinen immer wichtigere Entscheidungen treffen müssen.

Bei selbstfahrenden Autos diskutiert man öffentlich intensiv die Dilemma-Situationen. Was passiert, wenn ein selbstfahrendes Auto in eine Situation kommt, in der es nur die Option hat: Die eine oder die andere Gruppe von Menschen anzufahren? Wie ist der Schutz der Autoinsassen zu bewerten gegenüber den Fussgängern auf der Strasse? Wie sollte ein System in solchen Fällen entscheiden?

Ich möchte dazu sagen, dass ich in diesem Bereich skeptisch bin und ungern den Maschinen die Entscheidung über Leben und Tod übertrage.

Auch Menschen sind bei solchen Entscheidungen überfordert.

Ja, und diese Art von Entscheidungen können wir auch nicht isoliert treffen. Sie sind ganz stark von der jeweiligen Situation abhängig. Häufig würden wir ja schon die Abwägung als unmoralisch empfinden. Etwa die Frage, ob ein System meinen Ehemann oder auf der Strasse spielende Kinder retten soll. Das kann man nicht im Vorfeld entscheiden.

Menschen haben da die grundlegende Fähigkeit, sich immer auch anders zu entscheiden. Diese Fähigkeit hat eine Maschine nicht, sie hat nicht diesen moralischen Spielraum, den Menschen haben.

Das Gespräch führte Meili Dschen.

Meistgelesene Artikel