Leiden Roboter in Zukunft genau wie wir?

Rechte für Roboter: Was nach einem Szenario aus einem Science-Fiction-Film klingt, wird real. Denn Roboter gleichen sich dem Menschen an – entwickeln gar ein Empfinden. Doch muss uns Menschen das Wohl der Maschine kümmern? Unbedingt, findet Thomas Metzinger, Professor für Theoretische Philosophie.

Video «Mensch, Roboter! Wenn Maschinen zu denken beginnen» abspielen

Mensch, Roboter! Wenn Maschinen zu denken beginnen

58 min, aus Sternstunde Philosophie vom 15.11.2015

Sie wollen verhindern, dass einst Robotern Leid zugefügt wird. Wie soll ein Roboter denn Leid empfinden? Er empfindet ja nichts.

Thomas Metzinger: Da müssten im Wesentlichen vier Kriterien erfüllt werden. Erstens müsste die Maschine so etwas wie ein inneres Bild der Welt und eines gelebten Moments haben. Zweitens bräuchte sie ein inneres Bild von sich selbst. Zum Beispiel ein Bild ihres eigenen Körpers. Drittens müsste sie sich mit dem Bild ihres eigenen Körpers in dieser Welt identifizieren. Sie müsste sozusagen «dran kleben». Und wenn dann viertens auch noch Zustände mit einem negativen Wert auftauchen – Schmerzen, Gekränktsein, das Nichterfülltsein von Wünschen –, dann könnte man sich vorstellen, dass auch eine Maschine in der Zukunft so leidet wie wir heute leiden.

Wie wahrscheinlich ist es denn, dass wir solche superintelligenten Roboter eines Tages überhaupt entwickeln können?

Einerseits reden schon viele Leute davon, zum Beispiel Owen Holland in England oder bestimmte Forscher in Japan. Auf der anderen Seite glaube ich selbst, dass wir weder morgen noch übermorgen wirklich selbstbewusste Maschinen haben werden. Das Problem bei der Sache ist nur, dass manchmal solche Entwicklungen schneller verlaufen als alle gedacht haben. Es könnte durchaus sein, dass ich mich täusche und dass es neue Zusammenwirkungen, neue Synergie-Effekte zwischen Hirnforschung, Informatik und neuen sehr schnellen Chips gibt, und die dann doch plötzlich dazu führen, dass das erste System sozusagen aufwacht und sich seiner selbst bewusst wird.

Menschen erfinden und entwickeln Roboter, um die Arbeit zu erleichtern. Zum Beispiel arbeiten Roboter am Fliessband, pflegen demente Menschen, putzen Wohnungen. Sie können potenziell machen, was wir wollen – wie Sklaven. Aber sie bleiben nur Maschinen. Wo ist also das Problem?

Mit dem Wort «Sklaven» haben Sie genau das Hauptproblem angesprochen. Was wären die Kriterien dafür, dass wir einer Maschine Rechte und den Status einer Person zuschreiben müssen? Dass sie keinen biologischen Körper hat, ist genauso etwas Ähnliches wie Rassismus, wie wenn man sagt: Leute sind eigentlich keine Personen, weil sie Frauen sind oder eine schwarze Hautfarbe haben. Das kann also kein Argument sein. Und spätestens dann, wenn die erste Maschine Rechte fordert, wenn sie behauptet, dass sie eine Person ist oder für ihre eigene Theorie des Bewusstseins zu argumentieren beginnt, dann sind wir in Schwierigkeiten, dann können wir nicht mehr einfach den Stecker ziehen. Darum sollten wir ein bisschen auf Vorrat nachdenken.

Was konkret kann denn künstlichen Superintelligenzen Unmoralisches widerfahren?

Ich glaube, dass die ersten künstlichen Systeme, in denen so etwas wie Bewusstsein aufzudämmern beginnt, so etwas Ähnliches sein werden wie geistig behinderte Säuglinge. Das heisst: Da wird ganz viel nicht funktionieren, sie werden erleben, dass sie nicht gut funktionieren, viele Fehler machen und vieles nicht verstehen – und darunter werden sie leiden.

Wenn jemand sagen würde, wir wollen zu Forschungszwecken geistig behinderte Säuglinge klonen, um das menschliche Bewusstsein besser zu verstehen, dann würde es einen Aufschrei geben in der Bevölkerung. Aber diese zukünftigen künstlichen Subjekte haben keinen Vertreter in keinem Parlament und in keiner Ethikkommission.

Finden Sie, so wie es Menschenrechte gibt, sollte es Roboterrechte geben? Und wenn ja: Was für Rechte könnten das konkret sein?

Man könnte ja so ähnlich wie in der Tierethik auch an abgestufte Rechte und abgestuften Personenstatus denken. Aber jedes Wesen, das zum Beispiel sich seiner Existenz bewusst ist und ein Interesse daran hat, nicht zu sterben, also seine Existenz zu erhalten, das muss man respektieren. Man kann nicht ohne guten Grund so ein Wesen abschalten oder schlachten. Wenn sich der Wille zum Dasein auch einmal in Maschinen ausdrücken sollte, muss man das respektieren.

Wie soll man sich denn auf diese neuartigen ethischen Herausforderungen vorbereiten – unter dem Vorbehalt, dass man noch nicht genau weiss, was man genau entwickeln wird?

Man soll Risiken minimieren und immer auf der sicheren Seite bleiben. Das heisst: Wenn man nicht weiss, ob man nicht durch Zufall eine Evolution zweiter Stufe lostreten wird, die man nicht mehr unterbinden kann, allein aus ethischen Gründen nicht mehr stoppen darf, dann sollte man erstmal ein Moratorium einführen und sowas nicht machen.

Sendung: SRF 2 Kultur, Kultur kompakt, 13.11.2015,12:10 Uhr.