Zum Inhalt springen

Header

Inhalt

Wenn Google die Moral von Maschinen festlegt, gibt es Probleme

Fünf Tech-Giganten – Google, IBM, Facebook, Amazon und Microsoft – stecken ihre Köpfe zusammen für die Weiterentwicklung von künstlicher Intelligenz. Für Maschinenethiker Oliver Bendel ist das ein Problem: Konzerne sind schneller und kompetenter als die Politik, aber von Eigeninteressen gesteuert.

Oliver Bendel

Box aufklappen Box zuklappen
Legende: Kai R. Joachim

Oliver Bendel lehrt und forscht als Professor für Wirtschaftsinformatik an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW, mit den Schwerpunkten E-Learning, Wissensmanagement, Social Media, Wirtschaftsethik, Informationsethik und Maschinenethik.

Unternehmen, die eigentlich in Konkurrenz zueinander stehen, schliessen sich zusammen. Warum?

Oliver Bendel: Einige Aufgaben in der künstlichen Intelligenz und in der Robotik können nur – oder schneller – gemeinsam gelöst werden.

Alle arbeiten zum Beispiel daran, wie sich selbstfahrende Autos verhalten sollen, wenn die Bremse versagt. Manche beschäftigen sich mit der Frage eines künstlichen Gewissens im Bereich der Kampfrobotik: Der Roboter hat das Zielobjekt erfasst, allerdings stehen zehn Kinder drum herum. Wie kann man der Maschine beibringen, in diesem Moment nicht zu feuern?

Ziel des Zusammenschlusses der fünf Unternehmen ist also auch, bestimmte Verhaltensregeln für künstliche Intelligenz festzulegen.

Sind grosse Technologie-Konzerne die Richtigen, um die «Moral» von Maschinen festzulegen oder ethische Leitlinien zu entwickeln?

Ich bin da skeptisch. Zunächst einmal halte ich solche Selbstverpflichtungen von Unternehmen für etwas Positives. Aber es handelt sich hier um problematische Firmen, die alle bereits massiv gegen Persönlichkeitsrechte verstossen haben.

Ein Beispiel: Google hat mit den Street-View-Autos Recht gebrochen. Wir müssen zu Google selbst gehen, um uns zu beschweren. Das ist so, als würde einem auf der Strasse jemand ins Gesicht hauen und wir müssten bei dieser Person Beschwerde einreichen, statt bei der Polizei.

Ist das formulierte Ziel, gemeinsam ethische Grundregeln zu erarbeiten, vor allem ein Scheingrund, hinter dem etwas ganz anderes steht?

Das glaube ich nicht unbedingt. Die Unternehmen spüren die starke Kritik an künstlicher Intelligenz und Robotik und wollen dieser durchaus konstruktiv begegnen.

Sie wollen sich Selbstverpflichtungen auferlegen, eigene Massstäbe entwickeln. Aber ich glaube nicht, dass das in diesem Bereich reicht.

Wenn Informatiker oder Robotiker gegen Richtlinien arbeiten, kann man eigentlich nichts tun.

Anwälte und Ärzte etwa verschreiben sich auch Selbstverpflichtungen. Über die Verbände können Leute, die sich nicht konform verhalten, von der Berufsausübung ausgeschlossen werden.

Wenn Informatiker oder Robotiker gegen Richtlinien arbeiten, kann man eigentlich nichts tun. Ausser sie aus den Verbänden auszuschliessen, in denen die meisten aber sowieso nicht Mitglied sind.

Müssen also vielmehr Politik und Wissenschaft aktiv werden, wenn es um die Moral von Maschinen und von Programmierern geht?

Ja, das tun sie auch. Der Vorteil der Unternehmen ist aber: Sie sind schnell und sie haben unheimlich viel Geld für grosse Forschungsabteilungen. Während die Politik vier Jahre braucht, brauchen die Unternehmen zwei Monate.

Die Firmen kennen sich ausserdem gut aus. Als der deutsche Bundesverkehrsminister Dobrindt eine Ethikkommission eingerichtet hat, war man erstaunt, dass da auch ein Weihbischof drin sitzt – der von autonomen Autos absolut nichts versteht.

Worin sehen Sie die grösste Gefahr, wenn Sie darüber nachdenken, dass fünf grosse Daten-Konzerne zusammen an künstlicher Intelligenz schaffen?

Ich glaube nicht, dass die Gefahr besteht, dass die Maschinen die Weltherrschaft übernehmen – das ist Science-Fiction. Die grössere Gefahr liegt in der Datennutzung. Hier spannen Unternehmen zusammen, die sich in Bezug auf die Datenmenge und -analyse nicht zurücknehmen werden – ganz im Gegenteil. Was uns droht, ist ein Zeitalter der Komplettüberwachung.

Je mehr Maschinen wir einsetzen, desto mehr müssen wir uns an das Verhalten der Maschinen anpassen. Ich denke da zum Beispiel an Postroboter oder Überwachungsroboter.

Wir verlieren an Autonomie, wenn wir Maschinen mehr Autonomie zugestehen.

Schlimm wird es, wenn Überwachungskameras nicht mehr dumme Maschinen sind, sondern künstlich intelligent. In der Shopping-Mall in Stanford rollt der Überwachungsroboter K5 herum und schaut nach Auffälligkeiten.

Wenn Sie zu schnell rennen oder eine Flasche fallen lassen, dann kommen Sie sofort in seinen Radar und unter Umständen wird direkt der Sicherheitsdienst alarmiert. Wir verlieren also an Autonomie, weil wir den Maschinen mehr Autonomie zugestehen.

Meistgelesene Artikel