Beim Bezahlen oder beim Musikhören – künstliche Intelligenz ist längst schon in unserem Leben angekommen. Die Codes, die es braucht, um die Geräte zu programmieren, sind für viele leicht zugänglich. Zu leicht, fürchtet der renommierte Forscher Stuart Russell.
SRF News: Welche Art von künstlicher Intelligenz (KI) nutzen Sie?
Stuart Russell: Ich brauche genau die gleichen wie alle: Google oder Kreditkarten zum Beispiel – dahinter steckt künstliche Intelligenz. Aber ich brauche weder Siri noch ein anderes Spracherkennungssystem.
Warum nicht?
Ich finde diese Sachen nicht wirklich nützlich. Sie verstehen meine Aktivitäten, meine Beziehungen und Projekte nicht. Es ist nicht das gleiche wie ein richtiger Assistent. Aber das ändert sich wohl in den nächsten Jahren – die Tools werden sehr viel intelligenter werden.
Sie vertreten die Meinung, dass KI für Gutes genutzt werden soll. Wie realistisch ist dieser Ansatz?
Es gibt die allgemeine Ansicht, dass KI eine sehr mächtige Technologie ist und dass es Dinge gibt, die wir damit machen können, die den Menschen sehr helfen werden. Aber es gibt auch Sachen, die wir damit tun können, die der Menschheit schaden werden. Es ist die Aufgabe der Politik, diese Formen des Missbrauchs zu verhindern.
Die Risiken werden weder von Politikern noch von den meisten KI-Forschern verstanden.
Und dann gibt es weitere Probleme. Sie haben damit zu tun, dass, wenn KI-Systeme immer fähiger werden, sie auch schwieriger zu kontrollieren sind. Wir werden schliesslich Systeme haben, die möglicherweise intelligenter sind als Menschen.
Es ist nicht einfach herauszufinden, wie Menschen Dinge kontrollieren können, die mächtiger sind als sie selbst. Das ist kein politisches, sondern ein technisches Problem. Es hängt davon ab, wie wir KI-Systeme bauen, und daran arbeite ich gerade.
Glauben Sie, dass die Leute sich der Gefahr bewusst sind, die KI mit sich bringt?
Viele Menschen glauben, dass Armeen von Robotern entstehen werden, die sich plötzlich dafür entscheiden, die Kontrolle zu übernehmen und die Menschen zu töten. Das ist völlig irreführend. Künstlich intelligente Systeme werden nicht entscheiden können, dass sie Menschen hassen.
Ausserdem werden wir bei Waffen wahrscheinlich keine superintelligenten KI-Fähigkeiten verwenden, weil wir das nicht brauchen. Menschen zu töten ist nicht besonders schwierig.
Aber KI-Systeme werden grosse Auswirkungen auf die Welt haben, und wir müssen sicherstellen, dass diese Effekte positiv sind und die Systeme vollständig unter menschlicher Kontrolle bleiben. Diese Risiken verstehen weder Politiker noch die meisten KI-Forscher.
Die Vorstellung, dass ein einziger intelligenter Roboter ganze Städte zerstören und die Macht übernehmen kann, ist in Ihren Augen absoluter Unsinn?
Ich denke nicht, dass das Unsinn ist. Aber es ist unwahrscheinlich, dass die ersten super intelligenten Maschinen von einem Individuum entwickelt werden.
Sobald eine Technologie entwickelt ist, ist es durchaus möglich, dass sie in die falschen Hände gerät.
Es ist eine sehr grosse Herausforderung, an der wir schon lange arbeiten. Dafür braucht es sehr grosse intellektuelle Ressourcen. Aber sobald eine Technologie entwickelt ist, ist es durchaus möglich, dass sie in die falschen Hände gerät – so wie wir fürchten, dass Atomwaffen in die Hände von Terroristen gelangen.
Software ist viel einfacher zu kopieren und zu verbreiten als Atomwaffen, und die Technologie wird öffentlich sein. Es wird für Einzelpersonen möglich sein, intelligente Systeme zu bauen. Und wenn sie das ohne Sorge um die Sicherheit tun, könnten sie die Systeme benutzen, um sehr zerstörerische Pläne durchzuführen oder sie könnten die Kontrolle über sie verlieren. Das ist ein erhebliches Risiko.
Haben wir die Kontrolle schon verloren?
Nein. Aber die Gefahr geht von Maschinen aus, die intelligenter sind als Menschen. Es könnte so weit kommen, und dann hätten wir wirklich ein Problem. Denn bisher gibt es keine Beispiele von weniger intelligenten Wesen, die intelligentere Wesen kontrollieren.
Wie könnte eine Kontrolle funktionieren?
Sie können sich ein System vorstellen, wie wir es schon im App Store haben. Wenn Sie eine Anwendung entwickeln, die Sie in den Store stellen möchten, muss die App eine ganze Reihe von Softwaretests bestehen, bevor sie erlaubt wird. Das, um sicherzustellen, dass sie das Smartphone nicht blockiert, keine andere Apps stört oder etwa Daten stiehlt.
Es gäbe ähnliche Anforderungen für KI-Software, bevor sie bereitgestellt werden können. Die Frage ist, wie wir sicherstellen, dass die Menschen diese nutzen.
Und wie wollen Sie verhindern, dass Roboter intelligenter werden als wir Menschen?
Ich will das nicht unbedingt verhindern. Es könnte für den Menschen enorm wertvoll sein, unsere intellektuellen Fähigkeiten zu erweitern. Und ich glaube nicht, dass ich das verhindern kann, weil die wirtschaftlichen Vorteile so gross sind. Ich möchte sicherstellen, dass die Maschinen, wenn sie intelligenter werden, vollständig unter menschlicher Kontrolle bleiben.
Die Art und Weise, wie wir über KI denken, ist nicht ausreichend, um das Kontrollproblem zu lösen. Aber es gibt innovative Wege, um Lösungen dafür zu finden. Mein Ziel ist es, diese Technologie zu entwickeln und alle davon zu überzeugen, sie zu nutzen.
Ich kann mir vorstellen, dass es schwierig ist, die Menschen davon zu überzeugen.
Ich hoffe nicht. Wir sehen Maschinen, die Fehler machen – wie etwa das autonome Fahrzeug von Uber, das einen Fussgänger getötet hat. Aber das war buchstäblich ein Bug, weil das Auto nicht richtig programmiert worden war.
Wir werden Fälle haben, in denen schlechtes Verhalten auftritt, nur weil der grundlegende Ansatz falsch ist. Diese Ereignisse werden die Menschen davon überzeugen, dass wir einen grundlegend anderen Ansatz für die Gestaltung von KI-Systemen brauchen. Und ehrlich gesagt liegt es an mir und meinen Kollegen zu zeigen, wie man diese baut, und dass solche Designs tatsächlich sicher sind.
Dinge wie der Uber-Unfall sind sehr schlecht für die ganze Branche.
Es ist sehr im Interesse der Industrie, bei der Sicherheit zusammenzuarbeiten. Denn jedes Mal, wenn ein Unternehmen einen Fehler macht, ist es auch für alle anderen Firmen sehr schlecht.
Wir sehen KI-Systeme in der Öffentlichkeit, die ziemlich unsicher sind.
Es gibt die Idee, dass Unternehmen die Forschung zur KI-Sicherheit teilen sollten. Aber das wird noch nicht wirklich umgesetzt. Wir sehen Systeme in der Öffentlichkeit, die ziemlich unsicher sind. Wir sollten nicht experimentieren und das Leben von Menschen riskieren, nur um zu forschen.
Das Interview führte Viviane Bischoff.