Zum Inhalt springen
Kameraauge mit roter Pupille.
Legende: Im Film «2001: A Space Odyssey» von 1968 verstehen Computer Sprache. Heute – 2016 – ist dieses Ziel noch nicht erreicht. Wikipedia/MorningLemon

Wirtschaft Google macht Zürich zum Hot Spot der künstlichen Intelligenz

Das menschliche Hirn ist beinahe unschlagbar. Doch Computer holen auf. IT-Konzerne investieren Milliarden in das so genannte «Machine Learning». Die Forschungsgruppe «Google Research Europe» will dies neuerdings von Zürich aus tun. Wie das funktioniert und was sich Google davon verspricht.

Grosse Datenmengen («Big Data») sind die Voraussetzung für lernende Maschinen. Umgekehrt gilt: Ohne «Machine Learning» könnten Wissenschaftler oder IT-Konzerne mit den riesigen Datenmengen nicht viel anfangen. Sie sind darauf angewiesen, um neue Dienste wie Sprach- oder Bilderkennung oder Übersetzungen so weit voranzutreiben, dass sie alltagstauglich werden. Big Data und «Machine Learning» bedingen sich gegenseitig.

Facebook, Microsoft oder IBM haben das erkannt. Sie investieren bereits seit Jahren grosse Beträge in die Forschung. Und Google ebenfalls: Das unterstreicht das Unternehmen nun, indem es in Zürich ein Forschungszentrum aufbaut. Man plant, eng mit den Eidgenössischen Technischen Hochschulen (ETH) zusammenzuarbeiten. Und hofft wohl auch, dank der zentralen Lage und der hohen Lebensqualität gute Ingenieure oder Forscherinnen anzuziehen.

IT-Giganten setzen auf «Machine Learning»

Es gibt Aufgaben, die wie gemacht sind für Computer: Will ich im Telefonbuch einen bestimmten Eintrag finden, so ist mir die Maschine immer überlegen. Geht es hingegen darum, auf zehn Fotos eine einzige Katze zu finden, so sind Computer überfordert.

Bis vor kurzem wenigstens. Seit ein paar Jahren investieren die grossen IT-Konzerne wie Google, Facebook, Apple oder Microsoft viel Geld, um den Maschinen genau solche Fähigkeiten beizubringen.

Schon heute können Computer deshalb Aufgaben lösen, die noch vor wenigen Jahren undenkbar waren: Apples Siri, Microsofts Cortana oder Google Now verstehen gesprochene Sprache und können diese in einen geschriebenen Text umwandeln. Gibt man bei Google Photos ein Stichwort wie etwa «Katze» ein, so erkennt die Software das Lebewesen auf den Bildern – und das mit erstaunlicher Präzision.

Möglich machen dies Technologien, die als «Machine Learning» bezeichnet werden. Im Zentrum steht dabei die Entwicklung neuronaler Netze. Dabei schauen Forscherinnen die raffinierten Tricks der Natur ab.

Schnell und starr, langsam und dynamisch

Denn Computer können im Grunde nur ein paar wenige Dinge: Rechnen und vergleichen. Ihre Stärke ziehen sie daraus, dass sie sehr schnell sind und nie müde werden, auch wenn sie die immer gleiche Aufgabe ein paar Millionen Mal wiederholen müssen – zum Beispiel immer wieder Namen vergleichen, wenn sie nach einer Telefonnummer suchen.

Unser Hirn hat ganz andere Qualitäten. Es funktioniert zwar viel langsamer als ein elektronisches Gerät, dafür arbeiten Milliarden Zellen gleichzeitig. Ein weiterer Vorteil: Das Hirn braucht keinen Programmierer, der alles vorgibt. Es ist in der Lage, selbständig zu lernen.

Darum können wir Dinge, die eine Maschine noch überfordern: Aus einem Musikstück einzelne Stimmen heraushören, einen Satz von einer Sprache in die andere übersetzen oder zuverlässig beliebige Gegenstände auf Bildern erkennen. Wissenschaftler auf der ganzen Welt arbeiten schon seit längerem daran, solche menschlichen Fähigkeiten auf den Computer zu übertragen.

Von der Natur kopiert

Dazu haben Forscherinnen das Nervensystem von Lebewesen studiert. In unserem Gehirn arbeiten mehr als 80 Milliarden Nervenzellen zusammen, sogenannte Neuronen. Diese Zellen sind untereinander vernetzt und kommunizieren miteinander.

Wie sie das tun müssen, haben sie im Verlaufe eines Lebens gelernt: Ein Kleinkind sieht eine Katze und hört vom Vater das Wort «Katze» dazu; in der Schule prägen wir uns Buchstaben ein und lernen so lesen. Durch solche Erfahrung programmiert sich das Hirn selber.

Neuronen kommen in den Computer

Schon in den 80er-Jahren haben Wissenschafter die Funktionsweise von Nervenzellen auf Software übertragen. Im Computer simulieren neuronale Netze die Arbeitsweise des Gehirns.

Bis vor kurzem haben aber bereits kleinere Simulationen die Maschinen überforderten. Erst seit ein paar Jahren stehen Prozessoren zur Verfügung, die schnell genug rechnen können, um ein neuronales Netz von nützlicher Grösse zu simulieren. Das hat dem Gebiet der künstlichen Intelligenz Auftrieb verschafft.

Die Forscher profitieren zudem von den grossen Datensammlungen, die uns die Digitalisierung beschert: Vom GPS im Smartphone, über den Internet-Browser bis zum digitalen Fotoapparat – alles hinterlässt eine Datenspur. Um diese Informationen auszuwerten, greifen Forscherinnen auf Machine Learning zurück, in dem sie das Prinzip des lernenden Gehirns von Lebewesen auf Software übertragen.

Die Maschine bringt es sich selber bei

Bevor ein neuronales Netz nämlich eine Aufgabe lösen kann, muss es sich die dazu notwendigen Fähigkeiten zuerst antrainieren. Ein bekanntes Beispiel: Die Zahlen von 0 bis 9 erkennen, die unterschiedlichste Menschen von Hand geschrieben haben. Solche Programme setzt die Post ein, um etwa Hausnummern oder Postleitzahlen auf einem Brief maschinell zu erfassen.

Schematische Darstellung: Neuronen auf drei Ebenen verteilt.
Legende: Handschrifterkennung für Zahlen: Das Bild einer Zahl (764 Pixel) wird auf die Eingangs-Neuronen verteilt. Ist das Netz trainiert, so resultiert am Ausgang die korrekte Zahl. neuralnetworksanddeeplearning.com

Dazu muss man der Software zuerst tausende Bilder von Zahlen zeigen. Wie die Zellen in unserem Hirn lernen auch die einzelnen Software-«Neuronen» auf diese Weise, unter welchen Bedingungen sie einen Impuls weiterleiten müssen, damit das ganze Netz am Schluss die abgebildete Zahl richtig erkennt.

Ich denke also rechne ich

Maschinelles Lernen bleibt nicht auf die Verarbeitung von Sinneseindrücken beschränkt. Auch in Googles «AlphaGo», dem ersten Computer, der einen Menschen im äussersten anspruchsvollen Strategie-Spiel Go schlagen konnte, kommt ein neuronales Netz zum Einsatz. Die Software weiss aus Erfahrung, welche Züge sinnvoll sind. Der Computer hat zuvor das Wissen von Profi-Spielern verinnerlicht – so gut, dass er nun auch den Besten überlegen ist. 29 Millionen Spielzüge brauchten die Wissenschafter für dieses Training.

Meistgelesene Artikel