Maschinen haben kein Gehirn. Doch manche Computerprogramme sind vom Gehirn inspiriert. Sie enthalten ein Netz aus Knotenpunkten, das ein bisschen ähnlich funktioniert wie die Abertausenden von vernetzen Nervenzellen im Gehirn.
Vereinfacht gesagt: Bewährt sich eine Verbindung zwischen zwei Knotenpunkten in einem solchen System, dann wird sie verstärkt. Bewährt sie sich nicht, wird sie geschwächt. Man nennt diese Technologie neuronale Netze oder neuerdings auch «Deep Learning». Sie gehört zum Gebiet der künstlichen Intelligenz und ist im Moment eines der wichtigsten Themen im Silicon Valley.
Sprache und Bilder erkennen
Die Technik der neuronalen Netze ist schon gut 50 Jahre alt. Sie galt zwischenzeitlich als tot, weil sie nicht richtig funktionierte. Doch nun erlebt sie eine Renaissance – dank der viel grösseren Rechenpower heutiger Computer und der gigantischen Datenmengen, mit denen man die neuronalen Netze füttern kann.
Ein Beispiel ist die Spracherkennung, die mittlerweile in jedem Smartphone eingebaut ist. Sie basiert bei allen grossen Anbietern auf neuronalen Netzen: Die Maschine lernt, was der Sprecher sagen will, indem sie in ihrem Netz taugliche Rechenverbindungen neu anlegt oder verstärkt und untaugliche Verbindungen kappt. Das funktioniert teils erstaunlich gut – viel besser jedenfalls als mit herkömmlichen Computerprogrammen.
Ein anderes Beispiel ist die Bilderkennung. Da hat es in den letzten Jahren dank neuronaler Netze ebenfalls grosse Fortschritte gegeben. So haben die Firma Google und Forscher von der Universität Stanford letztes Jahr ein Programm vorgestellt, das Bilder « anschaut » und dann als Text darunter schreibt, was auf dem Bild zu sehen ist. Das war bis dahin niemandem gelungen.
Pioniere wieder begehrt
Die neuronalen Netze funktionieren also. Und die Pioniere der Technik, die zwischenzeitlich ziemlich abgemeldet waren, sind plötzlich wieder extrem gefragt. Der Übervater des Forschungsgebiets ist Geoffrey Hinton . Der britische Informatiker führte in den 1980er-Jahren ein Rechenmodell ein, mit dem die neuronalen Netze besser aus Fehlern lernen können. Heute arbeitet der 67-Jährige, neben seiner Stelle an der Universität Toronto, auch noch für Google.
Ein anderer Star der Szene ist Yann LeCun. Der Franzose leitet das Labor für Künstliche Intelligenz bei Facebook. Er ist überzeugt, dass neuronale Netze noch viele interessante Anwendungen möglich machen werden – zum Beispiel selbstfahrende Autos: Sie müssen die Welt um sich herum rasch erkennen können, samt Fussgängern und Verkehrsschildern.
Doch bei allen Fortschritten bleibt LeCun zurückhaltend: «Wir sind noch sehr weit weg davon, eine Maschine zu bauen, die so leistungsfähig ist wie das menschliche Gehirn», sagte er in einem Interview mit dem Fachmagazin IEEE Spectrum.