Lebensechte Gesichter digital erzeugen ist eine Herausforderung. «Die Evolution hat in unserem Hirn einen Mechanismus eingebaut, mit den wir menschliche Gesichter so differenziert lesen können wie kein anderes Objekt auf der Erde», sagt Markus Gross, Leiter des Disney Research in Zürich.
Dieser Mechanismus war in der Vergangenheit für unser Überleben entscheidend. Wir mussten in Sekundenbruchteilen Freund von Feind unterscheiden können.
Dieser Schutz-Mechanismus wird aber für digitale Filmeffekte zur Knacknuss: In der Fachpsrache heisst das Problem «Uncanny Valley», auf Deutsch: «Gruselgraben». Wir können uns den Gruselgraben als eine Kurve vorstellen, die an den Querschnitt durch ein Tal erinnert: Von links nach rechts nimmt die Menschenähnlichkeit zu.
Links des Tals sind Abbildungen angesiedelt wie ausgestopfte Tiere, Roboter oder Stofftiere. Sie gruseln uns nicht, weil sie nur geringe Ähnlichkeit mit echten Lebewesen aufweisen. Auch Comicfiguren oder grobschlächtige Animationen gehören zu dieser Kategorie. Wir erkennen sie als Menschen, gruseln uns aber nicht vor ihnen.
Wann beginnen wir uns zu gruseln?
Sobald wir ins Tal hinabsteigen, fühlen wir uns immer ungemütlicher. Das beginnt bei einer Menschenähnlichkeit ab etwa 70 Prozent: Leichen, Zombies oder auch Handprothesen erinnern stark an ihre lebenden Vorbilder. Weil die Umsetzung aber noch mangelhaft ist, entsteht ein Abwehrreflex, ein Umkehreffekt.
Sobald wir aus dem Tal hochsteigen und uns auf die rechte Seite der Kurve bewegen, nimmt die Ähnlichkeit zum Menschen stark zu: Gut gemachte Puppen gleichen uns und wirken deshalb weniger gruselig. Aber nur wenn wir die perfekte Reproduktion eines menschlichen Gesichts erreichen, schreckt uns das künstliche Abbild nicht ab. An diesem Punkt haben wir das «Uncanny Valley» ausgetrickst.
Dank «Medusa» ganz rechts am Graben
Genau das ist den Wissenschaftlern des Disney Labs gelungen: Das Team von Markus Gross hat während zehn Jahren an einem neuartigen Scanner gearbeitet, der die notwendigen Daten für die perfekte Simulation eines Gesichtes liefern kann und wurde dafür vor kurzem mit dem Technologie Oscar ausgezeichnet.
Die Einrichtung steht im Keller des Disney-Labors in Zürich: Neun Kameras auf drei Stativen, kreisförmig aufgestellt um einen simplen Dreh-Stuhl. Auf dem (eher unbequemen) hölzernen Stuhl sitzt ein Schauspieler, dessen Gesicht gescannt wird, bis hin zu jeder Pore. Dadurch ist es möglich, die Gesichtsgeometrie dreidimensional zu rekonstruieren. Und: Der Scanner erfasst auch die Mimik des Schauspielers, sagt Markus Gross.
Denn je mehr und genauere Daten zur Verfügung stehen, desto besser kann man mittels Software ein Gesicht erzeugen, desto besser kann man Algorithmen trainieren, die das automatisch können.
Alltagstaugliche Technologie
«Medusa» wurde bereits in der Star Wars Episode 7 eingesetzt, wo die Augen von Yoda «Maz Kanata» aus dem digitalen Modell des Scanners berechnet wurden. Das Ziel war, die Augen übermässig zu vergrössern oder zu verkleinern. So konnten die Animateure eine der Fähigkeiten der Figur visualisieren: Yoda kann nämlich «in die Seele der Menschen» hinein schauen. Der Zuschauer sieht nur die Oberfläche des berechneten Gesichtes. Dank dem Durchbruch am Disney Lab gruselt er sich dabei nicht mehr.