Das EU-Forschungsprojekt «Beaming» hat sich einem Menschheitstraum verschrieben. Forscher aus den unterschiedlichsten Disziplinen loten die Möglichkeiten des Beamens wissenschaftlich aus – aber nicht, indem sie Materie durch den Raum schicken. Stattdessen sollen Objekte und Personen im virtuellen Raum so real wie möglich erscheinen, damit ein Gefühl des Beamens entsteht. Und dazu gehört auch der Tastsinn.
Matthias Harders ist Informatiker am Institut für Bildverarbeitung der ETH Zürich. Harders' Team ist ebenfalls Teil des Forschungsprojekts «Beaming» – sein Fokus liegt auf den sogenannten «haptischen Systemen». Die ETH-Forscher haben Grosses vor: Wie können Berührungseigenschaften wie weich oder hart, glatt oder rau, elastisch oder steif in Daten gefasst über Distanz reproduziert werden? Matthias Harder zeigt, wie es funktioniert.
Die Vermessung der Welt
Der ETH-Informatiker hält in jeder Hand ein Stäbchen; damit tastet er ein Testobjekt aus Gummi ab. An der Spitze dieser Stäbchen sitzt ein Sensor, der den Druck auf das Objekt misst und dessen Eigenschaften wie die Position im Raum oder die Konsistenz des Materials. So wird das Objekt komplett vermessen, bis es zum Schluss als Datenset vorliegt.
Nun wird es spannend: Diese Daten des Gummiobjekts können an irgendeinen Ort geschickt werden und mit einem speziellen Instrument – einem sogenannten «haptischen Interface» – wieder hergestellt und auch ertastet werden.
Alles steckt in den Daten
Um solche rein virtuellen Objekte zu ertasten, braucht es also Instrumente, die an eine Art Hydraulik gekoppelt sind, die direkt ein Feedback liefert: zum Beispiel, an welcher Stelle das Objekt nun härter oder weicher, rauer oder glatter ist. Eine Art Roboter, der die empfangenen Daten über Sensoren in Form von gefühlten Widerständen anzeigt. Um das gefühlte Objekt auch zu sehen, braucht es eine Virtual-Reality-Brille.
Mit enormen Datenströmen könnten so unsere reale Welt an jedem beliebigen Ort mit der geeigneten Technik virtuell dargestellt und sogar „angefasst“ werden. Wie das aussehen könnte, zeigen die ersten Versuche der Grundlagenforscher hier im Video:
Solche Systeme hätten in Zukunft ungeahnte Möglichkeiten, davon ist Matthias Harders überzeugt. Vor allem in der Produktentwicklung sieht er viele Chancen. Zum Beispiel könnte ein Entwicklerteam in Asien den Prototyp eines Mobiltelefons per Datenstrom an die Kollegen in Europa schicken. Die könnten ihn dann nicht nur sehen, sondern auch direkt mit ihm interagieren: die Form, Konturen, Oberfläche oder Konsistenz erspüren.
Ebenso wäre es denkbar, diesen virtuell erzeugten Tastsinn in der Telemedizin einzusetzen, um Fernoperationen noch genauer zu machen und die Diagnosemöglichkeiten noch besser. Harders weiss, wovon er spricht, seit Jahren entwickelt er virtuelle, software-gestützte Operations-Simulatoren. Und eines Tages könnten vielleicht sogar wir Menschen uns im virtuellen Raum nicht nur bewegen, sondern auch berühren.