Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

Deepfakes ETH-Forscher entwickeln Chip im Kampf gegen Deepfakes

Die rasante Entwicklung künstlicher Intelligenz hat das Erstellen von Deepfakes sehr einfach gemacht. Das bedroht die Glaubwürdigkeit digitaler Inhalte und untergräbt das Vertrauen in Medien. Abhilfe schaffen soll ein spezieller Chip auf Kamerasensoren.

Er sei schon vor zehn Jahren überzeugt gewesen, dass KIs, die Fotos und Videos generieren können, zu einem ernsthaften Problem werden würden, sagt Felix Franke. Weil sogenannte «Deepfakes» die Wahrheit angreifen und zu digitalem Misstrauen führten. Da habe er sich gedacht: Dagegen wolle er etwas tun.

Franke ist Professor für quantitative visuelle Physiologie am Institut für Klinische und Molekulare Ophthalmologie in Basel. So kryptisch, wie seine Funktionsbezeichnung klingt, so kryptisch ist auch das, was er zusammen mit einem Team seit 2017 für die ETH Zürich entwickelt hat: Einen speziellen Chip, der Deepfakes unmöglich machen soll, indem er jedem digital erzeugten Medium ein fälschungssicheres Siegel aufdrückt.

Nur so könne man gegen die Flut an Manipulationen ankommen. Geschulte menschliche Augen reichten dagegen schon lange nicht mehr aus.

Eine Signatur für die Realität

Die Idee hinter dem Chip: Er ist direkt eingebaut auf dem Sensor einer Kamera. Dort erzeugt er eine Signatur, eine kryptografisch signierte Zahl. Sie beweist, dass das Bild oder Video aus einem echten Sensor stammt.

Ein viereckiger Chip auf einem Finger.
Legende: Der Chip des ETH-Teams ist etwa fingernagelgross. Carolin Arndt Foppa/ETH Zürich

Diese Signatur wird für das menschliche Auge unsichtbar ins Bild eingebettet. Wer das Bild verändert, verändert automatisch auch die Signatur und macht sie damit ungültig.

So lässt sich auch noch später überprüfen, ob eine Aufnahme manipuliert wurde. Wer die Daten nachträglich fälschen wollte, müsste sich dazu physisch am Chip selbst zu schaffen machen – ein Aufwand, der die massenhafte Produktion von Deepfakes erheblich erschweren würde.

Allianz zur Rettung der Wahrheit

Box aufklappen Box zuklappen

Die Coalition for Content Provenance and Authenticity (C2PA) definiert einen Standard, wie Informationen über die Entstehung eines Mediums – von der Aufnahme über die Bearbeitung bis zur Publikation – gespeichert werden. Das Herzstück ist eine kryptografisch abgesicherte digitale Signatur, wie sie der Chip des ETH-Teams erzeugt. So wird für jeden Nutzer nachvollziehbar: Wurde dieses Bild mit einer Kamera aufgenommen oder von einer KI errechnet?

Bei der Allianz mit dabei sind Schwergewichte wie Adobe, Google, Microsoft, OpenAI und Sony. Sie arbeiten mit der Content Authenticity Initiative (CAI) zusammen, der auch Hardware-Riesen wie Nikon und NVIDIA angehören.

Die Signaturen könnten von Kameraherstellern in einem öffentlich zugänglichen, unveränderlichen Register gespeichert werden – etwa einer Blockchain. Dann könnten Nutzerinnen und Nutzer, aber auch Plattformen, Medienschaffende oder Behörden die Echtheit von Aufnahmen selbstständig prüfen, ohne auf die Vertrauenswürdigkeit einzelner Beteiligter angewiesen zu sein.

Die Funktionalität des Chips visualisiert in einer Grafik.
Legende: Ein Ereignis (1) wird von einer Kamera aufgezeichnet, deren Sensorchip im Moment der Aufnahme sowohl die Bilddaten als auch eine kryptografische Signatur erzeugt (2). Nach der Speicherung in einem öffentlichen Register (3) kann diese Signatur später verwendet werden, um zu überprüfen, dass die Aufnahme authentisch ist und nicht verändert wurde (4). Felix Franke/ETH Zürich (Grafik erstellt mit KI)

Dank der Signierung könnte zum Beispiel eine Social Media Plattform bereits beim Hochladen eines Fotos automatisch erkennen, ob es künstlich erstellt oder manipuliert wurde. Und bei einem Bild, das aus einem verifizierten Sensor stammt, ein kleines grünes Häkchen anzeigen.

Noch ist der Chip ein Prototyp

Dass das Konzept funktioniert, konnte das Team von Felix Franke mit dem Chip beweisen. Die Herausforderung liegt nun darin, Hersteller von beispielsweise Kameras und Smartphones dazu zu bewegen, den Chip in ihre Produkte einzubauen. Franke denkt, dass dazu auch gesellschaftlicher und politischer Druck auf die Unternehmen notwendig sein wird.

KI gegen KI

Box aufklappen Box zuklappen
Eine Collage bestehend aus vier Selfies.
Legende: Unechte Gesichter – ziemlich echt. zVg

Die Zürcher Firma PXL Vision und das Idiap Research Institute in Martigny haben in einem einjährigen Forschungsprojekt einen «Detektor» entwickelt, der Deepfakes bei der digitalen Ausweiskontrolle erkennen soll.

Das Problem: Synthetische Gesichtsbilder, fotorealistische Portraits von Personen, die gar nicht existieren, oder echte Gesichter so überzeugend manipulieren, dass sie kaum von Originalaufnahmen zu unterscheiden sind. Solche Bilder werden zunehmend eingesetzt, um automatisierte Identitätsprüfungen etwa bei Online-Vertragsabschlüssen zu täuschen.

Der Detektor soll drei Arten von Manipulation erkennen: ausgetauschte Gesichter, manipulierte Gesichtsausdrücke und komplett künstlich erzeugte Portraits. Damit das möglich wurde, trainierten ihn die Forschenden mit einer grossen Menge echter und gefälschter Gesichtsbilder.

Bis dahin bleibt die Erkennung von Deepfakes eine Herausforderung – oder sogar ein Ding der Unmöglichkeit, meint Franke, in Anbetracht der schieren Masse an Fotos und Videos. Solange keine Technologie vorhanden ist, die Aufnahmen signiert und ihre Echtheit garantiert.

SRF 1, 10 vor 10, 14.5.2026, 21:50 Uhr

Meistgelesene Artikel