Zum Inhalt springen

Künstliche Intelligenz Wie schwierig ist es, KI-Bilder zu entlarven?

KI-generierte Bilder sind aktuell in aller Munde. Was kommt da auf uns zu? Ein Digital-Experte beantwortet die drängendsten Fragen.

Künstliche Intelligenz, kurz KI, ist in aller Munde. Bild-Apps wie Midjourney, Lensa, DALL-E 2 FaceApp erstellen auf Anweisung praktisch jedes beliebige Bild. Diese wirken zwar täuschend echt, sind aber «Deepfakes» und niemals so fotografiert worden.

Der Fotograf Boris Eldagsen hat kürzlich einen renommierten Preis abgelehnt, welchen er für ein mit KI-generiertes Bild erhalten hatte. Er wolle damit eine KI-Debatte in der Fotografie anstossen. Auf den sozialen Medien kursierten KI-generierte Papstbilder, auf welchen der Pontifex mit einer trendigen Daunenjacke und einer riesigen Kette herumläuft.

Was kommt da auf uns zu? Wie schwierig ist es, KI-generierte Bilder von echten Bildern zu unterscheiden? SRF-Digitalexperte Guido Berger mit den wichtigsten Antworten.

Worauf müssen wir uns einstellen?

Die Technologie wird sich sehr schnell weiterentwickeln und immer wieder überraschen. Neben der Frage, wie sich das auf Kunst und Kreativität auswirkt, stellen sich auch viele rechtliche Fragen: Wer darf welches Material verwenden, um die KI zu trainieren? Wer darf wofür Geld verlangen?

Wie schwierig ist es, solche Bilder zu entlarven?

Aktuell ist die Schwierigkeit eher gering. Je nach Modell haben die Bilder gewisse Probleme (Gesichter, Hände, Kanten), die leicht und oft von Auge erkennbar sind. Doch es ist damit zu rechnen, dass dies laufend und schnell verbessert wird und technische Hilfsmittel wichtiger werden.

Also Software, die beispielsweise eine Wahrscheinlichkeit angeben kann, dass ein Bild von einer KI produziert wurde. Das ist möglich und führt letztlich zu einem Katz-und-Maus-Spiel – mit jeder Verbesserung der Generatoren müssen auch die Detektoren wieder besser werden. Es könnte auch sein, dass es so etwas wie eine KI-Ästhetik geben wird; dass wir mit der Zeit lernen, wie KI-Bilder in der Regel aussehen.

Guido Berger

Leiter Digitalredaktion

Personen-Box aufklappen Personen-Box zuklappen

Guido Berger leitet SRF Digital und erklärt seit 2006 Technologie und Games.

Worin bestehen die Schwierigkeiten?

Erstens ist das angesprochene Katz-und-Maus-Spiel aufwändig und technisch komplex. Das Gleiche gilt zweitens für juristischen Fragen – es gibt noch keine Präzedenzfälle. Und drittens stellt sich die Frage «Ist das Bild wahr oder falsch» ab sofort auch stets bei denjenigen Bildern, welche nicht von einer KI erstellt wurden. Bilder werden wohl generell öfter angezweifelt werden.

Welche technischen Hilfsmöglichkeiten gibt es, solche Bilder zu entlarven?

Grundsätzlich kann man davon ausgehen, dass KI, die Muster in Texten oder Bildern erkennen und dann reproduzieren kann, selber wieder in bestimmte Muster verfällt, die dann umgekehrt wieder von einer KI entdeckt werden können. Aktuell sieht man es aber den meisten Bildern noch von Auge an, wenn man auf Details wie Ränder, Übergänge, Hände, Gesichter achtet, wo die KI noch oft sichtbare Fehler macht.

Wie gefährlich wird die KI in Bezug auf Bilder?

Generative KI wird gleichzeitig unter- und überschätzt. Wer sie erstmalig nutzt, ist überrascht, was sie bereits kann. Wer sie regelmässig nutzt, lernt Schwächen und Grenzen kennen. Entsprechend sehe ich nicht Kreativität oder Kunst allgemein in Gefahr. Das Potenzial, Arbeitsweisen und Berufsbilder grundlegend zu verändern, hat die Technologie sehr wohl. Die grösste Gefahr sieht Berger in einer KI-Schere, die sich zwischen denen öffnen wird, welche die Technologie verstehen, einsetzen und kontrollieren und denen, die keinen Zugang haben, in Panik verfallen oder die Technologie ignorieren.

Tagesschau, 19.4.2023, 19:30 Uhr ; 

Meistgelesene Artikel