Zum Inhalt springen

Header

Zur Übersicht von Play SRF Audio-Übersicht

KI-Videos Täuschend echt: So gefährlich ist OpenAIs neue Video-KI Sora 2

OpenAIs neueste Version ihrer Video-KI produziert Inhalte, die kaum noch von echten Inhalten zu unterscheiden sind. Das Unternehmen weiss um mögliche Gefahren, tut aber wenig dagegen.

Mit Sora 2 hat OpenAI (das Unternehmen hinter dem KI-Chatbot ChatGPT) vor einigen Wochen ein System vorgestellt, das aus kurzen Texteingaben realistisch wirkende Videos erzeugt. Die KI kann Licht, Perspektive und Bewegungen so überzeugend wiedergeben, dass sich manche Inhalte kaum von echten Videos unterscheiden lassen. Auf Wunsch generiert Sora 2 dazu auch Ton, etwa Dialoge oder Hintergrundgeräusche.

Wann kommt Sora 2 in die Schweiz?

Box aufklappen Box zuklappen

Sora 2 ist bisher nur in den USA, Kanada, Südkorea, Japan, Vietnam, Thailand und Taiwan zugänglich. OpenAI konnte auf Anfrage von SRF keine Angabe dazu machen, wann die Video-KI auch in Europa und in der Schweiz verfügbar sein wird.

Verschiedene Massnahmen sollen laut OpenAI verhindern, dass die KI auch Videos realer Personen erstellt: zum Beispiel mithilfe von Filtern, die bei der Texteingabe solche Namen erkennen und Anfragen blockieren. OpenAI verspricht ausserdem, Inhalte automatisiert zu überprüfen und problematische Videos zu löschen.

OpenAI weiss um die Gefahr

Doch rasch zeigten sich Schlupflöcher: So hat es das auf die Verfolgung von Falschinformationen spezialisierte Unternehmen NewsGuard geschafft, dass Sora in 16 von 20 Fällen Videos mit falschen Behauptungen generiert. Die Sperrung des Namens des ukrainischen Präsidenten Wolodimir Selenski liess sich dadurch umgehen, dass statt nach Selenski nach «Ukraines Kriegschef» gefragt wurde. Darauf erzeugte die KI einen Clip mit einer Figur in Uniform, die Selenski sehr ähnelte.

Auch inszenierte Überwachungsvideos oder gefälschte Polizeiaufnahmen lassen sich erzeugen, wenn Umwege in der Formulierung genutzt werden. OpenAI selbst weiss um die Gefahr und erklärt: «Die erweiterten Funktionen von Sora 2 erfordern die Berücksichtigung neuer potenzieller Risiken, einschliesslich der nicht einvernehmlichen Verwendung von Ähnlichkeiten oder irreführenden Generationen.»

KI-Videos als Tiktok-Feed

Ein weiteres Konfliktfeld ist das Urheberrecht. Recherchen von US-Medien zeigen, dass Sora 2 Bilder, Stile und Marken bekannter Produktionen erstaunlich präzise nachahmen kann: Szenen aus Netflix-Serien oder Games wie Minecraft.

Doch Nutzende können auch Videos mit sich selbst erstellen. Wird eine kurze Aufnahme der eigenen Person hochgeladen, erzeugt Sora 2 realistisch wirkende Clips, in denen man selbst die Hauptrolle spielt. Man kann entscheiden, ob nur man selbst, nur Freunde oder alle im Netzwerk diese digitale Figur verwenden dürfen.

So stellt OpenAI Sora 2 vor

Diese Funktion ist eng mit dem sozialen Netzwerk verbunden, das OpenAI rund um Sora aufgebaut hat. Die App der KI erinnert an Tiktok: Ein Feed zeigt neue KI-Videos, die Nutzerinnen und Nutzer liken, kommentieren und remixen können.

Mehr Nutzende, höhere Kosten

Kritische Stimmen vermuten hinter dem Vorhaben des Unternehmens vor allem wirtschaftliche Motive: Nicht nur hilft ein soziales Netzwerk, beim Sammeln von Daten, mit denen sich die KI im Anschluss weiter trainieren und verbessern lässt. Je grösser die Nutzerschaft, desto interessanter wird die Plattform auch für Werbung.

Allerdings funktioniert Sora als soziales Netzwerk anders als Facebook und Co.: Während die Nutzenden dort selber Inhalte erstellen und auf die Plattform hochladen, verbraucht jedes neu generierte Video teure Rechenleistung. Je mehr Menschen Sora 2 nutzen, desto teurer wird es also für OpenAI. Es ist darum fraglich, ob so ein Social-Media-Modell für künstliche Intelligenz auf Dauer tragfähig.

SRF 3, 12.11.2025, 13:40 Uhr

Meistgelesene Artikel