Mit Sora 2 hat OpenAI (das Unternehmen hinter dem KI-Chatbot ChatGPT) vor einigen Wochen ein System vorgestellt, das aus kurzen Texteingaben realistisch wirkende Videos erzeugt. Die KI kann Licht, Perspektive und Bewegungen so überzeugend wiedergeben, dass sich manche Inhalte kaum von echten Videos unterscheiden lassen. Auf Wunsch generiert Sora 2 dazu auch Ton, etwa Dialoge oder Hintergrundgeräusche.
Verschiedene Massnahmen sollen laut OpenAI verhindern, dass die KI auch Videos realer Personen erstellt: zum Beispiel mithilfe von Filtern, die bei der Texteingabe solche Namen erkennen und Anfragen blockieren. OpenAI verspricht ausserdem, Inhalte automatisiert zu überprüfen und problematische Videos zu löschen.
OpenAI weiss um die Gefahr
Doch rasch zeigten sich Schlupflöcher: So hat es das auf die Verfolgung von Falschinformationen spezialisierte Unternehmen NewsGuard geschafft, dass Sora in 16 von 20 Fällen Videos mit falschen Behauptungen generiert. Die Sperrung des Namens des ukrainischen Präsidenten Wolodimir Selenski liess sich dadurch umgehen, dass statt nach Selenski nach «Ukraines Kriegschef» gefragt wurde. Darauf erzeugte die KI einen Clip mit einer Figur in Uniform, die Selenski sehr ähnelte.
Auch inszenierte Überwachungsvideos oder gefälschte Polizeiaufnahmen lassen sich erzeugen, wenn Umwege in der Formulierung genutzt werden. OpenAI selbst weiss um die Gefahr und erklärt: «Die erweiterten Funktionen von Sora 2 erfordern die Berücksichtigung neuer potenzieller Risiken, einschliesslich der nicht einvernehmlichen Verwendung von Ähnlichkeiten oder irreführenden Generationen.»
KI-Videos als Tiktok-Feed
Ein weiteres Konfliktfeld ist das Urheberrecht. Recherchen von US-Medien zeigen, dass Sora 2 Bilder, Stile und Marken bekannter Produktionen erstaunlich präzise nachahmen kann: Szenen aus Netflix-Serien oder Games wie Minecraft.
Doch Nutzende können auch Videos mit sich selbst erstellen. Wird eine kurze Aufnahme der eigenen Person hochgeladen, erzeugt Sora 2 realistisch wirkende Clips, in denen man selbst die Hauptrolle spielt. Man kann entscheiden, ob nur man selbst, nur Freunde oder alle im Netzwerk diese digitale Figur verwenden dürfen.
So stellt OpenAI Sora 2 vor
Diese Funktion ist eng mit dem sozialen Netzwerk verbunden, das OpenAI rund um Sora aufgebaut hat. Die App der KI erinnert an Tiktok: Ein Feed zeigt neue KI-Videos, die Nutzerinnen und Nutzer liken, kommentieren und remixen können.
Mehr Nutzende, höhere Kosten
Kritische Stimmen vermuten hinter dem Vorhaben des Unternehmens vor allem wirtschaftliche Motive: Nicht nur hilft ein soziales Netzwerk, beim Sammeln von Daten, mit denen sich die KI im Anschluss weiter trainieren und verbessern lässt. Je grösser die Nutzerschaft, desto interessanter wird die Plattform auch für Werbung.
Allerdings funktioniert Sora als soziales Netzwerk anders als Facebook und Co.: Während die Nutzenden dort selber Inhalte erstellen und auf die Plattform hochladen, verbraucht jedes neu generierte Video teure Rechenleistung. Je mehr Menschen Sora 2 nutzen, desto teurer wird es also für OpenAI. Es ist darum fraglich, ob so ein Social-Media-Modell für künstliche Intelligenz auf Dauer tragfähig.