Sora von OpenAIKünstliche Intelligenz erstellt fotorealistische Videos

Es tut sich wieder etwas im Bereich der Künstlichen Intelligenz. Nachdem der erste Hype um generative Sprach- und Bildprogramme wie ChatGPT und DALL·E abgeklungen ist, macht die Firma OpenAI wieder auf sich aufmerksam. Dieses Mal geht es um die künstliche Erstellung von fotorealistischen Videos. Das nun vorgestellte Programm heißt Sora, und obwohl es zunächst nur für eine kleine Nutzer*innengruppe verfügbar ist, sorgt es bereits jetzt für großes Aufsehen im Netz. Wir erklären, was Sora kann und welche Auswirkungen künstliche Intelligenz im Bereich der Videos möglicherweise hat.

Bei Sora handelt es sich um ein sogenanntes Text-zu-Video-Programm. Zur genauen Funktionsweise von Sora stellt OpenAI auf dieser Seite (in Englisch) Informationen zur Verfügung. Daraus geht hervor, dass Sora auf einem ähnlichen Prinzip basiert wie OpenAIs ChatGPT. Der KI-Textgenerator ChatGPT teilt Wörter in kleinere Einheiten (genannt „Tokens“) auf, um anschließend daraus einen neuen Text zu generieren. Dafür ist das Training mit einer großen Menge an Text über einen langen Zeitraum nötig. Auch Sora wurde mit riesigen Datenmengen trainiert, allerdings nicht mit Texten, sondern mit Videos. Auch diese Videos werden in kleinere Einzelteile zerlegt (genannt „Patches“), aus denen das Programm nach langem Training dann neue Videos generieren kann.

Wie schon bei der Veröffentlichung des generativen Sprachmodells ChatGPT Ende 2022 sind viele Nutzer*innen vor allem von der hohen Qualität der künstlich erzeugten Inhalte begeistert. Auf der Webseite von Sora kann man sich ein Bild davon machen, wie täuschend echt manche der Videos aussehen. Auch wenn OpenAI selbst darauf hinweist, dass es noch einige Dinge gibt, mit denen Sora Probleme hat und dafür auch Beispiele liefert. So zeigt eines der Videos eine Kerze, an deren Docht zwei Flammen brennen. Ob solche Fehler eher die Ausnahme oder die Regel sind, kann momentan noch nicht zuverlässig abgeschätzt werden, da Sora noch nicht für die Öffentlichkeit zugänglich ist.

Wie steht es um die Sicherheit von Sora?

OpenAI scheint mittlerweile etwas sensibler dafür zu sein, dass künstliche Intelligenz in den falschen Händen auch großen Schaden anrichten könnte. Daher versichert das Unternehmen, dass vor der öffentlichen Bereitstellung von Sora mehrere wichtige Sicherheitsschritte unternommen werden. Zunächst ist Sora deshalb nur für eine geschlossene Nutzer*innen-Gruppe verfügbar, die Sora testen kann. Dieser Gruppe gehören laut OpenAI auch Expert*innen für die Bereiche Fehlinformationen, hasserfüllten Inhalten und Voreingenommenheit an.

Darüber hinaus sollen technische Methoden zur Anwendung kommen, die einen Missbrauch von Sora verhindern. Zum Beispiel arbeitet OpenAI an einer Methode, um nachträglich erkennen zu können, ob ein Video mit Sora erstellt wurde. Außerdem greift das Unternehmen auf Sicherheitsmethoden zurück, die bereits in der generativen KI für Bilder, DALL·E 3, zur Anwendung kommen. Zum Beispiel werden die eingegebenen Texte überprüfen und ablehnen, wenn sie gegen die Nutzungsbedingungen von OpenAI verstoßen. Die Darstellung von extremer Gewalt, sexuellen Inhalten, prominenten Personen oder geschützten Marken und anderen problematischen Inhalten soll dadurch verhindert werden. Auch sollen die erstellten Videos zunächst noch einmal automatisiert überprüft werden, bevor sie den Nutzer*innen angezeigt werden. Trotz dieser Vorkehrungen und dem versprochenen Austausch mit der Zivilgesellschaft (als Beispiele nennt OpenAI Politiker*innen, Pädagog*innen und Künstler*innen) weist OpenAI darauf hin, dass nicht vorhergesagt werden kann, wie Menschen die neue Technologie genau nutzen werden.

Welche Gefahren könnten sich aus Text-zu-Video-Programmen ergeben?

  1. Fehlinformation und Manipulation: Die Möglichkeit, per Text fotorealistische Videoinhalte erstellen zu können, kann die Verbreitung von Fehlinformationen und manipulierten Inhalten erleichtern. Wenn künstliche Videos nur schwer oder gar nicht mehr zu erkennen sind, könnte das Vertrauen in visuelle Medien erschüttert werden.
  2. Privatsphäre und Datenschutz: Programme wie Sora könnten zu erheblichen Datenschutzproblemen führen. Das gilt insbesondere, wenn persönliche oder urheberrechtlich geschützte Inhalte ohne Zustimmung erstellt und verbreitet werden. Denkbar ist auch, dass die Privatsphäre von Personen verletzt werden könnte, wenn von ihnen gefälschte Videos erstellt werden.
  3. Identitätsdiebstahl und Missbrauch: Text-zu-Video-Programme könnten von böswilligen Akteuren genutzt werden, um gefälschte Identitäten oder manipulierte Videos zu erstellen, die für betrügerische Zwecke verwendet werden. Dies könnte zu ernsthaften rechtlichen und sozialen Problemen führen, einschließlich Identitätsdiebstahl und Rufschädigung.
  4. Gesellschaftliche Auswirkungen und Ethik: Die weitreichende Verbreitung von Text-zu-Video-Technologien wie Sora könnte zu einer Verschiebung der sozialen Normen und ethischen Standards führen. Fragen zur Authentizität, zur Verantwortlichkeit bei der Erstellung von Inhalten und zur Kontrolle über digitale Identitäten werden zunehmend relevant und erfordern eine sorgfältige Prüfung.

Passende Informationen und Materialien von klicksafe