Erstellung sexualisierter Aufnahmen

Das Recht auf sexuelle Selbstbestimmung und das Recht am eigenen Bild können verletzt werden, wenn intime Medieninhalte ohne Zustimmung der betroffenen Person erstellt werden.  

Upskirting, Downblousing & Webcam-Posen - echte Aufnahmen

Wenn intime oder sexualbezogene Aufnahmen erstellt werden, kann es sich dabei um Inhalte handeln, die in einer realen Situation entstanden sind. Hierunter fällt beispielsweise der digitale Voyeurismus. Hierbei werden Nackt- oder sexualbezogene Bildinhalte mithilfe kleiner versteckter internetfähiger Kameras erstellt, sogenannten „Spy-Cams“. Diese werden vor allem in Toiletten, Duschen, Umkleidekabinen oder auch Hotels angebracht. Von „Upskirting“ und „Downblousing“ spricht man, wenn intime Körperregionen wie Gesäß, Genitalien, Unterwäsche oder die weibliche Brust heimlich fotografiert oder gefilmt werden. Auch diese Aufnahmen landen oft im Internet bzw. auf Pornoseiten. Hier gilt: Das heimliche Filmen und Fotografieren von intimen Körperteilen ist eine Straftat und kann eine Geld- oder Gefängnisstrafe nach sich ziehen.

Die heimliche Erstellung sexualbezogener Aufnahmen erfolgt nicht nur offline. Laut jugendschutz.net wurden in den letzten Jahren vermehrt Video-Sammlungen im Internet verbreitet. Darin zu sehen sind Kinder, wie sie vor der Webcam posieren und sexuelle Handlungen an sich vornehmen. Die Bilder entstehen zum Beispiel im Rahmen von Cybergrooming. Die Täter*innen überreden hierbei die Betroffenen zu sexuellen Handlungen vor der Webcam, um diese heimlich aufzunehmen und die Videos anschließend online zu verbreiten. 

Deepfakes und Deepnudes - gefakte Aufnahmen

Bei sexualbezogenen Inhalten handelt es sich nicht immer um echte Aufnahmen, die eine reale Situation wiedergeben. Zunehmend wird das Internet von sogenannten „Deepfakes“ überschwemmt, die Personen mit Hilfe von generativen KI-Tools in sexualisierten oder pornografischen Situationen darstellen. Davon betroffen sind insbesondere Mädchen und Frauen. Das Phänomen, Intimaufnahmen zu fälschen ist an sich nicht neu. Was sich mit Deepfake-Technologien jedoch verändert hat, ist die Masse und einfache Zugänglichkeit, mit der man kostenlos oder für wenig Geld eine Vielzahl an Inhalten in kürzester Zeit und ohne technische Vorkenntnisse erstellen kann. Zudem wirken die generierten Aufnahmen immer authentischer bzw. echter. 

Bei Deepfakes handelt es sich um manipulierte Medieninhalte, wie Bilder, Videos oder Audioinhalte (z.B. Stimmen), die mithilfe von Deep Learning, einer Methode des maschinellen Lernens erststellt werden und täuschend echt wirken können. Je nach „Qualität“ des Deepfake, kann so der Eindruck erweckt werden, die abgebildete Person sei tatsächlich nackt oder bei sexuellen Handlungen zu sehen. Bei Deepfakes wird also das Bild einer Person in Inhalte eingefügt, in denen sie in Wirklichkeit gar nicht vorkommt. 

Im Fall von KI-generierten Nacktbildern spricht man dann von „Deepnudes“. „Deep“ weil sie mithilfe von Deep Learning, einer Methode des maschinellen Lernens erstellt werden. Und „nude“ weil man die abgebildete Person nackt sieht. Online gibt es zahlreiche Websites und Apps, die speziell zu diesem Zweck programmiert wurden. Mit wenigen Klicks können sie über Suchmaschinen gefunden und genutzt werden. Von KI-generierter „Deepfake Pornografie“ spricht man, wenn das Gesicht einer realen Personen mithilfe von KI nahtlos in pornografisches Videomaterial montiert wird.

Beide Phänomene zählen zu Formen von bildbasierter sexualisierter Gewalt

Deepnudes und Deepfake-Pornos

Bei der Erstellung von Deep Nudes werden Programme genutzt, die nicht sexualisierte Fotos von Personen in realistisch wirkende Nacktbilder umwandeln. Das Programm erfasst den Körper der betroffenen Person und erstellt ein neues, entkleidetes Bild von dieser. Im Jahr 2019 hat eine App namens „DeepNudes“ zum ersten Mal diese Möglichkeiten der Bildmanipulation zugänglich gemacht. Die App löste große Kritik über die Objektivierung von Frauen aus. Der Anbieter nahm sie nach kurzer Zeit wieder vom Markt.  

Mittlerweile gibt es zahlreiche Apps, die nach genau diesem Prinzip funktionieren und auf großes Interesse stoßen – auch bei Jugendlichen. Im Herbst 2023 wurde etwa ein Fall in Spanien bekannt, bei dem Jugendliche an mehreren Schulen KI-generierte Nacktbilder von minderjährigen Mädchen erstellt haben. Auch ein Fall in Mexiko sorgt zur gleichen Zeit für Schlagzeilen. Ein Student wird beschuldigt, tausende Intimbilder von mehreren Studentinnen mithilfe von KI erstellt zu haben, um sie als pornografisches Material online zu verkaufen. Fest steht: Apps und Webseiten, die KI einsetzen, um von Frauen Fake-Nacktbilder zu erstellen, verzeichnen ein starkes Wachstum.   

Doch nicht nur die virtuelle Entkleidung entwickelt sich zu einem besorgniserregenden Trend. Auch sogenannte Deepfake Pornos haben im Internet stark zugenommen. Mithilfe sogenannter Face Swap Apps lassen sich zum Beispiel mit wenig Aufwand die Gesichter von Personen in echte Pornoszenen reinschneiden. Die Betroffenen haben über die nicht einvernehmlich erzeugten pornografischen Fakes in der Regel keine Kenntnis.

Entscheidend ist: Durch den Einsatz von KI-Generatoren hat sich die Gruppe der Betroffenen grundlegend verändert. Denn zu ihnen zählen nun auch jene, die noch nie einvernehmlich Intimaufnahmen von sich weitergeleitet haben oder heimlich von anderen aufgenommen wurden.

Auch KI-basierten Fälle von bildbasierter sexualisierter Gewalt verletzen die Persönlichkeitsrechte der Betroffenen. Jedoch ist die Strafbarkeit hier bislang nicht eindeutig und hinreichend geregelt. Nach Josephine Ballon, Juristin und Geschäftsführerin von HateAid, ist die Erstellung solcher KI-basierten Inhalte noch nicht strafbar, die Verbreitung hingegen schon. Je nach Alter der abgebildeten betroffenen Personen, kommt auch eine Strafbarkeit wegen Erstellung, Besitz oder Verbreitung von Kinder- oder Jugendpornografie hinzu.

Zielscheibe der KI-generierten sexualisierten Inhalte sind vorrangig Frauen und Mädchen. Alles, was man dafür benötigt, sind Aufnahmen der Person, wie sie beispielsweise in sozialen Netzwerken zu finden sind. Häufig reichen schon wenige Bilder für die Erstellung solcher Fake-Inhalten. Doch es gilt: Je mehr Bildmaterial bzw. Trainingsdaten vorhanden sind, umso „hochwertiger“ bzw. authentischer wird am Ende das Ergebnis. Weibliche Personen, die in der Öffentlichkeit stehen, sind daher besonders häufig von bildbasiertem sexuellem Missbrauch betroffen, da es von ihnen viele Aufnahmen im Netz gibt.

Weil die Erstellung von Deepnudes und Fake Pornos kostengünstig und leicht umsetzbar ist, ist davon auszugehen, dass die Fälle bildbasierter sexualisierter Gewalt mithilfe von KI-Technologien in Zukunft zunehmen werden. Es kann auch davon ausgegangen werden, dass die Qualität von Deepfakes in naher Zukunft noch weiter zunimmt. Damit werden die zum Teil noch sichtbaren Fehler immer subtiler und schwerer erkennbar.