KI und Jugendmedienschutz

Vor dem Hintergrund der sich rasant entwickelnden KI-Anwendungen gibt es eine Reihe von Fragen zu den zukünftigen Herausforderungen im Kinder- und Jugendmedienschutz. Wo diese Herausforderungen genau liegen, ist schwer abzuschätzen, da ständig neue Produkte wie ChatGPT auf den Markt drängen. In der Regel, ohne dass im Vorhinein ausreichende Erkenntnisse über mögliche Gefahren vorliegen.

Viele der KI-Systeme sind leicht zugänglich und oft genügt eine einfache Registrierung. Selbst Kinder können sie problemlos nutzen. Unternehmen wie Microsoft und Google gehen dazu über, KI-Technologien in ihre Produkte und Plattformen zu integrieren. Das bedeutet, dass Kinder und Jugendliche zukünftig fast zwangsläufig mit KI-Inhalten in Berührung kommen. Auch wenn sie selbst gar keine dezidierten KI-Tools nutzen wie beispielsweise My AI auf Snapchat.

Expert*innen aus dem Kinder- und Jugendmedienschutz sind sich einig, dass bereits jetzt verschiedene Risiken bestehen, die besonders für Minderjährige relevant sind. Einige der Probleme im Zusammenhang mit generativer KI sind zum Beispiel:

  1. Das Alter der Nutzer*innen wird von KI oft nicht berücksichtigt, was eine altersgerechte Nutzung erschwert.
  2. Einige Sprachmodelle sind schwer von menschlicher Kommunikation zu unterscheiden. So können Kinder fälschlicherweise annehmen, mit einer echten Person zu sprechen.
  3. KI-Technologie ermöglicht es, dass Nutzer*innen ohne besonderes Vorwissen Bildinhalte generieren können. Einschließlich jugendgefährdender oder gefährlicher Inhalte wie Missbrauchsdarstellungen oder extremistischer Propaganda.
  4. Fehlende oder fehlerhafte Trainingsdaten können zu falschen Informationen führen. KI kann auch absichtlich für Desinformation verwendet werden.
  5. Generative KI erleichtert das Vortäuschen einer falschen Identität. Besonders Cybergrooming-Angriffe könnten für Kinder zukünftig noch schwerer erkennbar sein.
  6. Es ist möglich, pornografische Bilder (Deepnudes) oder Deepfakes mit echten Kinderfotos zu erstellen.
  7. Durch die Manipulation von Bildern und Videos, insbesondere durch Fälschung von Gesicht oder Stimme, können Kinder und Jugendliche Opfer von Cybermobbing werden.
  8. Schutzvorkehrungen in KI-Textprogrammen lassen sich in einigen Fällen leicht durch Anweisungen von Nutzern*innen umgehen.

Die Verwendung von generativer KI erfordert daher eine genaue Prüfung und Aufmerksamkeit, insbesondere wenn es um den Schutz von Minderjährigen geht.

Die Informationen auf dieser Seite basieren auf diesem Text von jugendschutz.net.