Interview und neues Material10 Gebote der KI-Ethik – Ist KI gut oder böse?

Das neue klicksafe-Booklet „10 Gebote der KI-Ethik” ist eine Ergänzung zu unserer bereits erhältlichen Infokarte und regt Schüler*innen ab 12 Jahren zum Nachdenken über einen verantwortungsvollen Umgang mit KI an. Die darin enthaltenen authentischen Geschichten wurden in Zusammenarbeit mit Studierenden des Fachbereichs Digitale Ethik an der Hochschule der Medien in Stuttgart erstellt. Zur Veröffentlichung des Booklets haben wir außerdem ein Interview mit Prof. Dr. Petra Grimm geführt. Sie ist Professorin für Medienforschung und Kommunikationswissenschaft an der Hochschule der Medien Stuttgart und hat mit klicksafe die Erstellung des Booklets inhaltlich begleitet.

Fragen an Prof. Dr. Petra Grimm „KI-Ethik: Ist KI gut oder böse?“

Frau Prof. Dr. Grimm, ist eine Welt ohne Künstliche Intelligenz heute noch vorstellbar?

Solange es Strom gibt und kein Blackout droht, wird KI nicht mehr von diesem Planeten verschwinden. Ob in der Schule, der Arbeitswelt, der Medizin oder im Militär – KI-Systeme sind überall präsent. Heute stellt sich nicht mehr die Frage, in welchen Bereichen KI eine Rolle spielt, sondern vielmehr, wo sie keine Rolle spielen sollte. Dabei gilt es zu bedenken, dass KI ein riesiger Ressourcenverbraucher ist und damit nicht klimaneutral. Eine nachhaltige und verantwortungsvolle Entwicklung von KI sollte daher ein zentrales Ziel der Unternehmen sein.

Bringt KI denn mehr Chancen oder mehr Risiken für uns Menschen?

Das hängt davon ab, wie wir sie heute und in Zukunft gestalten und einsetzen. KI kann Wahrscheinlichkeiten berechnen und Muster erkennen – je nach Kontext und Design kann sie damit Gutes oder Schlechtes bewirken. Entscheidend ist etwa die Qualität der Trainingsdaten: Enthalten diese Verzerrungen oder Stereotype, übernimmt die KI diese ebenfalls. Deshalb müssen Entwickler*innen von Anfang an „Ethics by Design“ umsetzen – also eine werteorientierte Gestaltung der Systeme. Auch die Betreiber und Nutzer*innen sollten bei der Auswahl von KI-Tools kritisch prüfen, ob ethische Standards eingehalten werden.

Der Einsatz von KI kann für verschiedene Lebensbereiche oder Interessensgruppen Vor- sowie Nachteile bringen. Welche Chancen sehen Sie durch KI für die Gesellschaft? Und wo sehen Sie welche Risiken?

Im Bildungsbereich könnte KI idealerweise dazu beitragen, Lernen individueller, kollektiver und bedürfnisorientierter zu gestalten. Voraussetzung ist jedoch, dass die Tools die Privatsphäre der Schüler*innen wahren, ihre Daten schützen und keine Leistungsbewertungen durch KI erfolgen. Zudem darf KI nicht vermenschlicht werden: Sie kann nicht lernen, fühlen oder Mitgefühl empfinden – sie berechnet lediglich Wahrscheinlichkeiten. Eine „Beziehung“ zu einem Chatbot bleibt daher immer einseitig. Wir müssen uns fragen: In welchen Kontexten ist KI sinnvoll – und wo besser nicht?

Wie verändert KI unser Menschenbild, wenn Technologie immer mehr Aufgaben übernimmt, die eigentlich „typisch menschlich“ sind?

Menschenbilder sind grundlegende Vorstellungen davon, was den Menschen ausmacht – oft unbewusst, aber beim KI-Einsatz plötzlich sehr präsent. Wer ein defizitäres Menschenbild vertritt („Maschinen sind neutraler als voreingenommene Menschen“), wird KI eher für Entscheidungen nutzen, etwa beim Scannen von Bewerbungen. Wer ein kooperatives Menschenbild hat, sieht KI als Werkzeug, das formale Kriterien prüft, während die finale Entscheidung beim Menschen bleibt. Dabei ist es ein Mythos, dass KI „menschlich“ sei: Ihr fehlen Leiblichkeit, Erleben und Selbstbewusstsein. Aktuell konkurrieren zwei Menschenbilder: Einerseits die Optimierung von Leistung und Effizienz, andererseits die Betonung menschlicher Werte wie Freiheit und Transparenz.

Frau Prof. Dr. Grimm, Sie haben die 10 Gebote der KI-Ethik mitentwickelt. Können Sie uns zu einigen der Gebote passende Beispiele nennen?

Angesichts des Trends, dass Heranwachsende KI zunehmend als Gefährt*in oder Berater*in nutzen, ist das zweite Gebot zentral: „Sei dir bewusst, dass KI keine echten Freundschaften oder Liebe ersetzen kann.“ Kinder teilen mit Chatbots Geheimnisse, die sie Freunden oder Familie nicht anvertrauen würden. Hier braucht es dringend Aufklärung und KI-Kompetenz – besonders vor dem Hintergrund zunehmender Einsamkeit.

Ebenso wichtig ist das vierte Gebot: „Denke zuerst selbst nach, bevor du KI nutzt, und trainiere deine eigenen Fähigkeiten.“ Generative KI wie ChatGPT, Grok oder Mistral wurde nicht für Bildungszwecke entwickelt, dringt aber in Schulen ein. KI kann als Tutor*in helfen – erst, wenn Kinder eigenständiges Denken gelernt haben. Sonst riskieren wir, Problemlösungskompetenz und kritisches Denken zu schwächen.

Wie können wir dann ein gelingendes Leben mit KI gestalten?

Gemeinsam sollten wir uns überlegen, wie ein gutes und gelingendes Leben mit KI aussehen kann. Wie sollen wir uns als Menschen dieser Entwicklung gegenüber verhalten? Wir sollten KI weder als Heilsbringer*in noch als Zerstörer*in mystifizieren. Entscheidend ist, sie demokratieverträglich zu gestalten, unsere Autonomie zu wahren und eine kritische Urteilskraft zu stärken. Gleichzeitig muss die politische und wirtschaftliche Dominanz weniger KI-Player*innen demokratisch reguliert werden. Es darf nicht sein, dass eine Handvoll Unternehmen die Zukunft der KI allein bestimmt.

Liebe Frau Prof. Dr. Grimm, vielen Dank, dass Sie sich die Zeit genommen haben, unsere Fragen zu beantworten!

Jetzt das neue Material bestellen!

Mit Geboten wie „Glaube nicht alles, was dir die KI erzählt, und überprüfe die Ergebnisse immer kritisch“ oder „Vergleiche dich nicht mit KI-optimierten Bildern. Du bist genug” weisen die zehn Gebote der KI-Ethik bereits auf mögliche Gefahren im Umgang mit KI hin. Das Booklet „10 Gebote der KI-Ethik” ist eine Ergänzung zur gleichnamigen Postkarte und regt Schüler*innen ab 12 Jahren zum Nachdenken über den Einfluss von KI in unserem Leben an. Die darin enthaltenen authentischen Geschichten wurden in Zusammenarbeit mit Studierenden des Fachbereichs Digitale Ethik an der Hochschule der Medien in Stuttgart erstellt.