Neue ExperteninterviewsWelche Auswirkungen hat KI auf die Schule, unsere Umwelt und den Datenschutz?

Als vertiefendes Angebot zu unserem neuesten Lehrmaterial „KI and me. Wie künstliche Intelligenz unser Leben prägt.“ haben wir drei Experteninterviews veröffentlicht. Darin besprechen wir die Aspekte „KI und Schule“, „KI und Datenschutz“ sowie „KI und Nachhaltigkeit“ mit Experten aus den jeweiligen Feldern. In diesem Artikel lesen Sie die jeweils ersten beiden Fragen aus den Interviews. Wenn wir damit Ihr Interesse geweckt haben, klicken Sie gerne auf den weiterführenden Link und laden Sie die vollständigen Interviews als kostenlose PDFs herunter.

Interview „KI und Schule“ mit den Lehrkräften Joscha Falck und Manuel Flick

1. Müssen wir uns in Zukunft noch Dinge merken, wenn die KI sowieso alles weiß?

Falck: Diese Frage würde ich mit „ja“ und „nein“ beantworten: Nein, weil wir personalisiert und omnipräsent auf das Wissen der Welt zugreifen können. Das eröffnet an vielen Stellen Möglichkeiten, Wissen auszulagern und es selbst nicht immer abrufbereit haben zu müssen. Und ja, weil Wissen die Grundlage für Kompetenzentwicklung ist und wir ein ganzes Bündel an Kompetenzen brauchen, um mit KI-generiertem Output zielführend arbeiten zu können. Natürlich sind generative KI-Tools wie ChatGPT oder Gemini mächtige und hilfreiche Werkzeuge: Sie antworten uns in natürlicher Sprache und haben in vielen Bereichen hohes Niveau. Man kann sie nahezu alles fragen und bekommt in vielen Fällen auch hilfreiche Antworten. Gleichzeitig beruhen diese „Antworten“ auf Wahrscheinlichkeiten. Das heißt Chatbots „wissen“ erst mal nichts. Sie sind gut darin, Daten plausibel zu kombinieren. Das bedeutet, dass jeder KI-Output von uns Menschen am Ende beurteilt werden muss. Und das wiederum geht nicht ohne Wissen.

Flick: Ich würde sogar noch einen Schritt weitergehen: Ich glaube, je stärker KI im (Schul-)Alltag eine Rolle spielt, desto wichtiger wird es, über ein grundlegendes Wissen zu verfügen, um diese Tools verantwortungsvoll, kritisch und reflexiv nutzen zu können. Denn ein wirksamer Einsatz von KI-Tools wie Chatbots setzt ein solides Basis- und Fachwissen sowie ein stabiles Fundament grundlegender Kompetenzen voraus. Dieses Wissen schließt auch Handlungswissen ein, um Zusammenhänge verstehen und KI-Inhalte kritisch prüfen und einordnen zu können.

2. Warum soll man als Schüler*in noch lernen, wenn die KI doch alles kann?

Flick: Auch wenn KI-Systeme in vielen Bereichen bereits sehr leistungsfähig sind, gibt es zutiefst menschliche Fähigkeiten, die auch in Zukunft nicht oder zumindest nur bedingt von KI ersetzt werden können. Ich denke an authentische Kommunikation, Empathie, echte Zusammenarbeit oder Kreativität. Diese Kompetenzen müssen im Kontext von Lernen stärker denn je betont werden. Zudem erlebe ich in der Praxis, dass Schüler*innen vor allem dann Dinge verstehen und beherrschen wollen, wenn sie erkennen, dass die vermittelten Inhalte einen echten Bezug zur Berufs- oder Lebenswelt haben. Dann ist die Motivation da. Schüler*innen wollen sich nicht komplett abhängig von der Technik machen – sie wollen sich als kompetent wahrnehmen! Deswegen sollte die Frage „Warum lernen wir (das) eigentlich?“ den Unterricht stets begleiten.

Falck: Lernen und vor allem Bildung sind mehr als die Anhäufung von Wissen. Dass wir lernen, hat etwas mit Neugier zu tun und damit, wie wir die Welt verstehen, wie sich unsere Persönlichkeit entwickelt und wie wir Handlungsoptionen erweitern. Wir lernen auch aufgrund bestimmter persönlicher Ziele oder um etwas abzuwenden. Bildungseinrichtungen sollten ihren Fokus daher stärker darauf richten, Sinn zu vermitteln und aktivierende Lernumgebungen zu schaffen. Wir brauchen mehr Komponenten der Selbstbestimmung, der individuellen Zielsetzung, des Erlebens und der persönlichen Bedeutsamkeit. Das kann zum Beispiel durch stärkere Partizipation gelingen und durch projektbezogene Arbeitsformen, die näher an der Realität sind als am Schulbuch, aber auch durch einen zunehmenden Fokus auf Zukunftskompetenzen wie Kommunikation, Kollaboration und Kreativität.

Interview „KI und Datenschutz“ mit Friedhelm Lorig, Referent Medienbildung beim LfDI

1. Warum haben KI-Systeme in den letzten Jahre so einen „Boom“ erfahren?

Lorig: Dass KI-Systeme in den letzten Jahren immer besser geworden sind, hängt maßgeblich auch mit den riesigen Datenmengen zusammen, mit denen sie trainiert wurden. Denn damit eine KI menschenähnliche Texte erstellen kann, muss das System zunächst erfassen, wie Menschen sich ausdrücken, wie sie miteinander kommunizieren und welche Sicht sie auf bestimmte Themen haben. Hierzu wurden und werden die Systeme mit Unmengen an Daten trainiert, die wir als Nutzende beispielsweise in Social Media hinterlassen. Das betrifft aber nicht nur Texte, sondern auch Bilder, die wir dort hochladen – auch sie wurden und werden zum Training der Bild- und Videogeneratoren verwendet.

2. Welche besonderen Risiken ergeben sich mit Blick auf den Datenschutz, wenn KI-Systeme in Schulen zum Einsatz kommen?

Lorig: Gerade die Daten von Kindern und Jugendlichen sind besonders interessant für das Training von KI-Systemen, da sich ihre Ausdrucksweise kaum in öffentlich zugänglichen Texten findet. Wenn öffentliche Stellen, wie zum Beispiel Schulen, KI-Systeme einsetzen, muss also sichergestellt werden, dass die Eingaben der Schülerinnen und Schüler nicht zum kommerziellen Training und zur Weiterentwicklung des Produktes des Anbieters verwendet werden. Manche Systeme ermöglichen es, die Verarbeitung der Eingabe zu Trainingszwecken in den Einstellungen zu deaktivieren. Auch möglich ist bei einigen Tools eine Verwendung ohne Anmeldung oder im „Inkognito-Modus“, wodurch weniger Informationen von Sitzung zu Sitzung gespeichert werden. Ein Problem bei KI-Systemen ist jedoch die mangelnde Transparenz. Wir wissen nicht, mit welchem Algorithmus die Daten verarbeitet werden. Das macht es nicht nur nahezu unmöglich, Daten, die zum Training in ein KI-System eingeflossen sind, im Nachhinein wieder zu entfernen. Wir sehen

„KI und Nachhaltigkeit“ mit Jan Doria, Hochschule der Medien Stuttgart

1. Was hat künstliche Intelligenz mit dem Thema Nachhaltigkeit zu tun?

Doria: Viel mehr, als es auf den ersten Blick scheint. Doch hierfür müssen wir zunächst klären, was die Wörter „Nachhaltigkeit“ und „künstliche Intelligenz“ eigentlich bedeuten. Der Begriff „Nachhaltigkeit“ wurde im 18. Jahrhundert von Hans Carl von Carlowitz geprägt, der im Erzgebirge die Bergbauindustrie mit Holz versorgte. Seine Grundidee war: Wenn man mehr Holz aus dem Wald nimmt, als im gleichen Zeitraum nachwächst, lässt sich keine „nachhaltige“ Holzwirtschaft betreiben. Daran angelehnt sollte also immer das Ziel sein, heutige Ressourcen so zu nutzen, so dass sie auch in Zukunft erhalten bleiben. Der Begriff „künstliche Intelligenz“ ist hingegen irreführend – denn wenn man sich näher mit diesen Technologien beschäftigt, stellt man fest: Sie sind weder „intelligent“ noch „künstlich“. KI-Systeme ahmen intelligentes Verhalten nach und können ohne menschliche Arbeit nicht funktionieren. Die Rede von einer angeblichen „künstlichen Intelligenz“ darf also nicht dazu führen, dass die Menschen, die sie entwickeln und betreiben, keine Verantwortung mehr für sie übernehmen wollen. Denn hinter der bunten Apps auf unseren Handys verbirgt sich leider eine sehr problematische Seite, die häufig ignoriert wird.

2. Worin besteht denn das Problem bei „KI und Nachhaltigkeit“?

Doria: Bei dem Thema „KI und Nachhaltigkeit“ unterscheidet Prof. Aimee van Wynsberghe zwei Bereiche: Einerseits den Einsatz von KI zur Erreichung der Nachhaltigkeitsziele (AI for sustainability) und andererseits die Nachhaltigkeit der KI selbst (Sustainability of AI). Dabei sind zwei Probleme besonders relevant: Das Hauptproblem liegt im hohen Energie- und Ressourcenverbrauch der KI.

Dafür muss man zuerst verstehen, wie KI funktioniert. Wenn wir heute von „KI“ sprechen, ist damit in der Regel „maschinelles Lernen“ gemeint. Das heißt, man bringt einem KI-System mit großen Datenmengen bei, Muster darin zu erkennen. Dabei gilt meist der „Bigger-is-better“-Ansatz: Das heißt: Je mehr Daten ein KI-System für das Training bekommt, desto effektiver wird es. Die dort erkannten Muster und Zusammenhänge kann ein trainiertes Modell später auf neue, unbekannte Daten anwenden, um zu einem Ergebnis zu kommen.

Ich mache das mal an einem Beispiel deutlich: Soll eine KI „lernen“, Lungenkrebs auf CT-Bildern zu erkennen, muss ich dem System zuerst viele Lungenbilder zeigen, die mit Blick auf Gesundheitszustand, Alter und Geschlecht variieren. Wenn Krebs zu sehen ist, gebe ich der KI immer den Hinweis „Das ist Lungenkrebs“. Mit der Zeit wird das Modell immer treffsicherer darin, kranke von gesunden Lungen zu unterscheiden. Nach der Trainingsphase sollte es in der Lage sein, Lungenkrebs auf neuen CT-Bildern zu erkennen.

Und nun zurück zum Energieverbrauch: Um ein KI-Modell für einen bestimmten Zweck nutzen zu können, muss es also zunächst mit sehr leistungsstarken Computern „trainiert“ werden. Wieviel Energie dafür verbraucht wird, hängt von verschiedenen Faktoren ab – zum Beispiel wie komplex das Modell, wie leistungsfähig die Hardware und wie nachhaltig der Energiemix am Standort ist. Doch, um mal ein Gespür für die Größenordnung zu bekommen, gebe ich zwei Beispiele: Expertinnen und Experten gehen davon aus, dass das Training eines Vorläufermodells von ChatGPT so viele CO2-Emissionen verursacht hat wie circa 300 Hin- und Rückflüge zwischen New York und San Francisco. Und: Die KI-Rechenzentren, die der Chiphersteller Nvidia mit Hardware ausstattet, verbrauchen pro Jahr etwa so viel Strom wie ganz Schweden.

Neben dem Training braucht aber auch die „Inferenzphase“ – das ist der Zeitpunkt, ab dem ein trainiertes KI-System tatsächlich genutzt wird – viel Rechenleistung. Denn jedes Mal, wenn ich mit einer KI interagiere, zum Beispiel über einen Prompt, kostet das weitere Energie. Besonders, wenn das Modell aus meinen Interaktionen (Nutzerdaten) „lernen“ und sich verbessern soll. Auch hier wieder Beispiele, um das mal einzuordnen: Die Erzeugung eines KI-Bildes benötigt etwa so viel Strom wie eine Smartphone-Ladung. Und der gesamte jährliche Energieverbrauch von ChatGPT entspricht ungefähr dem Strombedarf für die Aufladung von über drei Millionen Elektroautos.

Das Wort „Cloud“ (dt.: Wolke) blendet komplett aus, dass es um stromintensive Rechenzentren geht, die neben Energie auch wertvolle Rohstoffe benötigen. Zum Beispiel Silizium für Computerchips, Kupfer für Kabelverbindungen sowie enorm hohe Mengen an Frischwasser, um die verbauten KI-Chips permanent zu kühlen. Wir hatten uns im Klimaschutzabkommen von Paris 2015 eigentlich global darauf geeinigt, die Erderwärmung auf 1,5 Grad zu begrenzen. Das erscheint mir jedoch angesichts dieser Zahlen zunehmend fraglich.

Ein weiteres Problem ist die Auslagerung bestimmter Arbeitsprozesse an sogenannte Clickworker in Niedriglohnländer. Denn bevor Daten für das KI-Training tatsächlich genutzt werden können, müssen sie von echten Personen zuerst gesichtet und „gelabelt“ werden (z.B. Bilder kennzeichnen mit „das ist Krebs“ / „kein Krebs“). Das ist ein sehr aufwändiger Prozess, der meist von Hand erfolgt. Große KI-Konzerne wie OpenAI (ChatGPT) lagern das gerne an Clickworker im Globalen Süden aus, denn dort ist das Niveau der Löhne deutlich niedriger. Wir wissen zum Beispiel, dass OpenAI seinen Clickworkern in Kenia über Subunternehmen nur 2 US-Dollar pro Stunde bezahlt hat. Aus ethischer Sicht ist aber nicht nur der niedrige Stundenlohn problematisch, sondern auch die psychische Belastung durch diese Arbeit. Denn diese Menschen sichten auch Inhalte, die in Deutschland aus guten Gründen unter den Jugendschutz fallen würden.