Jugendschutz und Suchmaschinen

Rechtliche Aspekte

Jugendschutz und Suchmaschinen werden in der öffentlichen Wahrnehmung stark miteinander in Verbindung gebracht, und das zu Recht: In der Regel können problematische Inhalte, wie etwa Pornografie oder Gewalt, im Netz auch über Suchmaschinen gefunden werden. Allerdings werden die Funktionsweise und damit die rechtliche Stellung der Suchmaschinen im Bereich des Jugendschutzes mitunter falsch bewertet. Dabei steht vor allem die Frage im Vordergrund, wer die rechtliche Verantwortung für die problematischen Inhalte hat, etwa wenn die verwendete Suchmaschine bei Eingabe bestimmter Suchwörter Ergebnisse anzeigt, die einen Verstoß gegen den Jugendschutz vermuten lassen.

Warum findet die Suchmaschine u.U. eine Pornoseite, wenn ich meinen Namen eingebe?

In erster Linie reagieren Suchmaschinen auf den Text und die sonstigen sichtbaren Inhalte einer Webseite. Sie wertet jedoch auch den Quellcode einer Webseite aus. Hier lassen sich auch für den normalen Nutzer unbemerkt Daten hinterlegen („Metadaten“), die weitere Informationen zu der Webseite liefern, wie z.B. eine Verschlagwortung.

Pornografische Seiten haben oft, ebenso wie manch andere Seiten, eine Vielzahl an Tags auf den Seiten implementiert und bedienen sich weiterer technischer Mittel, um bei möglichst vielen verschiedenen Suchanfragen gefunden zu werden. Deshalb ist es auch möglich, dass Allerweltsnamen wie Müller oder Schmidt als Tag hinterlegt wurden. Gleiches kann für übliche Vornamen wie Andreas, Otto oder Martin gelten. Damit täuschen diese Seiten der Suchmaschine vor, dass solche oft verwendeten Suchbegriffe mit ihrer Seite in Verbindung stünden. Seitenbetreiber arbeiten darüber hinaus mit einer Vielzahl von Tricks, um ihre Seiten möglichst weit oben in den Ergebnislisten zu platzieren. Diese Anstrengungen sind im Marketing unter dem Oberbegriff „Search Engine Optimizing“ bekannt geworden. Je nach Zweck der Suchmaschinenoptimierung handelt es sich um lautere oder unlautere Maßnahmen.

Wer ist für problematische Inhalte verantwortlich?

Auch wenn problematische Inhalte in den Ergebnislisten auftauchen: Eine Haftung der Suchmaschinenbetreiber besteht nicht, soweit es sich um einen klassischen Suchdienst handelt. Der Grund hierfür ist die Funktionsweise der Suchdienste: Sie durchforsten und analysieren Internetinhalte mit Hilfe automatisierter, algorithmischer Prozesse und stellen das Ergebnis dieser Rechenoperationen dem Nutzer zur Verfügung. Die Suchmaschine ist damit ein technischer Dienstleister, der die Inhalte anderer Anbieter aufbereitet und erreichbar macht. Die Suchmaschine spiegelt das Internet wider.

Wichtig für die rechtliche Einschätzung ist die Tatsache, dass es sich bei den Suchergebnislisten um die automatisierte Aufbereitung von Inhalten dritter Anbieter handelt. Zum Beispiel analysiert die Suchmaschine automatisiert die pornografische Seite. Soweit der Anbieter hier geschickt genug eine Verbindung zum Namen „Andreas Müller“ suggeriert, wird die Suchmaschine von einer sinnvollen Verknüpfung ausgehen und dieses Angebot bei Eingabe des Namens auflisten.

Würde man dem Anbieter der Suchmaschine eine inhaltliche Kontrolle dieser aufbereiteten Inhalte und der erstellten inhaltlichen Verknüpfungen aufbürden, wären Suchdienste, wie wir sie kennen, nicht mehr umsetzbar, da diese Kontrolle bei einer Gesamtzahl von mehreren Milliarden sich stetig verändernden Seiten praktisch unmöglich ist.

Rein rechtlich sind die Anbieter der Inhalte selbst zur Verantwortung zu ziehen. Wird etwa eine Seite in den Ergebnislisten angezeigt, die Pornografie beinhaltet, so muss primär der Betreiber dieser Seite rechtlich zur Verantwortung gezogen werden.

Anders kann dies bei redaktionell betriebenen Suchdiensten sein, bei denen Redakteure den zu durchsuchenden Katalog an Webseiten bewusst und nach inhaltlicher Prüfung auswählen. Zwangsläufig ist jedoch der Fundus, aus dem diese Suchdienste schöpfen, wesentlich kleiner als bei jenen Suchdiensten, die versuchen, das gesamte World Wide Web auszuwerten.

Im Umkehrschluss bedeutet die Entfernung eines Links aus der Suchergebnisliste auch nicht, dass der eigentliche Inhalt der Seite selbst entfernt würde. Diese Seite wäre nach wie vor abrufbar, nur eben nicht mehr über die Suchmaschine auffindbar, die die Seite aus ihrer Suchergebnisliste gestrichen hat

Suchmaschinenfilter

Obwohl Suchmaschinen jugendschutzrechtlich für die Ergebnisse der Suchanfragen nicht verantwortlich sind, haben viele Suchmaschinenanbieter Maßnahmen zur Verbesserung des Jugendschutzes unternommen: Alle großen Suchdienste verfügen über ein eigenes Filtersystem, das es dem Benutzer erlaubt, eigenhändig Einstellungen vorzunehmen und so direkt Einfluss auf die anzuzeigenden Suchergebnisse zu nehmen.

Diese Filter versuchen in der Regel, Webseiten mit sexuellen oder gewalthaltigen Inhalten in den Suchergebnislisten zu minimieren. Dabei kann oftmals noch zwischen einer moderaten oder einer strikten Filterung gewählt werden. Bei Google beispielsweise werden bei einer moderaten Filterung Bilder und Videos, bei einer strikten Filterung Bilder, Videos und Texte gefiltert. Beide Arten der Filterung sollen verhindern, dass in den Suchergebnissen gelistete problematische Einträge durch Zufall aufgerufen werden können.

Zu beachten ist, dass hinter einem solchen Filter in Anbetracht der Anzahl der existierenden Internetseiten keine manuelle Kontrolle stecken kann. Wie bei der eigentlichen Erstellung der Ergebnisse können die Filter ebenfalls nur automatisiert arbeiten. Sie beurteilen die aufgefundenen Inhalte Dritter mittels automatisierter Prozesse. Die Suchmaschinenanbieter versuchen zwar stetig, die Filterleistung zu verbessern, dennoch können teilweise inhaltlich problematische Seiten angezeigt werden. Schwierig ist zudem, dass die Suchdienste global operieren, die Rechtslagen in den Ländern aber unterschiedlich sind. So dürfen in Deutschland z. B. Hakenkreuze nur unter bestimmten Voraussetzungen gezeigt werden, in den USA oder anderen Ländern ist dies aber als freie Meinungsäußerung zulässig.

Suchmaschinen und Verhaltenskodex der FSM

In Deutschland haben sich die Suchmaschinenanbieter ask.de, Google, MSN (bing), suchen.de, T-Online und Yahoo der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter e.V. (FSM) angeschlossen, um sich im Bereich des deutschen Jugendmedienschutzes zu engagieren. Gemeinsam bilden sie die „Selbstkontrolle Suchmaschinen“ unter dem Dach der FSM. Sie haben im Rahmen eines freiwilligen Engagements einen Regelkatalog, einen Verhaltenskodex, entwickelt, der Themen des Jugendschutzes beinhaltet.

Freiwillige Selbstkontrolle Multimedia-Diensteanbieter

Die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter e.V. (FSM) ist ein eingetragener Verein, der sich mit Fragen des Jugendmedienschutzes beschäftigt und dessen Mitglieder Wirtschaftsunternehmen wie z.B. Deutsche Telekom, RTL interactive, Google, Vodafone oder Microsoft Deutschland sind. Gemeinsam mit ihren Mitgliedern hat die FSM verschiedene Maßnahmen entwickelt, um das Jugendmedienschutzniveau im Internet zu verbessern.

Das BPjM-Modell

Inhalte im Internet, vor denen Kinder und Jugendliche nach Meinung des Gesetzgebers geschützt werden sollen (z.B. weil sie Pornografie, Rechtsextremismus oder Gewalt enthalten), werden gemäß dem Jugendmedienschutz-Staatsvertrag (JMStV) indiziert, d.h., sie dürfen nur Erwachsenen zugänglich gemacht werden, beispielsweise in einem geschlossenen Benutzerkreis. Wer gegen diese Indizierung verstößt, handelt ordnungswidrig oder kann sich sogar strafbar machen.

Schwierig wird es allerdings, wenn der Inhalte-Anbieter seinen Sitz im Ausland hat, denn dort gilt deutsches Recht natürlich nicht. Hier kommt das sogenannte BPjM-Modul ins Spiel, das von der Selbstkontrolle Suchmaschinen in Kooperation mit der Bundesprüfstelle für jugendgefährdende Medien (BPjM) konzipiert wurde. Das BPjM-Modul ist im Grunde eine Liste von Internetadressen von ausländischen Anbietern, die von der BPjM nach dem im Jugendschutzgesetz geregelten Indizierungsverfahren als jugendgefährdend indiziert wurden. Die Liste wird mindestens monatlich aktualisiert und verschlüsselt an die beteiligten Suchmaschinenanbieter weitergegeben, die sie dann zeitnah in ihre Suchdienste einbinden. Die als jugendgefährdend eingestuften Inhalte werden dann in den Ergebnislisten der deutschen Suchdienste nicht mehr angezeigt.

Die von der BPjM indizierten Seiten sind aber immer noch vorhanden. Sie werden nicht gelöscht und nicht aus dem Netz entfernt, sondern sind nur nicht mehr über deutsche Suchmaschinen auffindbar.