Suizidgefährdung im NetzWarum Suizidinhalte auf Social Media gefährlich sind
Auslöser für ernsthafte Suizidgedanken oder gar einen Suizidversuch ist oftmals eine krisenhafte Situation: Mobbing in der Schule, Liebeskummer, ein Konflikt mit Freund*innen, familiäre Probleme, Schulversagen oder generelle Versagensängste. Auch Depressionen können zu Suizidgedanken führen. In der eigenen Einschätzung der Heranwachsenden werden diese Schwierigkeiten und Krisen in der Regel unrealistisch negativ gesehen. Die Betroffenen fühlen sich außerstande, in der bisherigen Art und Weise weiterzuleben. Der Suizid wird als scheinbar einzige Lösung auf eine nicht mehr zu bewältigende Situation gesehen.
In diesem Moment ist es für Betroffene wichtig, dass sie Hilfe erfahren und Lösungsmöglichkeiten für ihre Probleme aufgezeigt bekommen. Besonders schädlich sind in dieser Situation hingegen Inhalte, die Betroffene in ihrer negativen Weltsicht bestätigen. Das können zum Beispiel Videos anderer Betroffener sein, die über ihre momentane schlechte Verfassung sprechen. Oder Inhalte, die eine negative Weltsicht, Selbstverletzung und Selbstmord glorifizieren. Auch Inhalte, die Hilfsmöglichkeiten (zum Beispiel Beratungsstellen, Therapie, Medikamente) als nutzlos oder nicht wirksam darstellen, sind problematisch. Und natürlich alle Inhalte, die ganz offen Suizid gutheißen und Anleitungen zur Selbsttötung enthalten.
Welche Rolle spielen Social-Media-Dienste?
Viele Kinder und Jugendliche nutzen Social-Media-Plattformen zum Austausch mit Freund*innen, zur Unterhaltung, aber auch als Informationsquelle. Besonders beliebt sind bei deutschen Heranwachsenden Instagram und TikTok. Diese Plattformen werden laut JIM-Studie 2023 von rund 60 Prozent der Jugendlichen täglich oder mehrmals die Woche genutzt. Auf beiden Plattformen sind Inhalte, die Suizid verherrlichen, verboten. TikTok schreibt auf seiner Webseite zum Thema „Suizid und Selbstverletzung“: „Wir gestatten keine Inhalte, in denen Handlungen dargestellt, beworben, als „normal“ verharmlost oder verherrlicht werden, die zu Suizid oder Selbstverletzung führen könnten.“
Auch Instagram hat klare Regeln für den Umgang mit Suizidinhalten in seinen Richtlinien festgelegt: „Wir gestatten unter keinen Umständen, selbstverletzendes Verhalten oder Suizid zu verherrlichen oder zu befürworten. Darüber hinaus entfernen wir fiktive Darstellungen von Suizid und Selbstverletzung sowie Inhalte zu Methoden oder Hilfsmitteln.“
Trotz dieser klaren Regeln stehen beide Plattformen immer wieder in der Kritik. Ein Grund dafür ist, dass Personen, die sich in Krisensituationen befinden, häufiger problematische Inhalte angezeigt bekommen. Denn wenn der Algorithmus der Plattform erkannt hat, dass sich jemand für Inhalte zum Thema psychische Gesundheit interessiert, werden immer mehr dieser Inhalte vorgeschlagen.
Dieses Phänomen konnte zum Beispiel Amnesty International im Report „In die Dunkelheit getrieben: Wie TikTok Selbstverletzungen und Suizidgedanken fördert“ (nur auf Englisch verfügbar) nachweisen. Bei Test-Accounts, die das Verhalten von Personen mit psychischen Problemen simulierten, enthielt bereits nach kurzer Zeit jedes zweite vorgeschlagene Video problematische Inhalte. Diese Accounts bekamen außerdem bis zu zehn Mal häufiger Inhalte zum Thema psychische Gesundheit angezeigt als andere Accounts.
Das gleiche Problem lässt sich auch auf Instagram beobachten. In einer internen Untersuchung mit dem Titel „Teen Mental Health Deep Dive“ befragte Instagram User*innen zwischen 13 und 17 Jahren zum Thema psychische Gesundheit. Die Untersuchung wurde von Instagram einige Jahre später veröffentlicht (nur auf Englische verfügbar), nachdem Ergebnisse an die Presse gelangten und weltweit darüber berichtet wurde. In der Untersuchung gaben rund 12 Prozent der Nutzer*inne an, dass ihnen im letzten Monat auf Instagram mit Suizid- oder Selbstverletzungsinhalte angezeigt wurden. Besonders problematisch: Nutzer*innen, denen es psychisch nicht gut ging, bekamen deutlich häufiger problematische Inhalte angezeigt als Nutzer*innen, denen es gut ging (siehe Seite 40).
Wie kann man Betroffenen helfen?
- Aufmerksam sein und Meldefunktionen nutzen: Eltern sollten zunächst immer offen mit ihren Kindern über ihr Internetverhalten und gegebenenfalls auch über das Thema Suizid reden. Grundsätzlich gilt: Fallen Ihnen Inhalte auf, die Suizid verherrlichen, dann melden Sie diese bitte immer zuerst an den Support der Plattform (z.B. über die Meldefunktion). Die Plattformbetreiber können am schnellsten und effektivsten dazu beitragen, dass Kindern und Jugendlichen der Zugang zu diesen Inhalten erschwert wird.
- Ruhe bewahren: Vermuten Sie Suizidgefahr bei einem Kind, sollten Sie es nicht mit Appellen, Forderungen oder gar Zwang überfallen. Versuchen Sie, die betroffene Person direkt anzusprechen. Nehmen Sie dabei eine möglichst neutrale, wertfreie Haltung ein. Teilen Sie sehr deutlich die eigenen Sorgen und Befürchtungen mit. Sprechen Sie die Angst vor einer Suizidhandlung konkret und sehr direkt an (ohne Umschreibungen oder Verharmlosungen). Signalisieren Sie, dass Sie als Ansprechperson zur Verfügung stehen. Falls Gesprächsbereitschaft besteht, können Sie fragen, was im Leben so belastend ist und was Sie dazu beitragen können, dass die Probleme besser angegangen und verarbeitet werden können. Fragen Sie nach, wie ernst die Suizidabsichten sind. Bemühen Sie sich, alternative Möglichkeiten zur Lösung von Problemen aufzuzeigen.
- Professionelle Unterstützung holen: Wenn die betroffene Person nicht gesprächsbereit ist oder Sie selbst in der Beratung nicht weiter wissen, müssen Sie nicht untätig bleiben. Teilen Sie Ihre Beobachtungen mit anderen Menschen, denen Sie vertrauen. Holen Sie sich möglichst professionelle Unterstützung. Gerade Erwachsene, die unsicher sind, wie das Verhalten von betroffenen Kindern oder Jugendlichen zu bewerten ist, sollten sich Rat und Hilfe bei Beratungsstellen holen. Professionelle Hilfe in akuten Krisensituationen finden Sie z.B. bei Schulpsychologischen Beratungsstellen, in Erziehungsberatungsstellen oder in Mädchen- und Frauentreffs.
- Inhalte prüfen lassen: Sie können schwer einschätzbare Inhalte auch von Expert*innen auf ihr Gefährdungspotenzial prüfen lassen. Dafür können Sie sich an www.jugendschutz.net oder an www.internet-beschwerdestelle.de wenden.
- Umgang mit Social Media prüfen: Sprechen Sie mit der betroffenen Person darüber, ob Social-Media-Inhalte in der letzten Zeit zur negativen Stimmung beigetragen haben. Machen Sie die Person darauf aufmerksam, dass die Sortierung durch Algorithmen dazu führen kann, dass mehr negative und problematische Inhalte angezeigt werden. Sollte das der Fall sein, kann man überlegen, ob bewusste Social-Media-Pausen sinnvoll sind und einem guttun. Wer nicht auf die Plattform verzichten möchte, kann auch einen neuen Account anlegen und diesen bis auf Weiteres nutzen. Bitte beachten Sie: Die Nutzung von Social Media ist nicht zwangsläufig problematisch oder gefährlich. Im Gegenteil können Social-Media-Dienste von Menschen in Krisensituationen auch als hilfreich und positiv empfunden werden. Zum Beispiel, weil sie darüber Kontakt zu Freund*innen halten und sich ablenken können.