Sprache in Sozialen MedienAlgospeak – Was bedeuten die Codes und Emojis auf TikTok und Co.?
Aus Sex wird Seggs, aus Lesbian wird Le$Bean bzw. Le Dollar Bean und das harmlose Auberginen-Emoji wird zum männlichen Genital. Wer viel durch Social Media scrollt, hat vielleicht schon seltsame Begriffe oder Emojis gesehen, deren Bedeutungen sich nicht sofort erschließen. Dahinter steckt Algospeak, eine Codierung von sensiblen Wörtern, die normal geschrieben als problematischer Inhalt erkannt werden könnten.
Was ist Algospeak?
Algospeak ist ein Kofferwort aus „Algo“ für „Algorithmus“ und „Speak“, dem englischen Wort für „Sprechen“. Algospeak wird als Kommunikationsstrategie in sozialen Medien eingesetzt, um Plattformrestriktionen zu verhindern. Begriffe werden umformuliert, Silben vertauscht oder Zahlen statt Buchstaben eingesetzt. Auch das Verwenden von bestimmten Emojis fällt unter Algospeak. Eine Grafik mit Beispielen finden Sie weiter unten im Artikel.
Mithilfe von Algospeak gegen „Shadowbans“
Viele Plattformen wie zum Beispiel TikTok versuchen durch das automatisierte Erkennen bestimmter Wörter zu verhindern, dass Nutzer*innen Hassrede, Beleidigungen, sexualisierte oder extremistische Beiträge angezeigt werden. Dabei kam es in der Vergangenheit bereits vor, dass auch Inhalte verborgen wurden, die gegen keine Richtlinien verstießen. Eine Recherche von NDR, WDR und Tagesschau konnte 2022 zeigen, dass unter anderem Kommentare mit Begriffen wie „schwul“, „homosexuell“, „LGBTQ“, „Auschwitz“ und „Nationalsozialismus“ teilweise nicht angezeigt oder blockiert wurden. Und das, obwohl sie inhaltlich nicht problematisch waren oder sogar aufklärenden Charakter hatten. Die Nutzer*innen wurden über die Beschränkungen ihrer Beiträge nicht informiert. Hierbei spricht man von sogenannten „Shadowbans“. Gepostete Inhalte sindfür Ersteller*innen zwar noch sichtbar, aber nicht für andere Nutzer*innen. Die Beiträge haben also weniger Reichweite, meist ohne dass dies vom Plattformbetreiber kenntlich gemacht wird.
Um Shadowbans oder gar das Löschen von Beiträgen zu verhindern, haben Nutzer*innen angefangen, Begriffe abzuwandeln. Durch einen Artikel der Washington Post im Jahr 2022 erlangte der Begriff „Algospeak“ für dieses Verhalten größere Bekanntheit. Einige Algospeak-Begriffe sind leicht zu „decodieren“. Lediglich ein Buchstabe wird ausgetauscht, beispielsweise „D1CK“ (dick, engl. für Schwanz), „Le$bian“ (lesbian, engl. für lesbisch) oder „Depressi0n“ (Depression). Anders verhält es sich, wenn ein bekanntes Wort für etwas ganz anders steht. So verwendeten beim #MascaraTrend im Jahr 2023 Nutzer*innen auf TikTok das Beautyprodukt als Codewort, um über ihre Erfahrungen mit sexuellem Missbrauch zu berichten.
Algospeak in problematischen und antidemokratischen Kontexten
Nicht immer wird Algospeak genutzt, um über sensible Themen oder kontroverse Inhalte aufzuklären und sich dazu auszutauschen. Einige Codewörter und Emojis werden eingesetzt, um Personen sexuell zu belästigen, selbstverletzendes Verhalten zu normalisieren oder um gezielt Hass und rechtsextremistische Inhalte zu verbreiten.
Insbesondere weibliche Personen werden in sozialen Medien häufig sexuell belästigt, ohne dass die Plattformen dagegen vorgehen. Nutzer*innen setzen dabei vor allem vermeintlich harmlose Emojis ein. So steht ein Feuer-Emoji für „Du bist heiß!“, drei Wassertropfen bedeuten „Ejakulation“ und wer schreibt „Zeig Kirschen-Emoji!“, will, dass Brüste gezeigt werden.
Online finden sich auch Personen in Communitys zusammen, um sich zu selbstverletzendem Verhalten oder zu Selbstmordgedanken auszutauschen und zum Teil sogar dazu zu ermutigen. Auch in diesen Kontexten haben sich bestimmte Codewörter und Emojis etabliert. Statt von Selbstmord (englisch „Suicide“) zu sprechen, nutzen einige Nutzer*innen den Begriff „Sewer slide“. Oder anstatt vom Tod zu sprechen, wird das Wort „unalive“ („unlebendig“) genutzt. Emojis wie Messer, Schere oder Rasierer stehen für Selbstverletzungen und ein Barcode-Emoji für Narben durch selbstverletzendes Verhalten. Einen ausführlichen englischsprachigen Artikel dazu finden Sie bei der kanadischen Medienkompetenz-Initiative „The White Hatter“.
Dass rechtsextremistische Ideologien häufig nicht offen, sondern „getarnt“ verbreitet werden, ist nicht neu. Die Amadeu-Antonio-Stiftung spricht hier von sogenannter „Umwegkommunikation“. Auf Social Media geht es einigen Verbreiter*innen antidemokratischer und antisemitischer Inhalte vor allem darum, große Reichweite zu bekommen. So können sie Personen erreichen, die bisher nicht mit menschenfeindlichen Ideologien in Berührung gekommen sind. Die Strategie geht meist über Algospeak hinaus und ist komplexer. Beispielsweise gibt es einen TikTok-Trend, bei dem in humoristischen Videos und Memes bewiesen werden soll, dass Zwerge wirklich existieren. Der Zwerg ist ein rechtsextremistisches Symbolbild. Zum einen erinnern Zwergenmützen an mittelalterliche Judenhüte, zum anderen steht der Gartenzwerg in diesen Kreisen für eine „arische“ Lebensart. Größere Verbreitung hat auch das blaue Herz-Emoji, das Sympathie für die AfD zum Ausdruck bringt. In den USA ist das blaue Herz hingegen ein Bekenntnis zur Demokratischen Partei.
Übersicht mit Beispielen zu Algospeak
Auf der Grafik haben wir einige Beispiele für Sie zusammengetragen. Sie können die Übersicht herunterladen und ausdrucken.
Ist Algospeak wirklich sinnvoll?
Nutzer*innen erhoffen sich durch Algospeak nicht in ihrer Reichweite eingeschränkt zu werden. Dabei ist allerdings nicht klar, ob dieses Vorgehen überhaupt nötig oder effektiv ist. Plattformen gewähren der Öffentlichkeit bisher keinen umfassenden Einblick, wie die automatische Erkennung von Inhalten funktioniert und nach welche Kriterien genau moderiert wird. Das führt dazu, dass Nutzer*innen darüber spekulieren müssen, welche Inhalte betroffen sein könnten. Und unter Umständen auch dazu, dass eine Übervorsichtigkeit entsteht, in der Dinge codiert werden, obwohl dafür gar kein Anlass besteht.
Fraglich ist auch, wie effektiv ein codiertes Schreiben ist, um automatische Erkennung zu verhindern. Denn es ist anzunehmen, dass ein Filter, der nach bestimmten Wörtern sucht, auch problemlos um neue Begriffe erweitert werden kann. Falls eine Plattform wirklich restriktiv gegen einen Inhalt vorgehen möchte, würden sicherlich auch die allgemein bekannten Algospeak-Begriffe zu diesem Thema erkannt. So löst eine Suche nach „Sewer Slide“ bei TikTok zum Beispiel mittlerweile dieselben Hinweise auf Suizid-Hilfestellen aus wie eine Suche nach dem Begriff „Suicide“.
Durch den Einsatz von Künstlicher Intelligenz sind darüber hinaus auch semantische Zusammenhänge automatisch erkennbar. Ob der Begriff „Auschwitz“ im Rahmen einer Holocaustleugnung oder in einem Post zum Gedenktag der Befreiung des Konzentrationslagers verwendet wird, wäre dadurch auch bei automatischer Überprüfung erkennbar. Es ist allerdings wie gesagt wenig darüber bekannt, wie genau die automatische Erkennung und Moderation auf den einzelnen Plattformen eingesetzt wird.