Nicht allein bleiben – vom Umgang mit Online-Hatespeech


Dieser Beitrag beschäftigt sich mit den Fragen, welche Unsicherheiten als Folge von rechter, rassistischer, antisemitischer oder weiterer gruppenbezogener menschenfeindlicher Gewalt und Bedrohung im Internet entstehen und wie mit diesen umgegangen werden kann. Neben einer kurzen allgemeinen Einführung zum Thema Hatespeech liegt der Fokus auf den Folgen von Hatespeech bei Betroffenen und möglichen Umgangsweisen und Handlungsoptionen. Diese sind aus der Praxis der Beratungsarbeit gespeist.


 

Empfohlene Zitierung:

Lell, Joscha/Gdowzok, Laura/Kuhn, Lena (2024). Nicht allein bleiben – vom Umgang mit Online-Hatespeech. In: Institut für Demokratie und Zivilgesellschaft (Hg.). Wissen schafft Demokratie. Schwerpunkt Sicherheit – Schlüsselbegriff einer offenen Gesellschaft, Band 16. Jena, 166–177.

Schlagwörter:

Hatespeech, Online-Hatespeech, Internet, Beratung, Hass, Social Media

 

Unsicherheiten in Zeiten von Hass im Netz

Hatespeech, auf Deutsch Hassrede, wird zunehmend öffentlich und wissenschaftlich diskutiert. Dabei geht es nicht nur um die Folgen von Hatespeech für unsere Gesellschaft, sondern immer mehr auch um die Betroffenen. Wie gehen sie mit Hassnachrichten um? Was macht es mit Betroffenen, aufgrund zugeschriebener Merkmale angefeindet zu werden? Wie erleben sie digitalisierte Gewalt?

elly, die Beratungsstelle für Betroffene von Hatespeech in Thüringen, berät und unterstützt seit Juni 2023 Menschen, die im Netz aufgrund zugeschriebener Merkmale angefeindet werden. Sei es die Geschäftsführerin einer migrantischen Organisation, die Drohmails bekommt, oder die junge Kommunalpolitikerin, deren private Fotos und Videos in rechten Kanälen geteilt werden, oder ein Thüringer Verein, der aufgrund seines Einsatzes gegen Fake News einen Shitstorm durchlebt. Viele Betroffene wissen nicht, wie sie mit diesem geballten Hass umgehen sollen. Muss man ein dickes Fell haben und das aushalten oder soll man aktiv etwas dagegen tun? Wer kann und soll etwas dagegen tun? In der Beratungsstelle finden Betroffene Raum, um über ihre Erfahrungen zu sprechen. Ausgehend davon wird nach Handlungsmöglichkeiten gesucht: Was braucht es, um weiterhin aktiv zu bleiben und um Hassnachrichten zu verarbeiten? Welche Möglichkeiten gibt es noch, anstatt sich von Social Media abzumelden und sich so aus dem digitalen Raum verdrängen zu lassen?

In diesem Sinne wird in diesem Beitrag folgender Fragestellung nachgegangen: Welche Unsicherheiten entstehen als Folge von rechter, rassistischer, antisemitischer, (hetero-)sexistischer oder weiterer gruppenbezogener menschenfeindlicher Gewalt und Bedrohung im Netz und wie kann mit diesen umgegangen werden? Dabei wird zunächst auf den Begriff Hatespeech eingegangen. Anschließend werden die Folgen von Hatespeech für direkt und indirekt Betroffene thematisiert. Daran knüpfen ein Abschnitt zu potenziellen Bewältigungsstrategien und ein Ausblick an.

Was ist Hatespeech?

Der Begriff Hatespeech (teilweise auch „assaultive speech”) geht aus den Critical Race Studies hervor und tauchte erstmals in den 1990er-Jahren u. a. bei Mari J. Matsuda auf. Sie rückte dabei die Perspektive der Betroffenen in den Vordergrund und forschte vor allem zu rassistisch motivierter, gewaltvoller Sprache im analogen Kontext (vgl. Matsuda 1993). Bis heute gibt es keine allgemein anerkannte Definition von Hatespeech, vor allem keine rechtlich geltende. Der Europarat stellte in seinem „Rahmenbeschluss 2008/913/JI” fest, dass die Mitgliedsstaaten bestimmte Formen von rassistisch motivierter Hatespeech unter Strafe stellen müssen. Dies wurde spätestens 2016 auch explizit für den digitalen Raum festgehalten: 2016 unterzeichnete die EU mit den Anbieter*innen großer Online-Plattformen (Microsoft, YouTube, Twitter und Facebook) einen „Verhaltenskodex zur Bekämpfung illegaler Hassrede im Internet” (Europäische Kommission 2016). Darin wird Hatespeech wie folgt definiert: „Mit Hassreden [...] wird jegliches Verhalten öffentlicher Aufstachelung zu Gewalt oder Hass gegen eine Gruppe von Personen oder gegen ein Mitglied einer solchen Gruppe nach den Kriterien Rasse [sic], Hautfarbe, Religion, Abstammung oder nationalen oder ethnischen Herkunft bezeichnet.” (Ebd., 1) Hier liegt der Fokus also deutlich auf rassistisch motivierter Hatespeech.

Die Arbeit der Beratungsstelle elly stützt sich auf die im deutschsprachigen Raum gängige Definition: Danach werden bei Hatespeech Menschen aufgrund ihrer zugeschriebenen Zugehörigkeit zu einer gesellschaftlich marginalisierten Gruppe abgewertet. Als betroffenenparteiliche Beratungsstelle ist für elly dabei die Wahrnehmung der Betroffenen und nicht die der Täter*innen ausschlaggebend (vgl. VBRG e. V. 2024, 6; Kompetenznetzwerk gegen Hass im Netz 2024).

In Bezug auf Hatespeech betont bspw. Geschke (2017), dass es weniger um das Gefühl von Hass geht: „Nicht die Emotion Hass, sondern die vorurteilsbehaftete, verbale Abwertung bestimmter Gruppen ist definierendes Merkmal von Hass-Sprache”. Bei Online-Hatespeech handelt es sich, in Anlehnung an rechte Gewalt im analogen Raum, um sogenannte Botschafts- oder Stellvertreter*innentaten. Das heißt, i. d. R. wird nicht das Individuum als solches angegriffen, sondern als Repräsentant*in einer (zugeschriebenen) Gruppe (vgl. VBRG e. V. 2024, 7).

Folgen von Hatespeech

Hatespeech im Internet soll Angst verbreiten und sowohl direkt Betroffene als auch Mitlesende – und damit indirekt Betroffene – einschüchtern (vgl. Das NETTZ et al. 2024, 63f.). Ziel ist es, Betroffene zum Schweigen zu bringen, damit sie online wie offline nicht mehr am gesellschaftlichen Leben teilnehmen (ebd.). Dies wirkt sich auf mehreren Ebenen aus.

Individuelle Ebene

Zum einen sind die Folgen für Betroffene abhängig von der Art und der Stärke der Angriffe sowie vom persönlichen Hintergrund. Individuelle Auswirkungen von Hatespeech im Internet können emotionaler Stress, Selbstzweifel, Verunsicherung, Angstgefühle, psychische Krankheiten und reale Bedrohungslagen sein. Diese können zu konkreten Einschränkungen im Leben der Betroffenen führen (vgl. Regionale Arbeitsstelle für Bildung, Integration und Demokratie Sachsen e. V. o. J.). Ein Drittel der Befragten der IDZ-Studie „Hass im Netz: der schleichende Angriff auf unsere Demokratie” (Geschke et al. 2019) berichtete von emotionalem Stress, Angst und Unruhe aufgrund von Hassrede. Etwa 20 % schilderten depressive Symptome (ebd., 50f.). In der Gruppe der jungen Menschen unter 25 Jahre lagen die Zahlen deutlich höher. Bei ihnen gab jede*r Zweite emotionalen Stress, knapp 40 % Angst und Unruhe und etwa ein Drittel Symptome von Depressionen an (ebd.; Dellagiacoma 2023). Die Auswirkungen von Hatespeech können verschiedene Lebensbereiche betreffen und mit Problemen bei der Arbeit oder in der Bildungseinrichtung einhergehen (vgl. Geschke et al. 2019, 52).

Warum sind die Folgen von Hatespeech für direkt Betroffene derart weitreichend? Hatespeech-Angriffe können nicht isoliert betrachtet werden, sondern müssen im Zusammenhang mit der eigenen biografischen Erfahrung und aktuellen gesellschaftlichen Entwicklungen betrachtet werden. Dazu ein Beispiel aus der Beratungsarbeit: Wenn Betroffene in der eigenen Biografie bereits prägende Ausgrenzungserfahrungen (bspw. Mobbing im Kindes- und Jugendalter oder Rassismus- und Sexismuserfahrungen im Alltagsleben) gemacht haben, können Hatespeech-Angriffe u. U. retraumatisierend wirken. Das gilt insbesondere dann, wenn die frühere Ausgrenzung auf einem Diskriminierungsmerkmal, z. B. Homosexualität, beruht und Hatespeech sich später wiederum bspw. homofeindlich äußert. In einer gesellschaftlichen Stimmung, in der geschlechtliche und sexuelle Vielfalt ohnehin von Teilen der Gesellschaft infrage gestellt oder offen abgelehnt werden, ergibt sich eine besondere Verletzbarkeit. Dazu können bspw. konkrete lokale Ereignisse wie verbrannte Regenbohnen-Fahnen im Ort und Angriffe auf Teilnehmende von CSDs kommen. Ähnlich verhält es sich mit anderen Diskriminierungsformen. Hatespeech reiht sich in der Regel in vorherige Erfahrungen mit Rassismus, Antisemitismus, Fettfeindlichkeit usw. ein. Über die psychischen Verletzungen durch Online-Hatespeech hinaus kann es auch zu analoger Gewalt kommen. Betroffenen fällt es häufig sehr schwer, die konkrete physische Gefahrenlage einzuschätzen. Die Unsicherheit, ob auf eine Online-Bedrohung ein physischer Angriff folgt, kann eine große Belastung darstellen.

Trotz der teilweise hohen Belastung kommt es vor, dass Betroffene nicht von den eigenen Erfahrungen erzählen, z. B. weil sie sich schämen oder möglicherweise sich selbst die Schuld geben. Hinzu kommt, dass es spezifische Anlaufstellen erst seit kurzer Zeit und noch lange nicht bundesweit flächendeckend gibt. Oft wissen Betroffene schlicht nicht, dass sie sich an spezifische Anlaufstellen wenden können. Dadurch werden die realen Gewalterfahrungen an unzähligen Stellen ignoriert und/oder ausgehalten. Solche Angriffe können einen massiven Einfluss auf das eigene Wohlbefinden, auf Arbeitsroutinen und das persönliche Sicherheitsgefühl haben. Daher können sie dazu führen, dass sich Betroffene im digitalen Raum sowie auch offline aus dem gesellschaftlichen Leben zurückziehen, um sich vor (weiteren) digitalen Angriffen zu schützen.

Gesellschaftliche Ebene

Zum anderen hat Hatespeech neben den individuellen Folgen negative Auswirkungen auf die Gesellschaft. Denn nicht nur für direkt Betroffene, sondern auch für Mitlesende hat Hatespeech eine gewaltvolle Signalwirkung. Insbesondere muss die Spezifik rechter Gewalt berücksichtigt werden, bei der es sich auch im Internet um Botschaftstaten handelt, die eine kollektive Viktimisierung zur Folge haben können. Aus Angst vor digitalen Angriffen ziehen sich Menschen im digitalen Raum zurück. Dies zeigt etwa die im Februar vom Kompetenznetzwerk veröffentlichte Studie „Lauter Hass – leiser Rückzug”. Über die Hälfte der deutschlandweit Befragten (57 %) bekennt sich aus Angst im Netz seltener zur eigenen politischen Meinung (Das NETTZ et al. 2024, 55). Menschen, die sich häufig im Netz politisch äußern, z. B. Politiker*innen, Journalist*innen und zivilgesellschaftliche Akteur*innen, erfahren laut der Studie am häufigsten Hatespeech. So gaben beispielsweise 60 % der Befragten an, „sehr häufig“ oder „häufig“ „Hass im Netz“ gegen Politiker*innen wahrzunehmen (ebd., 34). In Thüringen haben in der bereits oben zitierten Studie des IDZ aus dem Jahr 2019 etwa die Hälfte der befragten Internetnutzenden angegeben, dass sie „sehr oft” oder „oft” Hatespeech gegen Menschen mit Migrationsbiografien, geflüchtete Menschen, Muslim*innen, politisch Andersdenkende und amtierende Politiker*innen gesehen haben (Geschke et al. 2019, 146).

Indem sich Menschen digital seltener zur eigenen politischen Meinung bekennen, wird die Meinungsvielfalt eingeschränkt. Dadurch entsteht der falsche Eindruck, dass menschenverachtende Ansichten die mehrheitliche Meinung sind. Betroffene und auch andere Personen mit gleichen Ansichten oder Hintergründen werden aus der Gesellschaft ausgegrenzt. Damit geht einher, dass ungerechte Machtstrukturen und Ungleichheit in der Gesellschaft verfestigt oder sogar verstärkt werden. Und damit gefährdet Hatespeech letztlich die Demokratie. Diesen sogenannten Silencing-Effekt beschrieb Lawrence bereits 1993 in Bezug auf rassistische Hatespeech im analogen Raum (vgl. Lawrence 1993, 160). Für den digitalen Raum ist er u. a. in Studien gut belegt: So gibt in der IDZ-Studie mehr als die Hälfte der Befragten an, sich aus Angst vor Hass im Netz weniger an politischen Diskussionen zu beteiligen (Geschke et al. 2019, 28; Dellagiacoma 2023). Online-Hatespeech muss daher als gesamtgesellschaftliches Problem begriffen werden. Dennoch sind auch die individuell Betroffenen damit konfrontiert, einen Umgang mit den Anfeindungen zu finden. Der nachstehende Abschnitt widmet sich potenziellen Bewältigungsstrategien.

Potenzielle Bewältigungsstrategien – was hilft, mit der Unsicherheit umzugehen?

Anspruch der Beratungsstelle elly ist es, Betroffene dabei zu unterstützen, einen individuellen Umgang mit Hatespeech zu entwickeln. Aus der Praxis haben sich dabei Strategien wie Wissensvermittlung, Melden und Blockieren, gezielte psychische Entlastung, die Organisierung solidarischer Unterstützung sowie Maßnahmen zur Erhöhung des Sicherheitsgefühls digital und analog als hilfreich erwiesen, ebenso wie rechtliche Schritte.

Wissen über die Funktion und Funktionsweise von Hatespeech

Wichtig für die Einordnung von persönlich erlebter Hatespeech ist Wissen darüber. Betroffene stellen sich Fragen wie: Warum schreiben Menschen so etwas? Warum trifft es gerade mich? Hier ist es zentral, zu verstehen, dass solche Angriffe immer Botschaftstaten sind: Sie treffen zwar einzelne, aber als Repräsentant*innen einer imaginierten Gruppe. Es geht Täter*innen nicht um einzelne Personen, sondern um Einschüchterung und Abwertung (vgl. VBRG e. V. 2024, 7; Wachs et al. 2021, 6). Auch Wissen über orchestrierte Angriffe kann dem Eindruck entgegenwirken, es wären „plötzlich alle gegen einen”.

Melden und Blockieren

Mit dem Melden und Blockieren von Accounts und Inhalten gibt es unterschiedliche Erfahrungen. Blockieren ist eine einfache und meist wirkungsvolle Maßnahme, um weitere direkte Hassnachrichten von einzelnen Accounts zu verhindern. Allerdings sind die Accounts damit nicht gelöscht und können weiterhin menschenverachtende Inhalte in ihrer Timeline posten oder andere Personen beleidigen und bedrohen. Auch besteht die Gefahr, dass Täter*innen einen neuen Account anlegen und damit erneut aktiv werden.

Psychische Entlastung

Um neben den genannten Maßnahmen auch den psychischen Belastungen gerecht zu werden, können Methoden zur psychischen Entlastung eine Rolle spielen. Dazu gehört Grundlegendes wie ausreichend Schlaf, einfache Übungen wie ein „Körperscan“ genauso wie entlastende Gespräche und das Thema Abgrenzung. Innere Abgrenzung von Hatespeech-Angriffen kann auf verschiedene Weise erfolgen. Eine Möglichkeit ist, sich Hassnachrichten nach Möglichkeit nicht auf dem eigenen Smartphone anzuschauen. Dieses haben viele Menschen rund um die Uhr bei sich, sogar in intimen Momenten wie abends auf dem Sofa oder vor dem Schlafengehen im Bett. Sich nach Möglichkeit nur tagsüber, zu begrenzten Uhrzeiten, ggf. am Arbeitsort und am Laptop den Hassnachrichten auszusetzen, kann beim Umgang helfen. Dabei geht es nicht darum, Hatespeech oder die dahinterliegenden Erfahrungen nicht ernst zu nehmen. Vielmehr sollen Betroffene die Möglichkeit haben, psychische Belastungen zu reduzieren.

Solidarische Netzwerke und Unterstützung

Immer wieder berichten Betroffene, dass ihnen vor allem eines hilft: solidarische Unterstützung. Das können positive Kommentare und Likes unter Posts sein, die besonders viel Hatespeech abbekommen. Einige Betroffene machen auch die Hater*innen öffentlich bzw. prangern sie öffentlich an. Ein Beispiel dafür sind Screenshots von den Accounts, von welchen Hatespeech ausging. Auf Instagram geschieht das typischerweise in Storys, welche nach 24 Stunden wieder verschwinden. Doch auch andere kreative Umgangsweisen thematisieren konkret den Hass. So antwortet die Autorin, Kabarettistin und Moderatorin Sarah Bosetti bspw. mit humorvollen Liebesgedichten auf hasserfüllte und abwertende Nachrichten (vgl. Bosetti 2020). Aber auch konkrete Unterstützung durch vertraute Personen kann helfen, um Hassnachrichten nicht selbst zu sichten. Insbesondere, wenn Analoges und Digitales eng beieinanderliegen (wie in der Kommunalpolitik), kann es helfen, konkret mögliche Verbündete im Umfeld anzusprechen und um Unterstützung zu bitten.

Maßnahmen im digitalen und analogen Kontext

Gerade nach ersten Vorfällen hilft es, Maßnahmen zu treffen, um sich vor weiteren Angriffen zu schützen. Das kann bspw. bedeuten, zu recherchieren, welche Informationen über die betroffene Person und weitere potenziell Bedrohte (Kolleg*innen, Angehörige usw.) im Netz zu finden sind. Ggf. können alte Fotos, Posts usw. gelöscht werden. Die Privatsphäre-Einstellungen von Social-Media-Accounts können überprüft werden. Bei Online-Veranstaltungen kann durch gute Planung und die Nutzung technischer Möglichkeiten ein Hatespeech-Angriff unterbunden bzw. schnell auf ihn reagiert werden. Gerade bei Drohungen ist es oft schwer abzuschätzen, ob es zusätzlich zu analogen Angriffen kommt. Die daraus resultierende Unsicherheit ist auch das Ziel der Botschaften. Insbesondere bei Bedrohungen im Zusammenhang mit Veranstaltungen oder dem Arbeitsplatz können Sicherheitsmaßnahmen besprochen werden. Dabei gilt es, die individuellen Befürchtungen ernst zu nehmen und herauszuarbeiten, was das Sicherheitsgefühl stärken kann. Bei Bedarf kann auch die Polizei, z. B. zur Absicherung des Wohnortes mit Sicherheitstechnik, beraten. Außerdem entscheiden sich manche Betroffene dazu, einen Antrag auf Sperrung der Melderegisterauskunft zu stellen. Dieser Schritt soll es Angreifer*innen schwerer machen, die persönliche Wohnadresse herauszufinden und so das Sicherheitsempfinden erhöhen.

Strafverfolgung und weitere rechtliche Schritte

Das Internet ist kein straffreier Raum, doch die strafrechtliche Verfolgung von Hatespeech bringt zahlreiche Probleme mit sich. Aufgrund geringer Aussichten auf einen für die Betroffenen befriedigenden Ausgang von Verfahren wird Hatespeech selten angezeigt. Die Aussicht, u. U. Monate bis Jahre auf eine Entscheidung zu warten, ist oft nicht motivierend. Auch ist nicht immer klar, ob Täter*innen ermittelt werden können. Dazu kommt, dass die Rechtslage häufig schwer einzuschätzen ist. Gerade größere Accounts, die schon Erfahrung mit Anklagen wegen Beleidigung, Verleumdung usw. haben, scheinen oft gut zu wissen, wie sie sich bspw. durch „Ironie” und „Satire” knapp unter der Grenze der Strafbarkeit bewegen. Wenn Verfahren eingestellt werden, ist das für Betroffene sehr frustrierend. Betroffene fürchten häufig zudem, von der Polizei bei Anzeigestellung auf der Wache nicht ernst genommen zu werden. Positiv hervorzuheben ist daher die Möglichkeit, Anzeigen direkt online aufzugeben. Bei möglichen zivilrechtlichen Schritten tragen Betroffene ein hohes Kostenrisiko, was vor weiteren rechtlichen Schritten abschrecken kann. Ein grundsätzliches Problem, sowohl strafrechtlich als auch zivilrechtlich, kann sein, die schiere Menge an Nachrichten und Kommentaren auf justiziable Inhalte zu überprüfen. Es bleibt abzuwarten, welche Möglichkeiten bspw. Entwicklungen im Bereich der Künstlichen Intelligenz im Sinne einer automatisierten Prüfung bringen.1

Ausblick

Es ist nicht allein Aufgabe der Betroffenen, gegen Hatespeech aktiv zu werden. Vielmehr braucht es eine gesamtgesellschaftliche Auseinandersetzung mit menschenverachtendem Gedankengut, menschenfeindlichen Akteur*innen im Netz sowie mit ihren Strategien. Daher wird im Ausblick kurz dargestellt, vor welchen Problemen die Eindämmung von menschenverachtenden Inhalten derzeit steht. Wichtig ist die Verantwortung der Plattformen, auf denen Hass verbreitet wird. Sie müssen effektiv gegen Hatespeech vorgehen und entsprechenden Content konsequent entfernen. Hier ist die Rechtslage zumindest in ihrer Umsetzung unzureichend. Der auf EU-Ebene eingeführte „Digital Services Act“ (DSA) hat in der Praxis für einzelne Betroffene kaum Verbesserungen gebracht. Zwar sind Plattformen verpflichtet, einen Meldeweg für potenziell illegale Inhalte einzurichten, dennoch werden Inhalte häufig nicht entfernt. Das deutsche „Netzwerk-Durchsetzungsgesetz” (NetzDG), welches die konkrete Rechtslage für die Entfernung rechtswidriger Inhalte seitens der Plattformen gewährleistete, wurde mit Inkrafttreten des DSA unwirksam. Fortschritte aus dem NetzDG, wie die Transparenzpflichten gegenüber Nutzer*innen und Gesetzgeber*innen sowie Ansprechpersonen im Bundesgebiet, finden sich im DSA nicht mehr (vgl. Kahl und Liepert 2023). Die Einführung notwendiger Stellen auf Mitgliedsstaaten-Ebene verläuft langsamer als gedacht, auch in Deutschland (vgl. Steiner 2024). Somit ist die funktionierende Melde-Infrastruktur nicht mehr verfügbar, ihre Ablöse noch offen. Mit dem Status „Trusted Flagger” soll es NGOs, Verbraucher- und Kinderschutzorganisationen erleichtert werden, von ihnen gemeldete Inhalte durch Plattformen löschen zu lassen. In Deutschland ist bisher erst eine Meldestelle als Trusted Flagger zugelassen (vgl. Bundesnetzagentur 2024). Damit kann vermutlich nicht der vollständige Bedarf an Meldungen gedeckt werden.

Derzeit ist Hass ein lukratives Geschäft für große Digitalplattformen. Hasserfüllte Botschaften verteilen sich schnell im Netz; Nutzer*innen, die sie posten, sind viel aktiv und radikalisieren sich häufig im Laufe der Zeit weiter (vgl. Hathaway 2021). Dieses Muster macht sich das Phänomen Ragebait zunutze: Hier produzieren Nutzer*innen gezielt Inhalte, die andere frustrieren oder wütend machen, um Reaktionen zu erhalten (vgl. Jones 2024). Diese Reaktionen sorgen für Reichweite, ohne großen Aufwand zu betreiben. Der Hass hilft Plattformen wiederum, relevant zu bleiben, indem sie viele aktive Nutzer*innen verzeichnen können. Prominentes Beispiel ist sicherlich Donald Trump: Obwohl er über Jahre Falschmeldungen und hasserfüllte Inhalte auf Twitter (heute X) postete und damit gegen die Nutzungsbedingungen der Plattform verstieß, wurde er lange nicht suspendiert, weil er der Plattform viel Publikum („Traffic“) bescherte (vgl. Conger und Isaac 2021).

Verteilalgorithmen großer Plattformen begünstigen mit ihrer Wirkweise die Reichweite extremer, hasserfüllter und verschwörungsideologischer Inhalte auch weiterhin (vgl. Richards und Evans 2024). Es ist unklar, wie der DSA den kapitalistischen Verteilprinzipien zur Gewinnmaximierung digitaler Plattformen Einhalt gebieten soll. Das würde auch die wirksame Entfernung hasserfüllter Inhalte implizieren. Da der DSA auf vielfältigen Plattformen anzuwenden ist, fehlen konkrete Vorschriften zur Eindämmung von Hass auf spezifischen Plattformen. Große Player wie Telegram entziehen sich zudem schlicht der Regulation, was zeigt, dass der DSA bisher ein „zahnloser Tiger“ ist (vgl. Kroet 2024).

Oft wird an die Zivilgesellschaft appelliert und der Einsatz gegen Hass im Netz jeder*jedes Einzelnen hervorgehoben. Melden, Blockieren, Anzeigen oder ein Statement setzen sind wichtige Formen des Aktivwerdens. Die Vermittlung eines gewissen Know-hows und Medienkompetenz sind ebenfalls häufig unterschätzte Unterstützungsleistungen. Es ist entscheidend, der Normalisierung von Hass im Netz wirkungsvoll entgegenzutreten, um den digitalen Raum und die Demokratie zu stärken. Dabei darf nicht der Eindruck entstehen, dass z. B. eine Anzeige oder Meldung auf der Plattform nichts bringt. Deshalb fordern wir die Politik und die Justiz auf, das Problem ernst zu nehmen und die Betroffenen zu unterstützen. Das Internet ist kein straffreier Raum, sondern ein Raum des gesellschaftlichen Austauschs und der Meinungsbildung. Alle sollten daran teilhaben können – ohne Angst.

 


elly ist eine Beratungsstelle für Betroffene von Hatespeech in Thüringen und bietet u. a. eine psychosoziale Beratung an, Informationen zu rechtlichen Fragen oder auch die Vermittlung von Rechtsanwält*innen. Die Beratung ist kostenlos. elly arbeitet in Trägerschaft des re:solut – Rundum engagiert: solidarische Unterstützung in Thüringen e. V. in einem selbstständigen Werk der Evangelischen Kirche in Mitteldeutschland. Finanziert wird elly über den Landespräventionsrat des Thüringer Ministeriums für Inneres und Kommunales.
Die Autor*innen Joscha Lell (B. A. Soziale Arbeit) und Laura Gdowzok (M. A. Medienpädagogik) sind Berater*innen, Lena Kuhn (B. A. Öffentlichkeitsarbeit) ist Referentin für Öffentlichkeitsarbeit bei elly.


 

1    Hier gibt es die bereits die erste Stelle, die eine KI daraufhin trainiert hat: Sodone siehe www.sodone.de.

 

Literaturverzeichnis

Bosetti, Sarah (2020). „Ich hab nichts gegen Frauen, du Schlampe!“. Mit Liebe gegen Hasskommentare. Hamburg, Rowohlt Verlag.

Bundesnetzagentur (2024). Bundesnetzagentur lässt erstmalig Trusted Flagger für Online-Plattformen in Deutschland zu. Online verfügbar unter www.bundesnetzagentur.de/SharedDocs/Pressemitteilungen/DE/2024/20240927_DSC_TrustedFlagger.html (abgerufen am 20.11.2024).

Conger, Kate/Isaac, Mike (2021). Twitter Permanantly Bans Trump, Capping Online Revolt. The New York Times vom 08.01.2021. Online verfügbar unter www.nytimes.com/2021/01/08/technology/twitter-trump-suspended.html (abgerufen am 30.09.2024).

Das NETTZ/Gesellschaft für Medienpädagogik und Kommunikationskultur/HateAid/Neue deutsche Medienmacher*innen als Teil des Kompetenznetzwerks gegen Hass im Netz (Hg.) (2024). Lauter Hass – leiser Rückzug. Wie Hass im Netz den demokratischen Diskurs bedroht. Online verfügbar unter kompetenznetzwerk-hass-im-netz.de/lauter-hass-leiser-rueckzug/ (abgerufen am 31.05.2024).

Dellagiacoma, Laura (2021). Hass im Netz aus intersektionaler Perspektive. In: Institut für Demokratie und Zivilgesellschaft (Hg.). Wissen schafft Demokratie. Schwerpunkt Antifeminismus & Hasskriminalität, Band 13. Jena, Institut für Demokratie und Zivilgesellschaft, 306–319. Online verfügbar unter www.idz-jena.de/wsddet/wsd13-25 (abgerufen am 30.09.2024).

Europäische Kommission (2016). Verhaltenskodex zur Bekämpfung illegaler Hassrede im Internet. Online verfügbar unter commission.europa.eu/strategy-and-policy/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_en (abgerufen am 30.09.2024).

Geschke, Daniel (2017). Alle reden von Hass. Was steckt dahinter? Eine Einführung. In: Institut für Demokratie und Zivilgesellschaft (Hg.). Wissen schafft Demokratie. Band 1. Jena, Institut für Demokratie und Zivilgesellschaft, 168–187.Online verfügbar unter www.idz-jena.de/wsddet/wsd1-13 (abgerufen am 31.05.2024).

Geschke, Daniel/Klaßen, Anja/Quent,Matthias/Richter, Christoph (2019). #Hass im Netz: Der schleichende Angriff auf unsere Demokratie. Eine bundesweite repräsentative Untersuchung. Online verfügbar unter www.idz-jena.de/fileadmin/user_upload/_Hass_im_Netz_-_Der_schleichende_Angriff.pdf (abgerufen am 31.05.2024).

Hathaway, Bill (2021). ‘Likes’ and ‘Shares’ teach people to express more outrage online. Online verfügbar unter news.yale.edu/2021/08/13/likes-and-shares-teach-people-express-more-outrage-online (abgerufen am 30.09.2024).


Kompetenznetzwerk gegen Hass im Netz (2024). Was ist Hassrede? Online verfügbar unter kompetenznetzwerk-hass-im-netz.de/was-ist-hassrede/ (abgerufen am 31.05.2024).

Kahl, Jonas/Liepert, Simon (2023). Warum man das NetzDG doch noch braucht. Legal Tribune Online vom 03.02.2023. Online verfügbar unter www.lto.de/recht/hintergruende/h/netzdg-das-zustellungsbevollmaechtigter-inland-rechtsschutz-internetnutzer-plattformhaftung (abgerufen am 30.09.2024).

Kroet, Cynthia (2024). Telegram still doesn’t meet large platforms requirements under DSA. Euro News vom 21.08.2024. Online verfügbar unter www.euronews.com/next/2024/08/21/telegram-still-doesnt-meet-large-platform-requirements-under-dsa (abgerufen am 30.09.2024).

Jones, CT (2024). These Influencers Are Making Content to Make You Anrgy — And It’s Working. RollingStone vom 227.02.2024. Online verfügbar unter www.rollingstone.com/culture/culture-features/what-is-rage-bait-influencers-making-people-angry-1234976621/ (abgerufen am 30.09.2024).

Matsuda, Mari J. (1993). Words that wound: critical race theory, assaultive speech, and the First Amendment. Boulder, Westview Press.

Richards, Abbie/Evans, Carly (2024). TikTok has an AI Conspiracy Theory Problem. Online verfügbar unter www.mediamatters.org/tiktok/tiktok-has-ai-conspiracy-theory-problem (abgerufen am 30.09.2024).

Steiner, Falk (2024). Digital Services Act: Warum die Umsetzung stockt. Online verfügbar unter www.heise.de/hintergrund/Digital-Services-Act-Warum-die-Umsetzung-stockt-9857330.html (abgerufen am 30.09.2024).

Regionale Arbeitsstelle für Bildung, Integration und Demokratie Sachsen e. V. (o. J.). Auswirkungen von Hate Speech und Unterstützung für Betroffene. Online verfügbar unter www.raa-sachsen.de/media/1116/Factsheet_Auswirkungen_von_Hate_Speech_RAASachsen.pdf (abgerufen am 31.05.2024).

VBRG e. V. (Hg.) (2024). Beratung für Betroffene rechter, rassistischer und antisemitischer Gewalt in Deutschland. Qualitätsstandards für eine professionelle Beratung. Online verfügbar unter verband-brg.de/wp-content/uploads/2024/08/VBRG-QUALITAeTSSTANDARDS_2024-1.pdf (abgerufen am 30.09.2024).

Wachs, Sebastian/Koch-Priewe, Barbara/Zick, Andreas (2021). Wenn Hass redet und schädigt. Einleitung in den Sammelband. In: Sebastian Wachs, Barbara Koch-Priewe, Andreas Zick (Hg.). Hate Speech – Multidisziplinäre Analysen und Handlungsoptionen. Theoretische und empirische Annäherungen an ein interdisziplinäres Phänomen. Wiesbaden, Springer Fachmedien, 3–14.