„Weil je mehr Klicks die haben, desto mehr wird es dann natürlich auch“. Umgangsformen junger Menschen mit Antisemitismus und Hass in den sozialen Medien

Empfohlene Zitierung:

Hübscher, Monika/Pfaff, Nicolle (2023). „Weil je mehr Klicks die haben, desto mehr wird es dann natürlich auch“. Umgangsformen junger Menschen mit Antisemitismus und Hass in den sozialen Medien In: Institut für Demokratie und Zivilgesellschaft (Hg.). Wissen schafft Demokratie. Schwerpunkt Netzkulturen und Plattformpolitiken, Band 14. Jena, 178–191.

Schlagwörter:

Antisemitismus, soziale Medien, Jugend, Algorithmen, Dekonstruktion, Social Media Literacy

 


Der vorliegende Beitrag diskutiert die Verbreitung von antisemitischem Hass in sozialen Medien vor dem Hintergrund der ihnen zugrundeliegenden Technologien. Dazu werden zunächst Befunde aus dem Forschungsprojekt „Antisemitismus und Jugend“ zu Erfahrungen von nichtjüdischen Jugendlichen in Deutschland mit antisemitischen Inhalten in den sozialen Medien sowie zu ihrem Umgang mit diesen vorgestellt. Mit Social Media Literacy und Dekonstruktion schlagen wir zwei effektive Strategien zur Intervention gegen antisemitische Hate Speech in den sozialen Medien vor.


 

Die Mehrheit der heranwachsenden User*innen (12- bis 19-Jährige) hat Erfahrung mit Hass in sozialen Netzwerken (MpFS 2022a). So zeigt etwa die aktuelle JIM-Studie, dass die Mehrheit der Befragten jungen Menschen hasserfüllte Inhalte in den sozialen Medien als Form von Gewalt wahrnimmt (MpFS 2022a). Hass auf den Plattformen beeinflusst auch den Offline-Alltag junger Menschen. Viele der befragten Jugendlichen fühlen sich hilflos und wütend in der Konfrontation mit Hatespeech (MpFS 2022b).

Über den Umgang junger Menschen mit Hass in sozialen Medien liegen im deutschsprachigen Raum bislang kaum Befunde vor. Da die meisten Jugendlichen täglich soziale Medien nutzen, kann eine wiederholte Konfrontation mit Hass aber schwerwiegende Folgen haben. Betroffene von Hate Speech in sozialen Medien beschreiben die Angriffe in einer Sprache, die der Darstellung körperlicher Handlungen gleichkommt (Williams 2021, S. 299). Hass in den sozialen Medien zu sehen oder davon betroffen zu sein, kann das tägliche Leben der Nutzenden und ihre Beziehung zu ihrem sozialen Umfeld grundlegend prägen (Keipi et al. 2016, 78). Vermehrt verweisen Studien auf den negativen Einfluss von sozialen Medien auf die psychische Gesundheit, vor allem bei Jugendlichen durch Cybermobbing, Sucht und negativen Einfluss auf die Selbstwahrnehmung (Braghieri et al. 2022; Beyari 2023; Kaur et al. 2022).

Die weitverbreitete Nutzung von sozialen Medien hat auch zu einer größeren Sichtbarkeit von Antisemitismus geführt. Inhalte, die antisemitische Bilder, Mythen oder Ausdrucksformen beinhalten, können auf Social Media unreflektiert verbreitet und geteilt werden (Oboler 2008; Hübscher 2023, 370). Zahlreiche Studien identifizieren die sozialen Medien als Nährboden für die Normalisierung und Verbreitung von Antisemitismus (Lange et al. 2019; LpB 2019; Bernstein et al. 2018; Salzborn und Kurth 2018). Das Center for Countering Digital Hate (Zentrum zur Bekämpfung von digitalem Hass) berichtete, dass 2021 innerhalb von zwei Monaten 714 antisemitische Beiträge in sozialen Medien 7,3 Millionen Mal aufgerufen wurden. Von diesen antisemitischen Beiträgen wurden nur 16% der Beiträge von den Social-Media-Unternehmen entfernt (CCDH 2021). Eine Langzeitstudie zur Entwicklung von Antisemitismus im Netz beobachtet insbesondere in sozialen Medien einen massiven Anstieg antisemitismusrelevanter Inhalte (Schwarz-Friesel 2019; Jacobs 2020). Auch jüdische User*innen berichten, dass die Begegnung mit einer beträchtlichen Menge an antisemitischem Hass in sozialen Medien zu Gefühlen der Isolation und zum Glauben führte, dass sie nur in der jüdischen Gemeinschaft echte Solidarität erfahren (FRA 2018; Czymmek 2022).

Antisemitismus in sozialen Medien umfasst verschiedene Formen digitaler Inhalte, darunter Textbeiträge wie z. B. Kommentare, Profilnamen oder Hashtags, aber auch Reels, Videoblogs (Vlogs), Memes, GIFs und Emoji-Kombinationen, die vor allem auf algorithmusgesteuerten Plattformen wie Facebook, Instagram, YouTube und TikTok verbreitet werden. Antisemitismus in sozialen Medien ist (symbolische) Gewalt durch verbale und visuelle Diskriminierung und Aggression (Hübscher 2023, 364).

Jugendliche als stärkste Nutzendengruppe sozialer Medien übernehmen antisemitische Inhalte und verbreiten diese unreflektiert in den sozialen Medien (UEA 2017, 137), wenn sie antisemitische Inhalte nicht erkennen. Wie junge Menschen jedoch Antisemitismus in sozialen Medien wahrnehmen und darauf reagieren, ist bislang kaum untersucht. Auch Bildungskonzepte, die sich spezifisch auf den Umgang Jugendlicher mit antisemitischen Inhalten in sozialen Medien beziehen, sind bislang kaum verankert.

Technologische Prinzipien der Verbreitung von Antisemitismus in sozialen Medien

Algorithmen, also mathematischer Regelsätze, die festlegen, wie sich ein Datensatz verhält, verarbeiten in den sozialen Medien User*innendaten, um personalisierte Inhalte und Werbung anzuzeigen. Sie sammeln Informationen über das Verhalten, die Vorlieben und Interessen der User*innen, um deren Interaktion mit der Plattform zu optimieren. Diese Daten werden verwendet, um User*innen Inhalte und Vorschläge bereitzustellen, die auf ihre individuellen Präferenzen zugeschnitten sind. Social-Media-Algorithmen berücksichtigen Faktoren wie Likes, Kommentare, geteilte Inhalte und Suchhistorie, um die Relevanz und Attraktivität der Inhalte zu bestimmen, die den User*innen angezeigt werden. Da soziale Medien auf Inhalte, die von User*innen generiert werden, angewiesen sind, bevorzugen Algorithmen Posts, Tweets oder Videos mit viel User*inneninteresse und verbreiten sie weiter. Das Engagement der User*innen wird durch Liken, Disliken, Teilen und Kommentieren erzeugt. Genau diese Werkzeuge wirken als Anreize, um mehr Material zu generieren (Hübscher und von Mering 2022, 6ff.). Studien weisen darauf hin, dass es vor allem problematische Inhalte sind, die viel Nutzer*innenaktivität haben. So können beispielsweise Nutzer*innen, die antisemitische Inhalte veröffentlichen und Likes und Shares erhalten, sich in ihrer hasserfüllten Positionierung validiert fühlen. Aber selbst Benutzer, die auf antisemitische Beiträge stoßen, könnten davon überzeugt sein, diese als wahr zu betrachten, weil sie sehen, dass unter solchen Beiträgen viel kommentiert wird (Munn 2020; Hübscher 2023, 368f.).

Algorithmen kuratieren aber nicht nur Inhalte, sondern schränken die Möglichkeiten der User*innen ein, zu beeinflussen, was sie in ihrem Feed oder Stream sehen. Algorithmen sozialer Medien passen sich dabei den individuellen Vorlieben von User*innen an. User*innen erhalten Empfehlungen, sich mit anderem User*innen zu verbinden, die gleiche Inhalte bevorzugen. Sie bekommen vermehrt den Vorlieben entsprechende Beiträge zu sehen und andere dafür nicht.

Wenn User*innen also antisemitische Inhalte konsumieren oder damit interagieren, kann der Algorithmus ähnliche Inhalte empfehlen. Das kann zu einer verstärkten Exposition gegenüber antisemitischen Beiträgen führen. Was User*innen auf ihrem Social-Media-Profil sehen, wird also von dem geprägt, was sie und andere Personen gepostet, geteilt oder geliked haben. Das Netzwerk von Gleichgesinnten, die ähnliche Inhalte in sozialen Medien teilen, wird oft als Filterblase und Echokammer bezeichnet. Da Algorithmen aus dem User*innenverhalten lernen, spiegeln sie nicht nur ideologische Gehalte wider, die User*innen zum Ausdruck bringen, sondern betten das damit verbundene Wissen in ihre Programmiersprache ein. So kann es sein, dass algorithmischer Antisemitismus zunächst durch das erzeugt wird, was die User*innen posten, und dann das prägt, was User*innen gezeigt wird. Die Bedeutung antisemitischer Wissensbestände und Ausdrucksformen in sozialen Medien wächst hierdurch, Antisemitismus wird normalisiert (Williams 2021, 280).

Trotz der weitreichenden gesellschaftlichen Probleme, die sich aus der Verbreitung von Hass und Antisemitismus auf kontinuierlich wachsenden Social-Media-Plattformen ergeben, gibt es bisher global betrachtet nur wenig staatliche Regulierung. Unternehmen, die Plattformen gewinnorientiert betreiben, setzen keine ausreichende Priorität auf die Sicherheit ihrer User*innen, da dies für sie Umsatzeinbußen bedeuten würde. Das Geschäftsmodell der sozialen Medien sowie die algorithmische Organisation von Inhalten auf den Plattformen führen vor diesem Hintergrund zu großen gesellschaftlichen Herausforderungen auf globaler Ebene.

Erfahrungen Jugendlicher mit Antisemitismus in den sozialen Medien

Welche Erfahrungen junge Menschen mit Antisemitismus in den sozialen Medien machen und wie sie damit umgehen, ist ein Thema des seit 2020 laufenden Projekts „Antisemitismus und Jugend“. Das Projekt wird von der Bundeszentrale für politische Bildung finanziert und an der Universität Duisburg-Essen in Kooperation mit der Gedenk- und Bildungsstätte Haus der Wannseekonferenz durchgeführt. Im Rahmen des Projekts wurden biografisch orientierte und leitfadengestützte Interviews mit nicht jüdischen jungen Menschen in Deutschland geführt. In einer Zweistufen-Interviewanalyse wurden zunächst antisemitismusrelevante Wissensbestände diskursanalytisch bestimmt und dann lebensgeschichtliche Zusammenhänge dieses Wissens biografieanalytisch ausgewertet (vgl. auch Hübscher et al. 2021).

Bezogen auf Antisemitismus in sozialen Medien wird zunächst deutlich, dass Jugendliche die Funktionsweise sozialer Medien auf ihre Erfahrungen mit Antisemitismus dort beziehen können. So erzählt etwa die Abiturientin Sarah:

„Also ich hab bis jetzt eigentlich noch nie einen Beitrag gelesen ähm wo [...] Juden angegriffen wurden also natürlich das Internet zeigt mir auch nur das wofür ich mich wirklich interessiere also dann wird mir sowas natürlich nicht angezeigt aber ich denke schon dass [...] es auf jeden Fall auch Seiten äh gibt die Sachen gegen gegen Juden posten ja.“ [Sarah 725–730, gekürzt]

Auch der 19-jährige Abiturient Charlie verweist auf die Bedeutung der automatischen Selektion von Inhalten für seine Erfahrungen in sozialen Medien:

„Ähm ich glaub der Algorithmus kennt mich inzwischen gut genug, dass er weiß was er mir empfehlen soll und da gehören politische Themen zumindest auf YouTube definitiv nicht dazu, weil wie gesagt YouTube nutze ich als Lernmedium hauptsächlich.“ [Charlie, Z. 915–917]

Beide Jugendliche reflektieren die Bedeutung von Algorithmen für die Inhalte, die sie konsumieren und erklären dabei zugleich, dass Antisemitismus bzw. Inhalte über Israel nicht zu ihrem Suchprofil passen. Für beide ist aber klar, dass Antisemitismus im Netz existiert. Sarah geht davon aus, dass jüdische Menschen im Netz angegriffen werden und auch Charlie ist klar, dass Berichte über den Israel-Palästina-Konflikt auf YouTube präsent sind.

Die 19-jährige Abiturientin Anja berichtet, dass ihr Antisemitismus in den sozialen Medien vor allem auf dem Profil eines jüdischen Rappers begegnet:

„[…] auf Social Media durchaus (.) weils eben auf Social Media irgendwo, naja, da ist dann mal irgendwo n‘ Kommentar oder sowas unter nem Bild […] mir ist mal aufgefallen, dass unter nem Bild von ihm relativ viele Leute halt das kommentiert haben und da immer noch (.) ehm ja viel Hass irgendwie da war.“ [Anja, Z. 1324–1330]

Im Unterschied zu vielen anderen Befragten kann Anja explizite Ausdrücke von Antisemitismus identifizieren:

„abwertende Bilder dann eher auf anderen Profilen […] keine Ahnung, da ist n Profil das postet komische rassistische Sachen (.) ehm ja zum Beispiel hab ich da mal glaub ich mal nen Post gesehen wo ne brennende Flagge drauf war ehm mit ehm nem Stern drauf wo eben auch darunter stand Tod den Juden oder sowas […] unter dem Post also von dem Rapper dann eher so auf Englisch eben sowas keine Ahnung scheiß Jude“. [Anja, Z. 1341–1351]1

Melden, Rückzug, Kontern – Umgangsstrategien junger Menschen mit Antisemitismus in sozialen Medien

Vor dem Hintergrund der Analyse der Interviews lassen sich nun verschiedene Umgangsformen junger Menschen mit Antisemitismus in sozialen Medien identifizieren, die wir mit den Begriffen Rückzug, Melden und Kontern bezeichnen.
Alle Plattformen stellen ihren Nutzer*innen die Option zur Verfügung, Beiträge zu melden, die nach ihrer Auffassung gegen die Gemeinschaftsrichtlinien des jeweiligen Anbieters verstoßen. Die gemeldeten Inhalte werden anschließend überprüft und gegebenenfalls werden angemessene Maßnahmen ergriffen. Die Meldeoption stellt für die 17-jährige Maya eine Umgangsstrategie mit besonders extremen Inhalten dar. Maya erzählt von einem Trailer auf Instagram zu einem Film, in dem eine deutsche Frau einen jüdischen Mann aufnimmt, unter dem sich missbräuchlich-antisemitische Kommentare finden:

„den Kommentar hab ich auch gemeldet weil den fand ich zu krass (.) aber sowa solche Kommentare gibt’s halt zu tausenden im Internet ganz einfach weil da halt jeder seinen Gehirnmüll da abladen kann“ [Maya, Z. 945–947].

Maya reflektiert die Existenz antisemitischer Inhalte im Netz und erkennt diese. Sie folgt der Aufforderung, Hassrede zu melden, weiß aber auch um die eingeschränkte Wirksamkeit dieser Umfangsform. Ein Jahr nach dem UN-Bericht (2018), der Facebook durch die Unterlassung des Löschens von Hassrede Mitverantwortung an der genozidalen Gewalt in Myanmar gab, veröffentlichte die Plattform in Kooperation mit dem Jüdischen Community Security Trust (UK) einen Guide zum Schutz der jüdischen Community vor Antisemitismus auf Facebook. Bei allen dort vorgeschlagenen Strategien lag die Handlungsverantwortung alleinig bei den von Antisemitismus betroffenen jüdischen User*innen. Da keine der Plattformen Antisemitismus als eine eigene Meldekategorie für diese Form von Hass anbietet, ist das Melden von antisemitischen Inhalten komplex und aufwendig (Hübscher 2021).

Andere Jugendliche berichten, dass sie sich aufgrund der negativen Gefühle, die durch Hasskommentare ausgelöst werden, von bestimmten Plattformen zurückziehen oder sie ganz löschen. Nach mehreren negativen Erfahrungen auf Instagram zieht sich die 17-jährige Marie aus Selbstschutz zurück, um nicht mehr mit hasserfüllten Inhalten konfrontiert zu werden:

„wenn mich jemand anfragt oder wenn ich auf Instagram ner Seite begegne wo ich schon denk so wird gleich toxisch dann geh ich da gar nicht mehr drauf, weil ich halt äh jetzt in meinem Leben oder halt in meinem social Media will ich nicht ständig mit irgendwelchen Diskriminierenden […] (.) konfrontiert werde die jetzt anfangen ihren ihren Blödsinn in der Welt zu verteiln also ja sowas brauch ich erst gar nicht.“ [Marie, Z. 1196–1203]

Die Studentin Viktoria geht noch einen Schritt weiter und beendet ihre Nutzung der Plattform:

„Instagram oder Ähnliches hatt ich mal aber das hab ich jetz aber gelöscht (.) ähm (.) eher da (.) ganz ganz schlimm das zieht einen nur runter ich les mir das nich mehr durch weil dann denkt man (.) die ganze Welt (.) kann man in die Tonne kloppen wenn man sich das durchliest (.) kriegt man nur (.) Verstimmungen durch.“ [Veronika, Z. 1336–1339]

Auch Sam schützt sich durch Rückzug aktiv vor Hass in den sozialen Medien:

„weil mein Internetkonsum sehr viel ist aber sehr gesichert sein muss, weil ähm ich mich nicht täglich damit rumschlagen will äh ja (.) homophobe transphobe sexistische bla bla bla Kommentare abzukriegen hab ich quasi im Internet so meine Blase (.) ähm und die ist sehr gut und da kriege ich’s nicht mit [...] aber zum Beispiel alles was so über Facebook oder so stattfindet da halte ich mich schon absichtlich raus (.) ähm weil ich ganz genau weiß was (.) was da abgehen oder abgehen kann“ [Sam, Z. 1245–1254]

In der Darstellung von Sam wird deutlich, dass Sam selbst durch spezifische Abwertungspraxen verletzt werden kann und vor diesem Hintergrund sein eigenes Nutzungsprofil schützt. Zu diesem Selbstschutz gehört für Sam auch, sich in sozialen Medien nicht aktiv gegen Hassrede zu positionieren. Gegenrede birgt für Sam ein potenzielles Verletzungsrisiko.

Auch andere der interviewten Jugendlichen beziehen sich auf die Option des Konterns gegen antisemitische oder hasserfüllte Beiträge auf sozialen Medien. Der 24-jährige Max, der sich gerade in der Ausbildung befindet, berichtet, dass Hass zu kontern auf den Plattformen zu Konfrontationen führt. Auf die Nachfrage, wie er sich zu Antisemitismus in den sozialen Medien positioniert, berichtet er:

„Weil ich finde auch oft was heißt oft (.) paar Mal die Erfahrung gemacht habe, dass diese Leute (.) uneinsichtig sind und nicht viel mit sich reden lassen die beharren auf ihre Meinung und sind der Meinung dass das was sie jetzt sagen das Richtige ist und da (.) mit manchen kann man einfach nicht reden (3) die sind wirklich so stur und teilweise dann auch aggressiv.“ [Max, Z. 1048-1052]

Max positioniert sich hier als Person, die gegen Antisemitismus in sozialen Medien aktiv wird, aber damit nicht die gewünschten Erfolge erzielt. Ähnlich wie Sam erfährt er sich als verletzbar.

Genau wie viele Studien zur Effektivität von Gegenrede denkt Max die Bedeutung der Technologie nicht mit. Ihm geht es darum, durch Gegenrede im Sinne von Argumentationen das Gegenüber inhaltlich zu überzeugen und damit Antisemitismus zu bekämpfen. Gegenrede wirkt aber zugleich als Validierung der antisemitischen Inhalte, weil sie als User*innen-Reaktion deren Bedeutung steigert. Mit der Reaktion auf einen Post, unabhängig von deren Inhalt, gewinnen Inhalte, auf die reagiert wird, an Wert und werden häufiger angezeigt. Jede Form von Gegenrede wirkt also zugleich im Sinne der Anbieter von sozialen Medien, weil sie Interaktion auf den Plattformen generiert und deshalb monetarisierbar ist (Lanier 2019, 13). Auch durch die automatisierte Verbreitung von Hate Speech durch Bots und Künstliche Intelligenz wird die Wirksamkeit von Gegenrede auf der Ebene von menschlicher Interaktion infrage gestellt. Dass Antisemitismus in den sozialen Medien trotz Bildungsprogrammen zur Gegenrede in den letzten Jahren ein immer größeres Problem geworden ist, spricht dafür, die Wirkungsweisen von Algorithmen und Validation-Features, wie (Dis-)Likes, Kommentare oder Emoticons, in sozialen Medien zu berücksichtigen.

Ansätze für die Bildungsarbeit – Social Media Literacy statt Gegenrede

„Vor allem aber brauchen wir Widerspruch und Gegenrede im Internet. Der Antisemitismus darf als solcher nicht unkommentiert bleiben. Wir brauchen auch im Netz eine Zivilgesellschaft, die Antisemitismus entschieden verurteilt und ihm entgegentritt.“ (Jacobs 2020, 200)

In Bildungsprogrammen in Deutschland gilt Gegenrede als Mittel der Wahl gegen Antisemitismus. Was in Alltagsinteraktionen, Feuilletons und politischen Debatten in einen inhaltlichen Diskurs führt, wirkt in sozialen Medien aufgrund ihrer Technologie gegenteilig: Es trägt zur Weiterverbreitung von Antisemitismus bei.
Das reflektiert die 18-jährige Abiturientin Fania in ihrem Interview:

„weil je mehr Klicks die haben, desto mehr wird es dann natürlich auch und das möchte ich nicht unterstützen […].“ (Fania, Z. 585–586)

Das Zitat, das wir als titelgebend für diesen Beitrag ausgewählt haben, zeigt, dass die Jugendliche die Funktionsweise sozialer Medien versteht und medienkompetent agiert. Damit User*innen dazu beizutragen können, Antisemitismus in den sozialen Medien wirksam zu reduzieren, müssen sie also nicht nur Antisemitismus erkennen, sondern auch die Technologie sozialer Medien verstehen. Verschiedene Studien belegen, dass aufgrund der signifikanten Rolle der Social-Media-Technologie Bildungsformate zur Social Media Literacy maßgeblich dazu beitragen, schädliche Inhalte wie Desinformation und Hass in sozialen Netzwerken zu reduzieren (Syam und Nurrahmi 2020; Daneels und Vanwynsberghe 2017).

Unter Social Media Literacy (SML) verstehen wir die Fähigkeit von User*innen, Inhalte in den sozialen Medien aus technischer, kognitiver und emotionaler Sicht kritisch zu bewerten. Aus technischer Sicht umfasst SML Themen wie die Rolle von persönlichen Daten, Algorithmen und gezielter Werbung bei der Verbreitung von Antisemitismus und deren Auswirkungen auf die Gesellschaft. Auf der kognitiven Ebene beinhaltet SML die Fähigkeit, trotz sozialer Validierung durch Likes und Kommentare und einer hohen Anzahl von Follower*innen, glaubwürdige Quellen in einer Social-Media-Umgebung zu unterscheiden. Dazu gehört auch die Fähigkeit, Hassreden und Desinformationen im Zusammenhang mit antisemitischen Inhalten zu erkennen. Auf einer emotionalen Ebene umfasst SML die Fähigkeit, angemessen auf antisemitische Inhalte in sozialen Medien zu reagieren und zu interagieren.

Für die kritische Auseinandersetzung mit Antisemitismus empfehlen wir vor dem Hintergrund unserer Forschungsergebnisse die Dekonstruktion antisemitischer Inhalte und Bezüge als ein Schlüsselelement. Der Ansatz der Dekonstruktion geht auf die zeichentheoretischen Ideen des französischen Philosophen Jaques Derrida (1976) zurück, der auf die unabgeschlossene Bedeutung aller Zeichen und Konzepte hinwies. Er stellte das Konzept der festen Bedeutungen infrage und betonte die historischen und kontextuellen Dimensionen von Bedeutungen. Die Dekonstruktion von Bedeutungen und die Identifikation von Elementen der Nazi-Ideologie in Begriffen, Phrasen und visuellen Darstellungen erweist sich als wesentlich für das Verständnis des Antisemitismus (Hübscher et.al. i.E.). Dekonstruktion bezieht sich auf eine soziale Praxis des Entschlüsselns jener komplexen Bedeutungsebenen, auf die durch die Verwendung einer Phrase oder eines Bildes Bezug genommen wird.

Die Dekonstruktion von Antisemitismus basiert auf der kritischen Auseinandersetzung mit falschen Behauptungen, Mythen und Stereotypen, die die historische Realität und die Auswirkungen des Holocausts untergraben und Vorurteile gegenüber jüdischen Menschen aufrechterhalten. Zur Identifikation von Holocaust-Verzerrung, -Leugnung und Antisemitismus gehört es, die verschiedenen Formen und Erscheinungsformen dieser Phänomene zu erkennen und zu verstehen, einschließlich der Verharmlosung oder Trivialisierung des Holocausts, der Infragestellung der Fakten oder des Ausmaßes des Völkermords und der Verwendung negativer Stereotype oder Verschwörungsmythen über Jüdinnen*Juden. Dazu gehört auch die Analyse der Sprache und des Bildmaterials, die zur Beschreibung von Jüdinnen*Juden oder des Holocausts verwendet werden. Die Dekonstruktion von Antisemitismus erfordert die Anerkennung seiner historischen Wurzeln, einschließlich der jahrhundertelangen Verfolgung, Diskriminierung und Gewalt gegen Jüdinnen*Juden, sowie der Art und Weise, wie diese Diskriminierung in der heutigen Zeit fortgesetzt wird. Dies umfasst auch Wissen darüber, wie Antisemitismus und andere Formen der Diskriminierung, wie Rassismus, Sexismus und Hass gegen die LGBTQI+ Community, ineinander übergreifen.

Für die Arbeit gegen Antisemitismus in sozialen Medien müssen Kompetenzen zur Dekonstruktion von antisemitischen Inhalten und SML ineinandergreifen. Erst indem User*innen lernen, Social-Media-Inhalte kritisch zu bewerten und zu analysieren, können sie antisemitische Einstellungen und Überzeugungen besser erkennen und hinterfragen. Um die Dekonstruktion von Antisemitismus in SML zu integrieren, können User*innen lernen, gängige Tropen und Stereotypen, die in antisemitischen Inhalten verwendet werden, zu erkennen und die Quellen und Motivationen hinter solchen Inhalten zu identifizieren. SML sollte Diskussionen über eine verantwortungsvolle Nutzung sozialer Medien umfassen, z. B. die Vermeidung des Teilens von und Kommentierens unter antisemitischen Inhalten. Durch die Integration dieser Elemente in Bildungskonzepte für SML können User*innen befähigt werden, Antisemitismus in sozialen Medien zu erkennen und zu dekonstruieren und so zu einem sichereren und inklusiveren Social-Media-Erlebnis beitragen.

Statt der lange empfohlenen Gegenrede können Nutzer*innen von Social-Media-Plattformen in Bildungsmaßnahmen dazu befähigt und ermutigt werden, dekonstruierte Inhalte zu posten. Antisemitische Inhalte in sozialen Medien können dabei so kommentiert werden, dass antisemitische Bezüge identifiziert und erläutert werden. Anstatt über kritische Kommentare argumentativ zu kontern, damit aber antisemitische Inhalte weiter zu verbreiten, können dekonstruierte Inhalte gepostet werden, um über Antisemitismus aufzuklären, gegen Antisemitismus Stellung zu beziehen und Solidarität gegenüber denjenigen Personen oder Institutionen zu zeigen, die mit antisemitischen Inhalten angegriffen werden. Mit der Veröffentlichung von dekonstruierten Inhalten könnte die Technologie sozialer Medien im Sinne einer „affirmativen Sabotage“ (Spivak 2012) zu Bildungszwecken genutzt werden.

 

___________

1    Auch die Darstellung von Hasspostings in Forschungsarbeiten wirkt unseres Erachtens reproduzierend. Deshalb markieren wir ihre hasserfüllte Bedeutung, indem wir diskriminierende und abfällige Wörter durchstreichen.

 


Monika Hübscher, wissenschaftliche Mitarbeiterin an der Fakultät für Bildungswissenschaften der Universität Duisburg-Essen, AG Migrations- und Ungleichheitsforschung, Doktorandin an der University of Haifa, Israel. Sie ist Mitherausgeberin des Sammelbandes „Antisemitism on Social Media“ (2022). Arbeits- und Forschungsschwerpunkte: Antisemitismus und Jugend, Antisemitismus in den sozialen Medien, Holocaust-Education

Nicolle Pfaff, Prof‘in Dr‘in, Professorin der AG Ungleichheits- und Migrationsforschung der Fakultät für Bildungswissenschaft an der Universität Duisburg-Essen. Arbeits- und Forschungsschwerpunkte: bildungsbezogene Ungleichheit, Bildung in der Migrationsgesellschaft, Jugend und Politik, Schule und Segregation, qualitative Forschungsmethoden und Methodentriangulation


 

Literatur

Bernstein, Julia (2018). „Mach mal keine Judenaktion“ Herausforderungen und Lösungsansätze in der professionellen Bildungs- und Sozialarbeit gegen Antisemitismus. Online verfügbar unter www.frankfurt-university.de/antisemitismusschule (abgerufen am 21.11.2023).

Beyari, Hasan (2023). The Relationship between Social Media and the Increase in Mental Health Problems. International journal of environmental research and public health 20(3), 2383. https://doi.org/10.3390/ijerph20032383.

Braghieri, Luca/Levy, Ro‘ee/Makarin, Alexey (2022). Social Media and Mental Health. American Economic Review 112 (11), 3660–3693.

CCDH – Center for Countering Digital Hate, Failure to Protect (2021). How Tech Giants Fail to Act on User Reports of Antisemitism. Online verfügbar unter www.counterhate.com/failuretoprotect (abgerufen am 21.11.2023).

Daneels, Rowan/Vanwynsberghe, Hadewijch (2017). Mediating social media use: Connecting parents’ mediation strategies and social media literacy. Cyberpsychology 11(3). Online verfügbar unter cyberpsychology.eu/article/view/8560/7729 (abgerufen am 21.11.2023).

FRA - European Union Agency for Fundamental Rights (2018). Experiences and perceptions of antisemitism. Second survey on discrimination and hate crime against Jews in the EU. Online verfügbar unterhttps://fra.europa.eu/sites/default/files/fra_uploads/fra-2018-experiences-and-perceptions-of-antisemitism-survey_en.pdf (abgerufen am 21.11.2023).

Garland, Joshua/Ghazi-Zahedi, Keyan/Young, Jean-Gabriel/Hébert-Dufresne, Laurent/Galesic, Mirta (2022). Impact and dynamics of hate and counter speech online. EPJ Data Sci 11 (3). doi.org/10.1140/epjds/s13688-021-00314-6 .

Hübscher, Monika (2021). Meldeverfahren als Strategien gegen Antisemitismus in den Sozialen Medien? In: Marc Grimm/Stefan Müller (Hg.). Bildung gegen Antisemitismus. Spannungsfelder der Aufklärung. Frankfurt am Main, Wochenschau Verlag, 102–116.

Hübscher, Monika (2023). Algorithmic Antisemitism on Social Media. In: Mark Weitzman/ Robert J. Williams/James Wald (Hg.). The Routledge History of Antisemitism. New York, Routledge 364-372. https://doi.org/10.4324/9780429428616-40.

Hübscher, Monika/von Mering, Sabine (2022). A Snapshot of Antisemitism on Social Media in 2021. In: Monika Hübscher/Sabine von Mering (Hg.). Antisemitism on Social Media. London/New York, Routledge, 5–17. https://doi.org/10.4324/9781003200499-2.

Hübscher, Monika, Kaddor, Lamya/Pfaff, Nicolle (2021). „Ich weiß, dass sie existieren...“ Kontexte der Begegnung junger Menschen mit jüdischem Leben. Aus Politik und Zeitgeschichte 44–45/2021, 49–54.

Jacobs, Lisa Johanne (2020). Antisemitismus im Internet. In: Institut für Demokratie und Zivilgesellschaft (Hg.). Wissen schafft Demokratie. Schwerpunkt Antisemitismus, Band 8. Jena, 192–201.

Kaur, Simarjeet/Kaur, Kamaljeet/Aprajita, Ms./Verma, Rohan/Pangkaj, Mr. (2022). Impact of Social Media on Mental Health of Adolescents, Journal of Pharmaceutical Negative Results, 13, 779–783. Online verfügbar unter www.pnrjournal.com/index.php/home/article/view/2441/2090 (abgerufen am 21.11.2023).

Lange, Armin/Mayerhofer, Kerstin/Porat, Dina/Schiffmann, Lawrence H. (2019). Executive Summary. In: Armin Lange/Kerstin Mayerhofer/Dina Porat/Lawrence H. Schiffmann (Hg.). Volume 1 Comprehending and Confronting Antisemitism. Berlin/Boston, De Gruyter, 13–18.

MpFS/Medienpädagogischer Forschungsverbund Südwest (2022a). JIM-Studie 2022. Online verfügbar unter www.mpfs.de/fileadmin/files/Studien/JIM/2022/JIM_2022_Web_final.pdf. (abgerufen am 21.11.2023)

MpFS/Medienpädagogischer Forschungsverbund Südwest (Hg.). (2022b). JIMplus-Studie 2022. Kindheit, Information, Medien. Basisuntersuchung zum Medienumgang 12- bis 19-jähriger. Online verfügbar unter https://www.mpfs.de/studien/jim-studie/jimplus-2022/.

Munn, Luke (2020). Angry by design: toxic communication and technical architectures. Humanities and Social Sciences Communications 7. https://doi.org/10.1057/s41599-020-00550-7.

Salzborn, Samuel/Kurth, Alexandra (2019). Antisemitismus in der Schule. Erkenntnisstand und Handlungsperspektiven. TU Berlin/Justus-Liebig-Universität Giessen. Online verfügbar unter unter: www.tu-berlin.de/fileadmin/i65/Dokumente/Antisemitismus-Schule.pdf (abgerufen am 21.11.2023).

Schwarz-Friesel, Monika (2019). Judenhass im Internet. Antisemitismus als kulturelle Konstante und kollektives Gefühl. Berlin/Leipzig, Hentrich & Hentrich.

Spivak, Gayatri Chakravorty (2012). An Aesthetic Education in the Era of Globalization. Cambridge, Harvard University Press.

Syam, Hamdani M./Nurrahmi, Febri (2020). “I Don’t Know If It Is Fake or Real News”. How Little Indonesian University Students Understand Social Media Literacy. Journal Komunikasi. Malaysian Journal of Communication 36(2), 92–105. Online verfügbar unter ejournal.ukm.my/mjc/article/view/36189 (abgerufen am 21.11.2023).

Williams, Matthew (2021). The Science of Hate. How prejudice becomes hate and what we can do to stop it. London, Faber & Faber.