Tech vs. Hate: Muster und Dilemmata des Deplatformings deutschsprachiger Hassakteure

Nicht erst seit dem Sturm auf das Kapitol und der anschließenden Löschung Donald Trumps von Twitter, Facebook und YouTube stellt sich die Frage nach der Wirkung und Legitimation des sogenannten Deplatformings. Darunter versteht man das Sperren von Accounts und die Verbannung von Gruppen und Individuen, die gegen die selbst gesetzten Standards von Plattformen verstoßen haben. Im Fall Deutschlands hat das Deplatforming die Vernetzungsfähigkeit der extremen Rechten deutlich eingeschränkt und neue Dynamiken auf Alternativplattformen ausgelöst. Wie sich Deplatforming auf das Medienverhalten und die Mobilisierungsfähigkeit der extremen Rechten auswirkt, ist Ziel dieses Beitrags, der auf einer empirischen Untersuchung aus dem Jahr 2020 beruht. Hierin interessierten uns vor allem drei Fragen: erstens, welche Einbußen Hassakteure durch Löschungen hinnehmen müssen; zweitens, wie sich die digitalen Kräfteverhältnisse in der extremen Rechten verschieben; drittens, wie Hassakteure mit Sperrungen umgehen und wie sie ihre Mobilisierung in sozialen Medien neu ausrichten. Die Erkenntnisse werden vor dem Hintergrund der normativen Dilemmata des Einschreitens von Tech-Unternehmen in öffentliche Diskurse diskutiert.

  Soziale Medien haben sich zu einem zentralen Ort der Rekrutierung und Propaganda für rechtsextreme Gruppierungen und Individuen entwickelt. Sie werden zur Publikation organisierter Hassrede, der Vernetzung antidemokratischer Akteure und der gezielten Desinformation genutzt. Die Art, wie die Betreiber großer Plattformen mit solchen Inhalten umgehen, hat großen Einfluss auf die Sichtbarkeit, Organisation und Handlungsweisen rechtsextremer Gruppen und Individuen. In Deutschland zeigt sich spätestens seit 2015, wie abhängig die extreme Rechte von den digitalen Infrastrukturen großer Plattformen ist: Sie werden genutzt, um direkt mit einer breiten Masse zu kommunizieren und die Öffentlichkeit zu manipulieren. Besonders schwer trifft die Akteure daher die Sperrung ihrer Accounts, das sog. Deplatforming, das rechtsextremen Akteuren zentrale Plattformen nimmt. Die Folgen und Umgangsstrategien von Hassakteuren im Zusammenhang mit Sperrungen zu untersuchen, war Ziel des Forschungsprojekts Hate not Found, das wir am IDZ im Jahr 2020 durchführten. In unserer neunmonatigen Forschung haben wir am Beispiel deutschsprachiger Akteure untersucht, wie sich Deplatforming auf das Medienverhalten und die Mobilisierungsfähigkeit der extremen Rechten auswirkt. Uns interessierten vor allem drei Fragen: erstens, welche Einbußen Hassakteure durch Löschungen hinnehmen müssen; zweitens, wie sich die digitalen Kräfteverhältnisse in der extremen Rechten verschieben; drittens, wie Hassakteure mit Sperrungen umgehen und wie sie ihre Mobilisierung in sozialen Medien neu ausrichten. Gleichzeitig ging es uns aber auch um die Probleme und Dilemmata, die das Deplatforming mit sich bringt. Denn mit der Löschung von Accounts ist das Problem nicht gelöst. Vielmehr entstehen neue Dynamiken in der extremen Rechten, die Kommunikation auf unmoderierte Plattformen oder in das sogenannte Dark Social verlagert und das Private und Öffentliche stark vermischt. Nichtsdestotrotz ist der Zugang zu großen Plattformen unerlässlich für die extreme Rechte, um den Schein der Normalität ihrer Positionen zu wahren. In diesem Beitrag bereiten wir unsere Ergebnisse in drei Schritten auf: Zunächst präsentieren wir die Kriterien des Mappings von Hassakteuren, anhand dessen wir die Dimensionen des Deplatformings untersuchten. Daraufhin stellen wir identifizierte Muster vor, um Erkenntnisse zu gewinnen, wie das Deplatforming Verbreitung findet und welche Akteure besonders betroffen sind, und untersuchen die Reaktionsmuster (potenziell) betroffener Akteure. Schließlich diskutieren wir Probleme und Dilemmata des Deplatformings und verschiedene Umgangsweisen der Zivilgesellschaft im Dreieck von Politik, Plattform-Governance und rechtsextremem Online-Aktivismus.

Hassakteure in sozialen Medien

Wir greifen auf die Terminologie von Hassakteuren zurück, um anzudeuten, dass viele Akteure, die heute den Ton in rechten Online-Diskursräumen angeben, von klassischen Organisationsformen abweichen. Im Gegensatz zur Terminologie der extremen Rechten geht der Begriff Hassakteur nicht von einem strukturierten Organisationszusammenhang aus, sondern erfasst explizit Akteure, die sich jenseits etablierter Strukturen eine eigene Wirkmächtigkeit aufgebaut haben. Nichtsdestotrotz sind die Grenzen fließend und verbinden sich über den Lauf der Zeit. Daher ist eine klare analytische Trennung nicht zielführend. Aus diesem Grund bezieht der Begriff des Hassakteurs auch die organisierte extreme Rechte mit ein. Die Formierung von Hassakteuren online funktioniert anders als der Aufbau organisierter Strukturen offline. Sie haben keine festen Mitgliedschaften, sie sind nicht lokal gebunden und verwischen oft die Grenze zwischen Politischem und Privatem, indem propagandistische Inhalte neben alltäglichen Interessen erscheinen. So ist es mitunter schwer vorherzusehen, welche Akteure besonders effektiv rechtsextreme Weltbilder transportieren. Denn es benötigt keine großen organisationalen Ressourcen, um im Kampf um Aufmerksamkeit zu bestehen. Da die sozialen Medien bereits selbst eine Metaorganisation darstellen, sind es oft Akteure mit einem guten Gespür für digitale Kommunikation, die am meisten profitieren. Oft sind es Influencer*innen, sogenannte Alternativmedien und Verschwörungsideolog*innen, die mit wenig Ressourcen bedeutenden Einfluss auf den politischen Diskurs ausüben. Durch ihren eifrigen digitalen Aktivismus verstehen sie ihre metrischen Kennwerte in sozialen Medien als Messlatte für die Güte ihrer Positionen. Es entwickelten sich also neue Akteurstypen, die politische und wirtschaftliche Interessen in digitalen Inszenierungen miteinander verbinden. So kann es sein, dass Einzelpersonen, z. B. der Verschwörungsideologe Heiko Schrang, eine weit größere Relevanz für die rechtsextreme Mobilisierung haben als die NPD. Zudem exponieren sich Einzelpersonen aus Organisationen, etwa Martin Sellner von der Identitären Bewegung Österreich, als Influencer*innen. Das erschwert eine Unterscheidung zwischen individuellem und kollektivem Handeln. Hassakteure stellen sich bisweilen als Grenzgänger dar und kommunizieren mit ambivalenter Rhetorik, um sich vor Kritik zu immunisieren und um unterschiedliche Zielgruppen anzusprechen. Schließlich deutet das Konzept der Hassakteure an, dass die sozio-technischen Bedingungen einer digitalen Gesellschaft den Rechtsextremismus nachhaltig ändern. Soziale Medien übernehmen die Vernetzungsleistung, die rechtsextreme Akteure aus eigener Kraft nicht aufbauen könnten. So verbreiten die Algorithmen die dramatischen Erzählungen auf Knopfdruck, was zu einer Selbstverständlichkeit und Verselbstständigung ihrer Inhalte beiträgt. Denn es ist heute nicht unwahrscheinlich, dass unbedarfte Nutzer*innen über intransparente Verbreitungsketten rechte Propaganda zwischen Kochrezepten und Beauty-Tipps wiederfinden. In der Tat haben die sozialen Medien erst neue Akteure in diesem Feld geboren, die durch ihren ausgeklügelten Medienaktivismus zu einem plattformübergreifenden System beisteuern, das den gegenwärtigen globalen Aufstieg der extremen Rechten anfeuert (Fielitz/Marcks 2020).

Mapping der Hassakteure

Für unsere Studie haben wir 55 einflussreiche Hassakteure identifiziert, die in sozialen Medien eine besondere Relevanz haben. Diese Relevanz messen wir an dem Zusammenspiel von Reichweite, Aktivität, der Kapazität zu plattformübergreifendem Handeln und der Eigenständigkeit der Akteure (Fielitz/Schwarz 2020: 18f.). Unser Mapping zeigte, dass mit 29 Fällen über die Hälfte der 55 Hassakteure von Eingriffen von Tech-Unternehmen betroffen gewesen sind. Wir sehen aber auch, dass Maßnahmen sehr unterschiedlich durchgesetzt wurden. Das heißt, während Akteure wie das Compact Magazin auf Facebook gelöscht wurden, können sie sich auf YouTube weiter artikulieren. Andersherum ist es dem identitären Rapper Prototyp NDS verboten, seine Musik auf YouTube zu teilen, wohingegen er auf Facebook weiterhin aktiv ist. Eine von wenigen Ausnahmen bildet Martin Sellner, der seit Mitte 2020 auf allen großen Plattformen gesperrt ist. In absoluten Zahlen hat Facebook im Jahr 2020 an Attraktivität für Hassakteure stark eingebüßt. Mit 20 Sperrungen haben die Betreiber die meisten Akteure gesperrt oder gelöscht. YouTube bietet Hassakteuren nun die größte Reichweite unter den Mainstream-Plattformen. Auffällig ist, dass die meistgenutzte Plattform allerdings Telegram geworden ist. 96 % nutzen Telegram als eine Art kommunikative Basis. Ohne spürbare moderative Eingriffe befürchten zu müssen, vernetzen sich Rechtsextreme hier und archivieren ihre Propaganda. Akteure haben unseren Daten zufolge inzwischen eine ähnlich hohe Reichweite wie über Facebook. Andere Alternativplattformen wie Gab oder VK können in Deutschland bisher keine Massendynamiken auslösen. Sie bleiben kommunikative Nischen und sind nur im Zusammenspiel mit kommerziellen Plattformen wichtig. An der Entwicklung auf Telegram zeigt sich auch, dass gerade in Corona-Zeiten neue Entwicklungen nachzuvollziehen sind. Während bekannte rechtsextreme Organisationen kaum Zuwächse verzeichneten, sind es vor allem verschwörungsideologische Einzelpersonen, die über ihre hyperaktiven Accounts an Bedeutung gewannen. So übertreffen einige Posts von Oliver Janich und Eva Herman die Reichweite etablierter Medien. Mit jeweils über 140.000 Menschen (Stand: November 2020), die sie erreichen können, ist ihr manipulatives Potenzial unvergleichlich höher als das von Kameradschaften und einigen rechtsextremen Parteien. Mit ihnen konkurriert eine Riege von rechtsextremen Influencer*innen um Aufmerksamkeit, die ohne feste organisatorische Basis agieren und rechtsextreme Ideologie als Lebensstil verkaufen.

Telegram als kommunikative Basis

Telegram entwickelte sich, auch jenseits rechtsextremer Kanäle, seit einiger Zeit zu einem Massenmedium. Das hängt insgesamt weniger mit dem Deplatforming zusammen, sondern vor allem mit den neuen datenrechtlichen Richtlinien von anderen Anbietern, vor allem WhatsApp, die Menschen zu alternativen Messenger-Diensten treibt. Die App bietet durchaus einen höheren Schutz der Privatsphäre als kommerzielle Anbieter und weist jede Einflussnahme von staatlicher Seite auf freie Kommunikation zurück. Telegram wirbt damit, in die Kommunikation nicht moderativ einzugreifen, was es attraktiv für Rechtsextreme macht: Sie wollen einen möglichst ungestörten Kommunikationsfluss und eine direkte Verbindung zu ihren Sympathisant*innen. Über Push-Nachricht fühlen Menschen sich dauerhaft verbunden mit rechtsextremen Akteuren. Viele der Accounts erreichen zehntausende Menschen augenblicklich. Telegram ist weiterhin so beliebt, weil es private und öffentliche Kommunikation effektiv verbindet. Mit zwei Klicks landen die Nachrichten aus öffentlichen rechten Kanälen in der Familiengruppe und alle Mitglieder können sich ohne Zugangsbeschränkung angucken, welch krude Theorien und antisemitischen Weltbilder bestimmte Personen der Öffentlichkeit streuen. Letztendlich lebt Telegram davon, dass es von vielen als reiner Messenger wahrgenommen wird, wo Eingriffe zur Wahrung der Privatsphäre nicht durchgeführt werden. Das NetzDG greift bei Telegram bisher nicht. Dabei ist es schon längst eine öffentliche Plattform mit sehr verschiedenen Interaktionselementen, die auch von terroristischen Gruppen genutzt wird. So nutzte der IS Telegram viele Jahre, um Propaganda zu verbreiten und Mitglieder zu rekrutieren. Hier hatte Telegram recht effektive Mittel, dies einzudämmen. Im rechtsextremen und terroristischen Bereich fehlt der politische Wille. Hier finden sich gewaltaffine Gruppen, die Rechtsterroristen feiern und zur Gewalt aufrufen. Diese haben teilweise tausende von Follower*innen. Unter anderem verbreiteten Nutzer*innen die Übertragung des Anschlags von Halle in zahlreichen Kanälen. In seinen verschiedenen Versionen wurde es hunderttausendfach angesehen. Hier fehlt von den Betreibern ein Signal, gegen die Verherrlichung rechtsterroristischer Anschläge langfristig und effizient vorzugehen.

Muster des Deplatformings

Auffällig ist beim Deplatforming von kommerziellen Plattformen, dass es häufig in Wellen vollzogen wird. Das heißt, dass selten ein politisch relevanter Account allein gelöscht wird und sich zudem das Verhalten der Plattformen angleicht. Zumindest geraten Betreiber in Erklärungsnot, wenn sie politischen Akteuren weiterhin eine Bühne geben, während andere diese Akteure als gefährlich für die eigenen Nutzer*innen identifiziert haben. Wir haben anhand des Verlaufs Muster im Deplatforming identifiziert, die uns Rückschlüsse auf die Durchsetzung solcher Maßnahmen gegen Hassakteure geben. Vor 2017 waren vor allem neonazistische Organisationen betroffen. Dazu gehörten u. a. die Parteien Die Rechte, Der Dritte Weg und Landesverbände der NPD, die alle juristisch gegen die Entscheidung klagten. Im Falle des Dritten Wegs wurden die Sperrungen gerichtlich temporär zurückgenommen, damit die Partei keinen Nachteil im anlaufenden EU-Wahlkampf 2019 erhält. Langfristig hielten die Löschungen gegen juristische Maßnahmen aber stand. Das Jahr 2019 war stärker von Einschränkungen gegen identitäre Aktivist*innen und Gruppen geprägt. Dies traf deren Akteure besonders hart, weil ihr gesamtes Politikmodell auf die Vermarktung rechtsextremer Ideologie über soziale Medien abzielt. Ohne eine Resonanzfläche für ihre inszenierten Aktionen verlieren diese selbst an Bedeutung. Denn ohne ihre sozialen Medienkanäle haben Identitäre keine Möglichkeit, diskursiven Druck aufzubauen, damit andere Medien über sie berichten. Deutlich zeigt sich der zunehmende Bedeutungsverlust am Beispiel der Netzwerkorganisation Ein Prozent: Wenn Nutzer*innen über die algorithmische Verbreitung ihrer Posts auf die Nachrichten nicht aufmerksam werden, verlieren auch die provokativen Auftritte an Schlagkraft. Nachdem in einem Gerichtsverfahren die Klage gegen die Löschung auf Facebook und Instagram abgewiesen wurde, konnte die Gruppierung keine neuen Akzente setzen. Im Dezember 2020 wurde zudem auch ihr YouTube-Kanal gesperrt. Unter anderem Namen werden allerdings weiterhin Inhalte dieser Gruppierung verbreitet. Im Jahr 2020 zeigte sich, dass sich das Deplatforming zunehmend gegen Akteure richtet, die Desinformation im Kontext der Corona-Pandemie verbreiten. Nachdem Kritik in der ersten Welle der Pandemie aufkam, dass sich über kommerzielle Plattformen Fehlinformationen besser verbreiteten als seriöse Informationen (Donovan 2020) schalteten kommerzielle Plattformen vermehrt Aufklärungsseiten und leiteten Nutzer*innen auf seriöse Inhalte um. Nach mehreren blockweisen Löschungen bei Facebook, Instagram und Twitter im Frühjahr und Sommer 2020 folgte YouTube im Oktober 2020 mit einem Vorstoß zur Löschung entsprechender Inhalte. Somit trat die Begrenzung der Reichweite oder Löschung von gefährlichen Falschinformationen in den Vordergrund, was eine Sperrung wegen Vergehen gegen die Gemeinschaftsstandards vereinfachte. Denn oft fiel es den Betreibern zuvor schwer, konkrete Anlässe für eine Sperrung zu isolieren. Neben Akteuren wie dem rechtsextremen Compact Magazin wurde auch der Verschwörungsideologe Oliver Janich und die Verschwörungsbewegung QAnon von Plattformen gelöscht. Ab Sommer 2020 wurden mit Verweis auf die gefährdenden Inhalte im Pandemie-Kontext Rechtsextreme von den Plattformen verwiesen.

Diskursive Reaktionen auf das Deplatforming

Es überrascht nicht, dass sich die Einschränkung des Zugangs zu sozialen Medien zu einem Thema unter Hassakteuren entwickelt hat, das eine Solidarisierung und somit den Zusammenhalt unter Hassakteuren und der extremen Rechten mit Bezug auf ein gemeinsames Feindbild stärkt. Die rechtsextreme Kampfansage an das Deplatforming fügt sich in eine breitere von rechts lancierte Debatte über freie Rede, „politische Korrektheit“ und die Ablehnung der etablierten Medien ein und vermischt sich mit Verschwörungsnarrativen, wonach die Plattformbetreiber der verlängerte Arm politischer Eliten seien. In diesem Kontext wurden die Entscheidungen zum Deplatforming oft politisiert und spektrenübergreifend zu einem Kampagnenthema auserkoren, um sich als Verteidiger*innen der Redefreiheit zu stilisieren und die gegenwärtige Situation als „Meinungsdiktatur“ zu kontrastieren. Hassakteure leisten einen interpretativen Aufwand, um die Rückschläge in den sozialen Medien strategisch zu rahmen. Wir haben uns daher zunächst genauer angesehen, welche Probleme Hassakteure rund um das Deplatforming ansprechen und wo sie dessen Ursachen verorten (diagnostisches Framing). Hier sehen wir klassische rechtsextreme Narrative, dass eine vermeintliche politische Zensur „patriotische“ Ideen unterdrücke. Im selben Atemzug porträtiert man die Bundesrepublik als totalitäres Regime, auch um sich selbst mit den Dissident*innen im Dritten Reich und der DDR gleichzusetzen. Besonders auffällig ist, wie sehr fehlende Einnahmen über den sozialen Medienaktivismus bemängelt werden. Dies deutet an, wie selbstverständlich es für Rechtsextreme vorher war, mit ihren Accounts direkt oder indirekt Geld zu verdienen. Mit Blick auf Ideen, wie man ein bestimmtes Problem überwinden kann (das prognostische Framing), wird deutlich, dass der Wechsel auf andere Plattformen als zentrale Handlungsoption gilt. Denn während viele Hassakteure ankündigen, rechtliche Schritte einleiten zu wollen, tun dies nur wenige und haben zudem wenig Erfolg. Zunehmende Bedeutung gewinnen auch Back-up-Kanäle. Hier wird dazu aufgerufen, sich neue Kanäle unter anderem Namen zuzulegen, um weiter auf den Plattformen zu bleiben. Schließlich soll der Diskurs über das Deplatforming Menschen auch zum Handeln animieren (motivationales Framing). Im Vordergrund steht der Aufruf zu finanzieller Unterstützung und Solidarität. Dies weist einmal mehr darauf hin, wie abhängig sich Hassakteure von den jeweiligen Plattformen gemacht haben und wie sehr sie nicht nur politisch das Deplatforming trifft. Es wird dazu aufgerufen, die Mitteilungen von gesperrten Akteuren auf den Plattformen zu teilen oder ihnen auf anderen Plattformen zu folgen.

Rechte Ausweichstrategien

Es liegt also auf der Hand, dass Hassakteure aus dem Diskurs heraus verschiedene Umgangsstrategien testen, wie sie mit Sperrungen umgehen: Denn Repression schafft bekanntlich Innovation. Dabei sehen wir, wie bereits mit verschiedenen Strategien ein mögliches Deplatforming präventiv antizipiert wird und die Darstellung der Botschaften angepasst wird. Das betrifft zum einen ein semantisches Mimikry, vor dessen Hintergrund bestimmte Schlüsselwörter oder Codes vermieden werden sollen und die Kommunikation bewusst ambivalent gehalten wird, um Kritik abzuwehren. Dazu zählen humoristisch gemeinte Formen der Selbstzensur, bspw. wenn Rechtsextreme in Podcasts fragwürdige Aussagen mit einem Piepton unkenntlich machen. Damit soll bereits angedeutet werden, dass die Meinung angeblich nicht frei gesagt werden dürfe und die eigenen Aussagen in einem anderen politischen Kontext radikaler wären. Andererseits ist auffällig, wie sehr Hassakteure auf visuelle oder audiovisuelle Formate zurückgreifen. Memes, Share-Pics und Co. vermitteln politische Inhalte ungleich subtiler und assoziativer. Sie vermeiden die Klarheit von textlichen Aussagen und sind ambivalent in ihrer Interpretation – meist mit ironischen Untertönen. Sind bestimmte Hassakteure erst einmal mit dem Deplatforming konfrontiert, müssen sie zwangsläufig ihre Strategie anpassen, um handlungsfähig zu bleiben. Viele Aktivist*innen können es sich politisch und finanziell nicht leisten, vollkommen auf die Mainstream-Plattformen zu verzichten. Daher nutzen sie verschiedene Wege, um ihre Inhalte weiterhin im digitalen Mainstream zu platzieren. Sie unterwandern also Verbote. Dies passiert entweder über eine loyale Masse, die sich Hassakteure auf Alternativplattformen aufbauen, oder indem sie sich neue Konten bzw. Fake Accounts anlegen, mit denen sie ihre Inhalte weiter über die gesperrten Plattformen teilen. Lutz Bachmann zum Beispiel hat nach jeder Sperrung mit einem neuen Profil auf Facebook weitergemacht und über Telegram seine Anhänger*innen auf die neue Seite gelotst. Schließlich bleibt Akteuren die Abwanderung aus den digitalen Mainstream, wenngleich dies gefährlich ist, weil sie durch ihre fehlende Präsenz auf den Plattformen ein Stück Normalität verlieren. Wenig oder nicht moderierte Foren dienen Hassakteuren als sichere Rückzugsräume, über die sich im Idealfall neue Communitys aufbauen lassen. Sie werden für eigene Interessen gekapert. In der Praxis funktioniert dies in Deutschland nur über Telegram, dem heutigen Treffpunkt aller rechtsextremen Akteure. Um Informationshoheit zu gewinnen, gibt es Bemühungen, sich eigene digitale Infrastrukturen aufzubauen. In Deutschland wird das mit alternativen Videostreamingportalen versucht, scheitert bisher aber. Allerdings sind weitere Versuche erwartbar, diese technologischen Unabhängigkeitsbewegungen wie in den USA weiter zu professionalisieren (Donovan et al. 2019).

Grenzen und Dilemmata des Deplatformings

Unsere Studie thematisiert auch die Grenzen und Dilemmata des Deplatformings. Wir sind uns bewusst, dass das Deplatforming ein umstrittenes Vorgehen ist, das demokratisch kaum kontrolliert wird. Das bringt Probleme der Rechtfertigung mit sich und kann immer auch nicht-intendierte Konsequenzen haben. Die Plattformen sozialer Medien haben heute eine zentrale Verantwortung für die politische Kultur in Demokratien, da sie weit mehr als nur Menschen verbinden: Sie aggregieren zugleich Nachrichten, sie sind Orte kultureller Kreativität und politischer Auseinandersetzungen. Das Verhalten der Tech-Unternehmen hat Einfluss auf die Berichterstattung von herkömmlichen Medien, auf den Ausgang von Wahlen und das Denken von Millionen von Menschen: Ihre Entscheidungen darüber, was veröffentlicht werden kann, wie es organisiert und monetarisiert wird, was entfernt werden kann und warum, und was die technische Architektur erlaubt und verbietet, sind reale und substanzielle Eingriffe in die Konturen des öffentlichen Diskurses (Gillespie 2010: 359). Deplatforming ist ein technischer Akt, der den Zugang zu Social-Media-Profilen sperrt und Inhalte für andere Nutzer*innen unzugänglich macht. Für Plattformen, die selbst für „offene Teilnahme, freizügige Interaktion und dem Schutz von freier Rede“ werben (Gillespie 2018: 176), ist dieser Schritt die Ultima Ratio, um mit Problemen auf der eigenen Plattform fertigzuwerden. In diesem Sinne sind die Betreiber daran interessiert, Löschungen nur in Ausnahmefällen durchzuführen, damit nicht der Eindruck von Willkür oder politischer Parteilichkeit entsteht. Gleichzeitig sind die einzelnen Löschungen aber öffentlichkeitswirksame Signale, die an die breitere Masse gesendet werden. Denn der Akt des Deplatforming selbst legt Standards fest, wann Individuen oder Gruppen die Grenze des Ertragbaren überschreiten. Somit entsteht eine Pfadabhängigkeit in dem Sinne, dass dieselben Verstöße nun ähnlich geahndet werden müssen. Es birgt aber auch Dilemmata, die gleichen Standards auf alle Nutzer*innen einer Plattform anzuwenden. So ist es ein fundamentaler Unterschied, ob einflussreiche oder randständige Accounts bestimmte Nachrichten mit ihrer Anhängerschaft teilen. Generell gilt, dass Akteure oft erst in das Visier repressiver Maßnahmen geraten, je mehr Follower*innen sie haben und je mehr Schaden sie mit ihren Nachrichten anrichten können (Rogers 2020). Gleichzeitig wirken Eingriffe einschneidender, wenn Hassgruppe oder Influencer*innen sich selbst und/oder ihre Inhalte als gesellschaftlich relevant vermitteln können. Es erfordert also einiges an interkulturellem und fachlichem Wissen, um die vielen Feinheiten zu erfassen, die sich je nach Gegenstand und Kontext sprachlich abbilden. Bei der Masse an (fragwürdigen) Posts kann eine faire Begutachtung allerdings kaum gewährleistet werden. Folglich filtern Plattformen die Beiträge heute fast ausschließlich mithilfe künstlicher Intelligenz, was wieder ganz neue Probleme mit sich bringt.

Zivilgesellschaft zwischen den Fronten

Die Löschung von Postings und Accounts durch privatwirtschaftliche Akteure ist ein Einschnitt in die freie Meinungsäußerung, die ihrer Rechtsform zum Trotz eine enorme öffentliche und politische Bedeutung und somit Verantwortung haben. Allerdings ist dieser Einschnitt alltäglich, ja er ist notwendig, um die freie Meinungsäußerung anderer zu schützen. Um dies zu gewährleisten, beginnen nun viele Staaten der Welt, (unterschiedliche) regulative Maßnahmen zu entwickeln. Wer wie an öffentlichen Diskursen partizipieren kann, ist nicht zuletzt auch eine wichtige Frage für die Zivilgesellschaft. Denn wenn Staaten oder Unternehmen zum Deplatforming greifen und menschenfeindliche, gewaltverherrlichende oder anderweitig unerwünschte Beiträge löschen oder Accounts verbannen, kommen zivilgesellschaftliche Akteure kaum um eine Positionierung herum. Auffällig ist, dass hier zwei widerstrebende Positionen aufeinandertreffen: Zum einen finden wir eine technikaffine Strömung vor, die vor allem vor den Gefahren von staatlicher und privatwirtschaftlicher Willkür warnt, die auf Kosten der freien Meinungsäußerung gehen kann. Mit Blick auf die digitalen Überwachungs- und Disziplinierungsmaßnahmen autoritärer Regime werden hier Checks and Balances betont, welche die Netzneutralität, die Meinungsfreiheit und den freien Zugang zum Internet dauerhaft gewährleisten sollen. Zum anderen argumentieren insbesondere Initiativen gegen rechts, dass (selbst-)regulative Maßnahmen deutlich ausgebaut werden müssen, damit den Plattformen nicht weiter ihr emanzipatorisches Potenzial genommen wird. Plattformen werden aufgefordert, rigoroser zu löschen, wodurch sich auch die Gestaltungskraft der Unternehmen auf den öffentlichen Diskurs nolens volens weiter ausbaut. Eine neue Dynamik entstand in dieser Debatte mit dem Sturm auf das US-amerikanische Kapitol im Januar 2021, der zu einem entscheidenden Teil über soziale Netzwerke koordiniert wurde, und der Löschung der Social-Media-Accounts von Donald Trump. Während sich Plattformen lange als neutrale Vermittler von Informationen darstellten, die sich aus dem politischen Wettbewerb raushalten, wurde nun verstärkt die politische Verantwortung der Konzerne diskutiert. Genau genommen stellt der Rundumschlag, der einem verstärkten Vorgehen gegen rechtsextreme Inhalte insgesamt folgt, ein spätes Eingeständnis des Umstands dar, dass die Technologie über ein destruktives Potenzial verfügt, das nach strikteren Regeln und korrektiven Eingriffen verlangt, wenn sie zum Nutzen, nicht zum Schaden der Demokratie wirken soll. Jedenfalls ist viel in Bewegung geraten in den Debatten über die Regulierung und Moderation von Plattformen sowie die Grenzen der Meinungsfreiheit und deren Durchsetzung. Das führt nun dazu, dass die Fragen der Gestaltung wichtiger Kommunikationsräume politisch debattiert werden. Allzu lang haben viele Menschen es für unumstößlich gehalten, dass gewinnorientierte Plattformen bestimmen, wie öffentliche Diskurse gestaltet werden. Dabei wäre es an der Zeit, ihre Verantwortung in den Verwerfungen unserer Zeit zu diskutieren und sich für verantwortungsvolle Alternativen stark zu machen.    

Literatur

Donovan, Joan; Lewis, Rebecca; Friedberg, Brian (2019): Parallel Ports. Sociotechnical change from the Alt-Right to Alt-Tech. In: Fielitz, Maik/Thurston, Nick [Hrsg.]: Post-digital cultures of the far right. Online actions and offline consequences in Europe and the US. Bielefeld: Transcript (Political science, Volume 71), S. 49–65.
Fielitz, Maik; Marcks, Holger (2020): Digitaler Faschismus. Die sozialen Medien als Motor des Rechtsextremismus. Dudenverlag: Berlin.
Fielitz, Maik; Schwarz, Karolin (2020): Hate not Found?! Das Deplatforming der extremen Rechten und seine Folgen. Institut für Demokratie und Zivilgesellschaft: Jena.
Gillespie, Tarleton (2010): The politics of ‘platforms’. In: New Media & Society, 12(3), S. 347–364.
Gillespie, Tarleton (2018): Custodians of the Internet. Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. Yale University Press: New Haven.
Rogers, Richard (2020):
Deplatforming: Following extreme Internet celebrities to Telegram and alternative social media. In: European Journal of Communication, 35(3), S. 213–229.