Einleitung
Sowohl im Kontext der US-Wahl 2016, des Brexit-Referendums als auch bei den Protesten gegen die Maßnahmen zur Bekämpfung der COVID-19-Pandemie wurde digitalen Desinformationen eine große Erklärungskraft zugesprochen. In Bezug auf letztere wurde das Bild vermittelt, die falschen Informationen verbreiteten sich ähnlich rasant wie das Virus selbst. In den vergangenen zehn Jahren hat sich insbesondere in liberalen Demokratien die Sorge um die Gefahren, die von Desinformationen ausgehen würden, weit verbreitet (Knuutila et al. 2022). So gab in einer europaweiten Befragung mehr als ein Drittel an, digital häufig falschen Informationen zu begegnen (Unzicker 2023). Im Dezember 2024 erschien eine umfangreiche Metastudie basierend auf über 1.500 Veröffentlichungen. Der Bericht relativierte die bislang oft angenommenen demokratiezersetzenden Auswirkungen von Desinformationen – insbesondere im globalen Norden – deutlich, da er keine robusten empirischen Belege finden konnte (Mansell et al. 2025, xxvi). Und er steht nicht alleine da. Bemerkenswert ist nämlich, dass in den letzten Jahren zunehmend Literatur publiziert wurde, die die angenommenen zersetzenden Auswirkungen von Desinformationen kritisch hinterfragt (Altay et al. 2023a; Hoffmann 2023; Hofmann 2023; Jungherr und Rauchfleisch 2024; Miró-Llinares und Aguerri 2023).
Ziel dieses Beitrags ist es, zentrale Annahmen über das demokratiegefährdende Potenzial von Desinformation, wie sie sowohl in der wissenschaftlichen Fachdebatte als auch im öffentlichen Diskurs formuliert werden, zu identifizieren und deren Verhältnis zu den empirischen Befunden des aktuellen Forschungsstands zu analysieren. Er gliedert sich daher in drei Schritte: Zunächst werden die vermuteten Folgen und Wirkungen digitaler Desinformation näher beleuchtet und vor dem Hintergrund demokratischer Prozesse sowie des gesellschaftlichen Zusammenhalts eingeordnet. Daran anschließend folgt ein Überblick über das Forschungsfeld auf Grundlage zentraler Studien und systematischer Überblicksarbeiten. Dabei werden insbesondere Leerstellen und mögliche Plausibilisierungen herausgearbeitet. Abschließend wird ein Ausblick auf weiterführende Erklärungsansätze gegeben, die Desinformation nicht nur als Phänomen mit unmittelbaren Folgen, sondern auch als Ausdruck gesellschaftlicher Konflikte und Krisen interpretieren.
Desinformation, demokratische Prozesse und sozialer Zusammenhalt
Sowohl eine Befragung der Vereinten Nationen als auch des World Economic Forum nennen für 2024 und 2025 Desinformation als eines der zentralen Risiken der kommenden Jahre, insbesondere da ausländische Akteur*innen gezielt manipulative Inhalte in sozialen Medien lancieren1 und diese für ihre geostrategischen Interessen nutzen würden – sogenannte Foreign Information Manipulation and Interference (FIMI). In Rumänien wurde Ende 2024 sogar aus diesem Grund die Präsidentschaftswahl annulliert, nachdem im ersten Wahlgang der rechtsextreme, aber bis dahin medial weitestgehend unbedeutende Călin Georgescu überraschend gewonnen hatte. Auf TikTok hatten seine Videos vermutlich Millionen Nutzer*innen erreicht und es gab Hinweise darauf, dass diese Reichweite nur durch finanziellen und strategischen Einfluss aus Russland zustande kam.2
Im öffentlichen und politischen Diskurs scheint sich in den letzten Jahren damit wenig verändert zu haben: Monsees (2020) zeigte bereits für die Jahre 2016/2017 anhand empirischer Daten, dass Desinformationen – damals vor allem noch unter dem Begriff der „Fake News“ verhandelt – im öffentlichen Diskurs zum einen als Erklärung für die Erfolge populistischer Parteien und die Verbreitung von rassistischen Einstellungen dienten, zum anderen im Kontext hybrider Kriegführung und FIMI als ein ernst zu nehmendes Sicherheitsproblem für Deutschland dargestellt wurden.
Die Forschung diskutiert eine Vielzahl möglicher demokratiegefährdender Folgen von Desinformation. Untersucht wurde, welche Faktoren und Mechanismen dazu beitragen, dass Menschen der online gesehenen Desinformation Glauben schenken. Relativ übereinstimmend zeigen zahlreiche Studien, dass konservative bzw. politisch rechts eingestellte Personen anfälliger als politisch liberale bzw. links eingestellte sind, falsche Informationen nicht als solche zu erkennen (Baptista und Gradim 2022). Wenn falsche Informationen geglaubt werden, wird das oft auf Motivated reasoning und einen Confirmation bias zurückgeführt. Damit werden Mechanismen beschrieben, wonach Menschen Informationen eher glauben, wenn diese mit ihrer politischen Identität und ihren Ansichten übereinstimmen (Vegetti und Mancosu 2020; Ludwig und Sommer 2024). Jedoch kann auch Bekanntheit von (falschen) Nachrichten dazu führen, dass sie geglaubt werden. Unklar ist, inwiefern diese beiden Effekte möglicherweise miteinander interagieren (Sultan et al. 2024; Hameleers 2022).
Ausgehend von der Erkenntnis, dass die Unterscheidung zwischen richtig und falsch in schnelllebigen, emotionalisierenden und auf Unterhaltung ausgerichteten Online-Öffentlichkeiten oft schwerfällt, wird die Desinformiertheit von Bürger*innen als eine der wichtigsten demokratiegefährdenden Folgen von Desinformation angenommen (Ball 2021; Brown 2018; Lunga und Mthembu 2019). Dabei wird die Informiertheit von Bürger*innen nicht nur als Voraussetzung für freie und faire Wahlen gesehen (Tenove 2020). Auch demokratische Debatten werden untergraben, wenn Deliberationsprozessen, anhand derer gesellschaftliche Probleme gelöst werden, keine gemeinsame Faktenbasis vorausgeht (Broda und Strömbäck 2024, 141; McKay und Tenove 2021; Tenove 2020). Auf Grundlage verzerrter Wahrnehmungen von Realität können kaum gute, kollektive Entscheidungen getroffen werden, insbesondere bei Themen, die Kooperation und soziale Koordination erforderten (Vegetti und Mancosu 2025). Fehlwahrnehmungen könnten außerdem Einstellungen gegenüber politischen Entscheidungen negativ verändern (Nyhan 2020) oder verstärken (Hameleers 2022), und auch zu problematischer Wissensresistenz führen. Gemeint ist damit die irrationale Bewertung von Evidenz sowie die selektive Beachtung bzw. Vermeidung von Informationen, die den eigenen Einstellungen widersprechen (Lecheler und Egelhofer 2022, 69).
Darüber hinaus scheinen falsche Informationen oft mehr Hatespeech zu enthalten als richtige Nachrichten (Hameleers et al. 2022). Insofern kann angenommen werden, dass Desinformation zusammen mit inziviler und hassschürender Kommunikation dazu beitragen kann, (marginalisierte) Positionen aus Diskursen zu verdrängen, was demokratische Normen der gleichberechtigten Partizipation verletzt. Im schlimmsten Fall könnten Desinformationen dazu beitragen, Gewalt gegenüber bestimmten sozialen Gruppen zu legitimieren (Hunter 2023). So wird im Zusammenhang mit dem Völkermord an den Rohingya in Myanmar angenommen, dass entsprechende Kampagnen in den sozialen Medien die Gewaltausbrüche verstärkten (Gianan 2020, 11). Die Desinformiertheit breiter Teile der Bevölkerung ist hier nicht unbedingt Voraussetzung. Für demokratiegefährdende Folgen, wie die Polarisierung der Gesellschaft und den Kollaps des sozialen Zusammenhalts, reicht es, wenn laute Minderheiten Stimmung machen (Kompetenznetzwerk gegen Hass im Netz 2024).
Folgen von Desinformation: empirische Ergebnisse
Nichtsdestotrotz muss festgehalten werden, dass den oben beschriebenen Folgen von Desinformation einige Bedingungen vorausgehen, von denen wir im spezifischen Kontext oft nicht wissen, inwiefern sie überhaupt erfüllt sind. Denn nicht Desinformationen per se, sondern die Desinformiertheit von vielen Bürger*innen gefährden wie oben beschrieben demokratische Prozesse. Erste Voraussetzung ist dementsprechend, dass Menschen mit Desinformation in Kontakt kommen, und zweitens, dass diese Desinformation auch von vielen geglaubt wird und sich tatsächlich auf ihre Einstellungen auswirkt. Als weitere Bedingung kann angenommen werden, dass die Desinformiertheit in einem politisch relevanten Themenfeld stattfinden muss. Um aufzuzeigen, dass hier einige relevante Forschungslücken bestehen, werden nachfolgend das Forschungsfeld sowie empirische Ergebnisse vor allem anhand systematischer Metastudien umrissen.
Inwiefern Desinformationen zur im öffentlichen Diskurs oft beklagten Gefährdung des sozialen Zusammenhalts und darüber hinaus zur Polarisierung der Gesellschaft beitragen, kann ebenfalls nicht eindeutig beantwortet werden. Pérez-Escolar et al. (2023) gehen zwar davon aus, dass sie zumindest Polarisierung befeuern können, die Autor*innen zeigen aber in einem systematischen Literatur-Review, dass wir aktuell nur ein unvollständiges Bild von den gesellschaftlichen Auswirkungen von Desinformation haben. Forschungslücken ergeben sich oft aus methodischen Schwierigkeiten, Wirkungen auf Handlungs- und gesellschaftlicher Ebene zu erfassen, wie in diesem Kapitel ebenfalls beispielhaft an einzelnen Studien gezeigt wird.
Die Studienlandschaft wuchs mit steigenden Befürchtungen um die gesellschaftspolitischen Gefahren durch Desinformationen rasant an. Insbesondere die erste Amtszeit Donald Trumps und das Brexit-Referendum übten großen Einfluss auf das Forschungsfeld aus (Broda und Strömbäck 2024, 146), aber insbesondere die COVID-19-Pandemie brachte die Publikationszahlen buchstäblich zum „[E]xplodier[en]“ (Kaldewey 2025, 9). Das wachsende Forschungsfeld ist interdisziplinär breit aufgestellt (Pérez‐Escolar et al. 2023, 79 f.). Die meisten Beiträge stammen aus der Kommunikationswissenschaft und der Computer Science, sind im Mittel betrachtet eher empirisch ausgerichtet, meist quantitativer Art und untersuchen mehrheitlich die Prävalenz und Verbreitungen von Desinformationen sowie deren formale Charakteristika (Broda und Strömbäck 2024, 147–153).
Exemplarisch für diese Forschungslandschaft sind Arbeiten, die sich auf den US-Kontext fokussieren und anhand von großen Social-Media-Datensätzen arbeiten (Mansell et al. 2025, 93). So zeigen beispielsweise verschiedene Studien, die mehrere Zehn- bzw. Hunderttausend Twitter-/X-Profile mit dem US-Wahlregister abgleichen, welche soziodemografischen Personengruppen für die Verbreitung von Desinformationen im Verlauf der Pandemie (Lazer et al. 2020) oder im US-Wahlkampf (Baribi-Bartov et al. 2024) verantwortlich waren. In beiden Studien wird festgestellt, dass im Mittel eher ältere Personen mit republikanischer Wahlabsicht Desinformationen verbreiten. Es wird jedoch auch darauf hingewiesen, dass der Anteil der Personen, die tatsächlich Desinformationen verbreiten, nur sehr klein ist (Lazer et al. 2020, 5; Baribi-Bartov et al. 2024, 2).
Eine ähnliche Konzentration stellten Grinberg et al. (2019) auch hinsichtlich der Exposition fest. So war eine sehr kleine Gruppe, deren Mitglieder überdurchschnittlich viele politische Inhalte konsumieren, für den Großteil der Exposition gegenüber vermeintlichen Desinformationsquellen verantwortlich. Auch zwei andere in diesem Feld viel zitierte Arbeiten personell ähnlicher Forschungsteams untersuchten, ob Anhänger*innen unterschiedlicher Parteien im US-Wahlkampf 2016 Nachrichtenseiten besuchten, die als unseriös gelten (Guess et al. 2020) bzw. ob sie Inhalte auf Facebook teilten, die qua Herkunfts-Domain systematisch als nicht-vertrauenswürdig klassifiziert wurden (Guess et al. 2019). In diesen Forschungsdesigns kamen neben den Online-Surveys auch Browser-Tracking-Tools zum Einsatz, um subjektiven Verzerrungen durch die Selbsteinschätzung der Befragten zu entgehen.
Dieser kleine Ausschnitt ist nicht nur aufgrund der methodischen Herangehensweise, sondern auch angesichts der inhaltlichen Ausrichtung beispielhaft. Thematisch dominant sind die COVID-19-Pandemie – immerhin entfällt fast die Hälfte aller Arbeiten, die sich mit Desinformationen befassen, auf die Kategorie „Gesundheit“ – bzw. Themen aus dem Bereich Politik/Demokratie (21 %) (Pérez-Escolar et al. 2023, 79–82). In Bezug auf letzteres stellt eine resümierende Arbeit von Miró-Llinares und Aguerri (2023) fest, dass die These, Trumps Wahl zum Präsidenten ließe sich vor allem aus der Verbreitung von Desinformationen herleiten, auf sehr wackeligen Beinen stünde. Vielmehr zeige sich, dass die Verbreitung und der Konsum von Desinformationen sich auf eine sehr kleine Personengruppe konzentriere, die durch eine republikanische Wahlabsicht und starken Nachrichtenkonsum charakterisiert ist (Miró-Llinares und Aguerri 2023, 366). Jungherr (2025) argumentiert daher, dass die Interaktionen mit Desinformationen bereits bestehende ideologische Einstellungen widerspiegeln würden und es unwahrscheinlich sei, dass sich aufgrund ihres Konsums manifeste politische Einstellungen verändern würden (ebd., 8). Auch eine Befragung von Expert*innen zeigt, dass die Rolle von Desinformationen im US-Wahlkampf 2016 uneindeutig ist (Altay et al. 2023b).
In Bezug auf den Forschungsstand wird daher problematisiert, dass sich nur wenige Arbeiten mit dem unmittelbaren Einfluss von digitalen Desinformationen befassen (Hofmann 2023, 23). Ein Review von Murphy et al. (2023), basierend auf 555 Studien, verdeutlicht, dass sich die meisten Forschungsarbeiten mit dem Glauben an Desinformation befassen (78 %), während nur eine Studie (0.13 %) einen Zusammenhang zwischen Desinformationen und analogen Handeln unter Beweis stellt. Dabei handelt es sich um ein Experiment von Bastick (2021), das den unbewussten Einfluss eines Videos auf das Tippverhalten der Proband*innen untersucht. Der Autor selbst räumt neben den üblichen Einschränkungen in Hinblick auf die Verallgemeinerbarkeit von Laborexperimenten ein, dass das Experiment bewusst keine politische Komponente besaß und möglicherweise von anderen Effekten begleitet werden könnte. In diesem Zusammenhang kritisieren auch Adams et al. (2023), dass ein Großteil der empirischen Arbeiten auf Selbstauskünften der Befragten beruhe oder deren Handlungsabsichten, diese aber keine verlässlichen Indikatoren für tatsächliches Handeln, beispielsweise Wahlverhalten, seien.
Die Diskussion über die gesellschaftlichen Auswirkungen von digitalen Desinformationen zeigt vor allem zwei Dinge: zum einen, dass von Einstellungen nicht unmittelbar auf das Handeln oder auf die gesellschaftlichen Folgen geschlossen werden kann, und zum anderen, dass das Messen von Veränderungen auf eben dieser gesellschaftlichen Makroebene äußerst komplexe Forschungsdesigns erfordert (Lorenz-Spreen et al. 2023) und in aller Regel kaum monokausal begründbar sind. Auch wenn Desinformationen und Verschwörungstheorien beispielsweise als Ursache angenommen werden, warum bei einigen keine Bereitschaft vorhanden war, sich gegen COVID-19 impfen zu lassen, ist die Studienlage uneindeutig (Murphy et al. 2023). Es ist fraglich, ob bestehende Skepsis zur Rezeption falscher Inhalte führt, ob diese Inhalte bestehende Einstellungen lediglich bestärken oder sie überhaupt erst hervorrufen.
Metaphern, die im Kontext der Verbreitung von Desinformationen Anwendung finden, sollten vor diesem Hintergrund kritisch hinterfragt werden. Metaphern über digitale Kommunikation sind insofern relevant, als sie Wahrnehmung und Umgangsweisen mit Phänomenen prägen können (Farkas und Maloney 2025). Wird über Desinformationen gesprochen, wird häufig das Bild einer ansteckenden Krankheit, eines Virus, sogar einer „Infodemie“3 bemüht. Entsprechende Metaphorik findet sich auch auf Seiten der Interventionsmöglichkeiten. Dort wird Inoculation (Impfung) als eine mögliche Gegenstrategie verhandelt (Lewandowsky und van der Linden 2021). Altay et al. (2023a) problematisieren das Bild der ansteckenden Informationen, weil Menschen Nachrichten auf eine vielfältige Weise rezipieren. Von einer Ansteckung im pandemischen Ausmaß zu sprechen, sei zudem irreführend, da empirische Ergebnisse darauf hindeuteten, dass weniger Menschen während der globalen Pandemie falsche oder irreführende Informationen verbreiteten, als es in öffentlichen Debatten suggeriert wurde (Jungherr und Schroeder 2021, 3).
Desinformation als Phänomen komplexer gesellschaftlicher Prozesse
Während also einige Forscher*innen zu dem Fazit kommen, dass aufgrund der empirischen Datenlage keine kausalen Zusammenhänge zwischen Desinformationen und den angenommenen Auswirkungen auf Handlungs- und gesellschaftlicher Ebene bestünden (Nyhan 2020, 228-229; Altay und Acerbi 2024; Jungherr und Schroeder 2021), findet sich noch eine andere Perspektive unter Forscher*innen: Unmittelbare Wirkungen von Desinformationen sind zwar kaum kausal nachweisbar, Auswirkungen sind aber dennoch beobachtbar. So erklären Ecker et al. (2024), dass bei einer strikten Auslegung der Empirie auch angenommen werden müsse, dass eine Welt ohne digitale Desinformation genauso aussehen müsse wie die heutige. In diesem Kontext vergleichen sie Desinformation mit den unbewussten Auswirkungen jahrelangen Marketings wie durch die Tabakindustrie. Sowohl Jungherr (2025) als auch Bak-Coleman et al. (2025) geben zu verstehen, dass im Zuge der digitalen Transformation komplexe Prozesse entstehen, die realweltliche Probleme verursachen, deren Folgen sich aber nicht unmittelbar aus Effekten auf der Individualebene ableiten lassen.
Beispielhaft für komplexe gesellschaftliche Prozesse ist die Annahme, dass Desinformation auch Vertrauensverluste in die Demokratie bzw. in demokratische Institutionen (Ball 2021; Sato und Wiebrecht 2024), in den Journalismus (Olaniyan und Akpojivi 2021; Casero-Ripollés et al. 2023) und in Wissenschaft (Kim und Chen 2024) nach sich ziehen kann – und zwar nicht nur, wenn den falschen Informationen geglaubt wird. So argumentieren Lilleker und Pérez-Escolar (2023), dass ein Zusammenhang besteht zwischen durch politische Eliten verbreiteten Desinformationen und Lügen und dem in der Öffentlichkeit abnehmenden Vertrauen in demokratische Institutionen. Desinformationen können auch strategisch in der politischen Kommunikation eingesetzt werden, da mit ihnen häufig eine gesteigerte Aufmerksamkeit einhergeht und den Rezipient*innen, abseits vom reinen Wahrheitsgehalt einer Aussage, emotionale und identitätsstiftende Angebote gemacht werden können. Zweifel darüber, ob Aussagen von Politiker*innen geglaubt werden kann, reichen aus, um Vertrauen in und die Auseinandersetzung mit Politik zu untergraben. Allein die Wahrnehmung, falschen Informationen ausgesetzt zu sein, kann zu sinkendem Medienvertrauen führen (Stubenvoll et al. 2021). Desinformation wirkt hier also indirekt.
Beobachtet werden konnte auch ein Third-person effect, also die Vorstellung, dass andere Personen schlechter in der Lage sind, falsche Informationen zu erkennen als man selbst (Corbu et al. 2020; Hoffmann und Boulianne 2025), und Sorgen vor den Folgen von Desinformation für das eigene Land, obwohl man sich selbst diesen gar nicht ausgesetzt fühlt (Vegetti und Mancosu 2025). Sorge besteht deshalb, dass nicht nur Desinformationen selbst, sondern auch der öffentliche Diskurs und Alarmismus darüber negative Folgen haben, etwa wenn politische Informationen fälschlicherweise als Desinformation wahrgenommen werden (Monsees 2020; Vegetti und Mancosu 2025). Wirkungszusammenhänge sind aber auch hier noch nicht ausreichend erforscht.
Einen Schritt weiter gehen Autor*innen, die argumentieren, dass Desinformation grundsätzlich besser als Symptom denn als Ursache für aktuelle gesellschaftliche Veränderungen zu verstehen ist: Hofmann (2023) sieht beispielsweise in Desinformation ein Symptom politischer Machtkämpfe, die sich in den Bereich epistemischer Autorität verlagert haben. Desinformationen verkörpern nicht Unwissen und Naivität manipulierter Massen, sondern eine „politische Agenda, die den Angriff auf die hegemonialen Institutionen demokratischer Willensbildung und Wissensproduktion antreibt“ (Hofmann 2023, 26). Mit dieser Perspektive geht einher, Faktizität nicht mehr als alleiniges Gütekriterium für Informationen zu sehen, sondern anzunehmen, dass sich der Wert von Informationen auch an ihren sozialen Ressourcen bemisst (Hofmann 2023, 25). So wird angenommen, dass das Verbreiten von falschen Informationen auch dazu dient, Zugehörigkeit zu einer sozialen Gruppe bzw. kollektiven (politischen) Identitäten zu signalisieren (Poletta und Callahan 2017). Gesellschaftliche Spaltung und Polarisierung liegen demnach der Verbreitung von Desinformationen zugrunde – nicht andersherum (Kreiss et al. 2020). Empirisch gezeigt werden konnte, dass affektive Polarisierung – also positive Gefühle gegenüber dem eigenen und Antipathien gegenüber dem anderen politischen Lager – auch ursächlich für den Glauben an Desinformationen sein kann (Jenke 2024). Ähnlich argumentiert Monsees (2023), dass die affektive bzw. gruppenbezogene Dimension beim Verbreiten von Desinformationen bisher zu wenig beachtet wurde.
Die Perspektive erlaubt es also, danach zu fragen, welchen Nutzen Desinformationen für diejenigen haben, die sie (gezielt) aufsuchen und teilen, anstatt von einfachen Wirkungsannahmen und massenhaft manipulierten Bürger*innen auszugehen. Um noch einmal auf die Metapher der sich wie ein Virus verbreitenden „Infodemie“ zurückzukommen: Präziser wäre es, nicht von einer einfachen, sondern, wenn überhaupt, dann von einer komplexen Übertragung von Desinformation zu sprechen, die nicht nach einem Reiz-Reaktionsmodell verläuft, sondern deren Verbreitung von unterschiedlichen Faktoren abhängt (Centola und Macy 2007), etwa ob die eigene Gruppe der Desinformation Glauben schenkt und es daher opportun erscheint, diese zu verbreiten (Törnberg 2018).
Werden Desinformationen als Ausdruck von politischer Unzufriedenheit und Vertrauensverlust in politische Institutionen in Zeiten multipler Krisen verstanden (vgl. auch Bennett und Livingston 2020), wird plausibel, dass Maßnahmen wie Fact-Checking und Medienkompetenztrainings zwar für manche nützlich sind, jedoch nicht an die Wurzeln der Probleme gehen. Die öffentliche Meinungsbildung und auf Deliberation basierende politische Entscheidungsfindung geraten aber dennoch unter Druck – sind sie weniger manipuliert als gemeinhin angenommen, so sind sie doch umkämpft wie selten zuvor. Desinformationen spielen darin aber möglicherweise eine andere Rolle als bisher angenommen.
Fazit
In der öffentlichen Debatte kann leicht der Eindruck entstehen, dass Desinformationen der Grund dafür sind, warum die Gesellschaft auseinanderdriftet, politische Konsens- und Kompromissfähigkeiten in den letzten Jahren verloren gegangen sind, rechtspopulistische Parteien Erfolge feiern oder sich Jugendliche wieder häufiger radikalisieren. In der Wissenschaft werden diese Kausalitätsvermutungen hinterfragt: Zum einen wird stärker von Wechselwirkungen ausgegangen, zum Beispiel zwischen affektiver Polarisierung und dem Glauben an Desinformation, die sich gegenseitig beeinflussen. Zum anderen werden aus der Makroperspektive betrachtet Desinformationen zum Teil sogar als eine Entwicklung neben den oben genannten verstanden, deren Ursprünge allesamt woanders zu suchen sind.
Für den gesellschaftlichen Umgang mit Desinformation und konkrete Gegenmaßnahmen bedeuten diese Ergebnisse, einen schmalen Grat zwischen Aufklärung und Alarmismus zu beschreiten. Während Desinformation als gesellschaftliche Herausforderung ernst zu nehmen ist, könnte ein Zuviel an Warnungen und Aktivismus auch negative Folgen verstärken, z. B. Vertrauensverluste oder allgemeine Verunsicherung. Ein Ansatz, der diese Gratwanderung umgeht, plädiert beispielsweise dafür, den Fokus stärker auf die Förderung der Akzeptanz verlässlicher Informationen zu legen, statt sich vorrangig auf die Bekämpfung von Fehlinformationen zu konzentrieren (Acerbi et al. 2022). Zudem muss auch danach gefragt werden, wer mit den entsprechenden Aktivitäten erreicht werden soll: Verschiedene soziale Gruppen sind unterschiedlich empfänglich für Desinformation, das Gleiche gilt für Gegenmaßnahmen. Während manchen Menschen beispielsweise Fact-Checking-Hinweise unter Social-Media-Postings dabei helfen, Informationen richtig einzuordnen, bleiben Rezipient*innen, die gezielt nach Inhalten suchen, um ihre Meinung zu bestätigen, oder die einen affektiven Nutzen aus den Postings ziehen, von Richtigstellungen wahrscheinlich eher unberührt oder fühlen sich sogar angegriffen. In diesen Fällen wäre daher anzuraten, die dahinterliegenden Motivlagen zu adressieren und das Phänomen auch als Ausdruck des politischen Konflikts zu fassen. Gerade diese Funktionen von Desinformationen besser zu verstehen, kann im praktischen Umgang helfen.
1 reports.weforum.org/docs/WEF_Global_Risks_Report_2025.pdf, Seite 8 (abgerufen am 25.06.2025) und unglobalriskreport.org/UNHQ-GlobalRiskReport-WEB-FIN.pdf, Seite 5 (abgerufen am 21.10.2025).
2 www.europarl.europa.eu/RegData/etudes/ATAG/2024/767150/EPRS_ATA(2024)767150_EN.pdf (abgerufen am 12.10.2025); www.bbc.com/news/articles/cx2yl2zxrq1o (abgerufen am 12.10.2025).
3 www.who.int/europe/news/item/29-06-2020-working-together-to-tackle-the-infodemic- (abgerufen am 25.06.2025).
Franziska Martini, Dr., ist Kommunikationswissenschaftlerin mit einem Schwerpunkt auf politische Kommunikation in Online-Öffentlichkeiten. Sie arbeitet als wissenschaftliche Mitarbeiterin am Institut für Demokratie und Zivilgesellschaft in Jena im Projekt toneshift – Netzwerk gegen Hass im Netz und Desinformation.
Wyn Brodersen ist Soziologe und arbeitet als wissenschaftlicher Mitarbeiter am Institut für Demokratie und Zivilgesellschaft in Jena im Projekt toneshift – Netzwerk gegen Hass im Netz und Desinformation. In seiner Arbeit untersucht er den Einfluss digitaler Interaktionsdynamiken auf Radikalisierungsprozesse und ist Mitherausgeber des Online-Magazins Machine Against the Rage.
Dieser Text entstand im Kontext der Arbeit des IDZ-Teilprojekts von toneshift – Netzwerk gegen Hass im Netz und Desinformation. Der Kooperationsverbund wird gefördert vom Bundesministerium für Bildung, Familie, Senioren, Frauen und Jugend im Rahmen des Bundesprogramms „Demokratie leben!“ Für inhaltliche Aussagen und Meinungsäußerungen tragen die Publizierenden dieser Veröffentlichung die Verantwortung.
Literaturverzeichnis
Acerbi, Alberto/Altay, Sacha/Mercier, Hugo (2022). Research note: Fighting misinformation or fighting for information? Harvard Kennedy School Misinformation Review 3 (1), 1–15. https://doi.org/10.37016/mr-2020-87.
Adams, Zoë/Osman, Magda/Bechlivanidis, Christos/Meder, Björn (2023). (Why) Is Misinformation a Problem? Perspectives on Psychological Science 18 (6), 1436–1463. https://doi.org/10.1177/17456916221141344.
Altay, Sacha/Acerbi, Alberto (2024). People believe misinformation is a threat because they assume others are gullible. New Media & Society 26 (11), 6440–6461. https://doi.org/10.1177/14614448231153379.
Altay, Sacha/Berriche, Manon/Acerbi, Alberto (2023a). Misinformation on Misinformation: Conceptual and Methodological Challenges. Social Media + Society 9 (1), 1–13. https://doi.org/10.1177/20563051221150412.
Altay, Sacha/Berriche, Manon/Heuer, Hendrik/Farkas, Johan/Rathje, Steven (2023b). A survey of expert views on misinformation: Definitions, determinants, solutions, and future of the field. Harvard Kennedy School Misinformation Review 4 (4), 1–34. https://doi.org/10.37016/mr-2020-119.
Bak-Coleman, Joseph B./Lewandowsky, Stephan/Lorenz-Spreen, Philipp/Narayanan, Arvind/Orben, Amy/Oswald, Lisa (2025). Moving towards informative and actionable social media research. Online verfügbar unter http://arxiv.org/pdf/2505.09254v1.
Ball, Brian (2021). Defeating Fake News: On Journalism, Knowledge, and Democracy. Moral Philosophy and Politics 8 (1), 5–26. https://doi.org/10.1515/mopp-2019-0033.
Baptista, João Pedro/Gradim, Anabela (2022). Who Believes in Fake News? Identification of Political (A)Symmetries. Social Sciences 11 (10), 1–13. https://doi.org/10.3390/socsci11100460.
Baribi-Bartov, Sahar/Swire-Thompson, Briony/Grinberg, Nir (2024). Supersharers of fake news on Twitter. Science 384 (6699), 979–982. https://doi.org/10.1126/science.adl4435.
Bastick, Zach (2021). Would you notice if fake news changed your behavior? An experiment on the unconscious effects of disinformation. Computers in Human Behavior 116, 1–12. https://doi.org/10.1016/j.chb.2020.106633.
Bennett, W. Lance/Livingston, Steven (Hg.) (2020). The disinformation age. Politics, technology, and disruptive communication in the United States. Cambridge University Press.
Broda, Elena/Strömbäck, Jesper (2024). Misinformation, disinformation, and fake news: Lessons from an interdisciplinary, systematic literature review. Annals of the International Communication Association 48 (2), 139–166. https://doi.org/10.1080/23808985.2024.2323736.
Brown, Étienne (2018). Propaganda, Misinformation, and the Epistemic Value of Democracy. Critical Review 30 (3-4), 194–218. https://doi.org/10.1080/08913811.2018.1575007.
Casero-Ripollés, Andreu/Doménech-Fabregat, Hugo/Alonso-Muñoz, Laura (2023). Percepciones de la ciudadanía española ante la desinformación en tiempos de la COVID-19. ICONO 14 21 (1), 1–21. https://doi.org/10.7195/ri14.v21i1.1988.
Centola, Damon/Macy, Michael (2007). Complex Contagions and the Weakness of Long Ties. American Journal of Sociology 113 (3), 702–734. https://doi.org/10.1086/521848.
Corbu, Nicoleta/Oprea, Denisa-Adriana/Negrea-Busuioc, Elena/Radu, Loredana (2020). ‘They can’t fool me, but they can fool the others!’ Third person effect and fake news detection. European Journal of Communication 35 (2), 165–180. https://doi.org/10.1177/0267323120903686.
Ecker, Ullrich K. H./Tay, Li Qian/Roozenbeek, Jon/van der Linden, Sander/Cook, John/Oreskes, Naomi/Lewandowsky, Stephan (2024). Why misinformation must not be ignored. American Psychologist, 1–12 (Online first). https://doi.org/10.1037/amp0001448.
Farkas, Johan/Maloney, Marcus (Hg.) (2025). Digital media metaphors. A critical introduction. London/New York, Routledge Taylor & Francis Group.
Gianan, Emy Ruth (2020). Disinformation Trends in Southeast Asia: Comparative Case Studies on Indonesia, Myanmar, and the Philippines. Journal of Southeast Asian Studies 25 (1), 1–27. https://doi.org/10.22452/jati.vol25no1.2.
Grinberg, Nir/Joseph, Kenneth/Friedland, Lisa/Swire-Thompson, Briony/Lazer, David (2019). Fake news on Twitter during the 2016 U.S. presidential election. Science 363 (6425), 374–378. https://doi.org/10.1126/science.aau2706.
Guess, Andrew/Nagler, Jonathan/Tucker, Joshua (2019). Less than you think: Prevalence and predictors of fake news dissemination on Facebook. Science Advances 5 (1), 1–8. https://doi.org/10.1126/sciadv.aau4586.
Guess, Andrew M./Nyhan, Brendan/Reifler, Jason (2020). Exposure to untrustworthy websites in the 2016 US election. Nature Human Behaviour 4 (5), 472–480. https://doi.org/10.1038/s41562-020-0833-x.
Hameleers, Michael (2022). Populist Disinformation: Are Citizens With Populist Attitudes Affected Most by Radical Right-Wing Disinformation? Media and Communication 10 (4), 129–140. https://doi.org/10.17645/mac.v10i4.5654.
Hameleers, Michael/van der Meer, Toni/Vliegenthart, Rens (2022). Civilized truths, hateful lies? Incivility and hate speech in false information – evidence from fact-checked statements in the US. Information, Communication & Society 25 (11), 1596–1613. https://doi.org/10.1080/1369118X.2021.1874038.
Hoffmann, Christian Pieter (2023). The Role of Moral Panics in Media Transformation: An Examination of the “Techlash”. In: Alexander Godulla/Stephan Böhm (Hg.). Digital Disruption and Media Transformation. Cham, Springer, 41–54.
Hoffmann, Christian Pieter/Boulianne, Shelley (2025). Concerns about misinformation on Instagram in five countries. Journal of Elections, Public Opinion and Parties, 1–23 (Online first). https://doi.org/10.1080/17457289.2025.2514192.
Hofmann, Jeanette (2023). Desinformation als Symptom: ein Überblick. In: Bundesamt für Verfassungsschutz (Hg.). Wissenschaftskonferenz 2023. Meinungsbildung 2.0 – Strategien im Ringen um Deutungshoheit im digitalen Zeitalter. Köln, 20–31.
Hunter, Lance Y. (2023). Social media, disinformation, and democracy: how different types of social media usage affect democracy cross-nationally. Democratization 30 (6), 1040–1072. https://doi.org/10.1080/13510347.2023.2208355.
Jenke, Libby (2024). Affective Polarization and Misinformation Belief. Political Behavior 46, 825–884. doi.org/10.1007/s11109-022-09851-w.
Jungherr, Andreas (2025). Political Disinformation: “Fake News”, Bots, and Deep Fakes. In: Oxford Research Encyclopedia of Communication, Oxford University Press (Im Erscheinen). https://doi.org/10.31235/osf.io/xtfq2_v1.
Jungherr, Andreas/Rauchfleisch, Adrian (2024). Negative Downstream Effects of Alarmist Disinformation Discourse: Evidence from the United States. Political Behavior 46 (4), 2123–2143. https://doi.org/10.1007/s11109-024-09911-3.
Jungherr, Andreas/Schroeder, Ralph (2021). Disinformation and the Structural Transformations of the Public Arena: Addressing the Actual Challenges to Democracy. Social Media + Society 7 (1), 1–13. https://doi.org/10.1177/2056305121988928.
Kaldewey, David (2025). Die Krise der Faktizität, revisited: Wissenschaftsskepsis und Wissenschaftskommunikation im Kontext der COVID-19-Pandemie. Österreichische Zeitschrift für Soziologie 50 (1), 1–26. https://doi.org/10.1007/s11614-025-00601-w.
Kim, Sang Jung/Chen, Kaiping (2024). The use of emotions in conspiracy and debunking videos to engage publics on YouTube. New Media & Society 26 (7), 3854–3875. https://doi.org/10.1177/14614448221105877.
Knuutila, Aleksi/Neudert, Lisa-Maria/Howard, Philip N. (2022). Who is afraid of fake news? Modeling risk perceptions of misinformation in 142 countries. Harvard Kennedy School Misinformation Review 3 (3), 1–13. https://doi.org/10.37016/mr-2020-97.
Kompetenznetzwerk gegen Hass im Netz (2024). Lauter Hass – leiser Rückzug. Wie Hass im Netz den demokratischen Diskurs bedroht. Ergebnisse einer repräsentativen Befragung. Berlin. Online verfügbar unter https://toneshift.org/wp-content/uploads/2024/02/Studie_Lauter-Hass-leiser-Rueckzug.pdf.
Kreiss, Daniel/Lawrence, Regina G./McGregor, Shannon C. (2020). Political Identity Ownership: Symbolic Contests to Represent Members of the Public. Social Media + Society 6 (2), 1–5. https://doi.org/10.1177/2056305120926495.
Lazer, David/Ruck, Damian J./Quintana, Alexi/Shugars, Sarah/Joseph, Kenneth/Grinberg, Nir/Gallagher, Ryan J./Horgan, Luke/Gitomer, Adina/Bajak, Aleszu/Baum, Matthew/Ognyanova, Katherine/Qu, Hong/Hobbs, WilliamMcCabe, Stefan/Green, Jon (2020). Report #18: COVID-19 fake news on Twitter. https://doi.org/10.31219/osf.io/vzb9t.
Lecheler, Sophie/Egelhofer, Jana Laura (2022). Disinformation, Misinformation, and Fake News. Understanding the Supply Side. In: Jesper Strömbäck/Åsa Wikforss/Kathrin Glüer et al. (Hg.). Knowledge Resistance in High-Choice Information Environments. London, Routledge, 69–87.
Lewandowsky, Stephan/van der Linden, Sander (2021). Countering Misinformation and Fake News Through Inoculation and Prebunking. European Review of Social Psychology 32 (2), 348–384. https://doi.org/10.1080/10463283.2021.1876983.
Lilleker, Darren/Pérez-Escolar, Marta (2023). Bullshit and Lies? How British and Spanish Political Leaders add to Our Information Disorder. Javnost - The Public 30 (4), 566–585. https://doi.org/10.1080/13183222.2023.2244824.
Lorenz-Spreen, Philipp/Oswald, Lisa/Lewandowsky, Stephan/Hertwig, Ralph (2023). A systematic review of worldwide causal and correlational evidence on digital media and democracy. Nature Human Behaviour 7, 74–101. https://doi.org/10.1038/s41562-022-01460-1.
Ludwig, Jonas/Sommer, Joseph (2024). Mindsets and politically motivated reasoning about fake news. Motivation and Emotion 48 (3), 249–263. https://doi.org/10.1007/s11031-024-10067-0.
Lunga, Carolyne Mande/Mthembu, Maxwell Vusumuzi (2019). Investigating the Source and Strategies Adopted by Mainstream Media in Combating Fake News in the Kingdom of Eswatini. African Journalism Studies 40 (4), 96–111. https://doi.org/10.1080/23743670.2019.1664606.
Mansell, Robin/Durach, Flavia/Kettemann, Matthias/Lenoir, Théophile/Procter, Rob/Tripathi, Gyan/Tucker, Emily (2025). Information Ecosystems and Troubled Democracy. A Global Synthesis of the State of Knowledge on News Media, AI and Data Governance. International Observatory on Information and Democracy. Online verfügbar unter https://observatory.informationdemocracy.org/report/information-ecosystem-and-troubled-democracy/.
McKay, Spencer/Tenove, Chris (2021). Disinformation as a Threat to Deliberative Democracy. Political Research Quarterly 74 (3), 703–717. https://doi.org/10.1177/1065912920938143.
Miró-Llinares, Fernando/Aguerri, Jesús C. (2023). Misinformation about fake news: A systematic critical review of empirical studies on the phenomenon and its status as a ‘threat’. European Journal of Criminology 20 (1), 356–374. https://doi.org/10.1177/1477370821994059.
Monsees, Linda (2020). ‘A war against truth’ - understanding the fake news controversy. Critical Studies on Security 8 (2), 116–129. https://doi.org/10.1080/21624887.2020.1763708.
Monsees, Linda (2023). Information disorder, fake news and the future of democracy. Globalizations 20 (1), 153–168. https://doi.org/10.1080/14747731.2021.1927470.
Murphy, Gillian/Saint Laurent, Constance de/Reynolds, Megan/Aftab, Omar/Hegarty, Karen/Sun, Yuning/Greene, Ciara M. (2023). What do we study when we study misinformation? A scoping review of experimental research (2016-2022). Harvard Kennedy School Misinformation Review 4 (6), 1–57. https://doi.org/10.37016/mr-2020-130.
Nyhan, Brendan (2020). Facts and Myths about Misperceptions. Journal of Economic Perspectives 34 (3), 220–236. https://doi.org/10.1257/jep.34.3.220.
Olaniyan, Akintola/Akpojivi, Ufuoma (2021). Transforming communication, social media, counter-hegemony and the struggle for the soul of Nigeria. Information, Communication & Society 24 (3), 422–437. https://doi.org/10.1080/1369118X.2020.1804983.
Pérez-Escolar, Marta/Lilleker, Darren/Tapia-Frade, Alejandro (2023). A systematic literature review of the phenomenon of disinformation and misinformation. Media and Communication 11 (2), 76–87. https://doi.org/10.17645/mac.v11i2.6453.
Polletta, Francesca/Callahan, Jessica (2017). Deep stories, nostalgia narratives, and fake news: Storytelling in the Trump era. American Journal of Cultural Sociology 5 (3), 392–408. doi.org/10.1057/s41290-017-0037-7.
Sato, Yuko/Wiebrecht, Felix (2024). Disinformation and Regime Survival. Political Research Quarterly 77 (3), 1010–1025. https://doi.org/10.1177/10659129241252811.
Stubenvoll, Marlis/Heiss, Raffael/Matthes, Jörg (2021). Media trust under threat: Antecedents and consequences of misinformation perceptions on social media. International Journal of Communication 15, 2765–2786.
Sultan, Mubashir/Tump, Alan N./Ehmann, Nina/Lorenz-Spreen, Philipp/Hertwig, Ralph/Gollwitzer, Anton/Kurvers, Ralf H. J. M. (2024). Susceptibility to online misinformation: A systematic meta-analysis of demographic and psychological factors. Proceedings of the National Academy of Sciences of the United States of America 121 (47), 1–12. https://doi.org/10.1073/pnas.2409329121.
Tenove, Chris (2020). Protecting Democracy from Disinformation: Normative Threats and Policy Responses. The International Journal of Press/Politics 25 (3), 517–537. https://doi.org/10.1177/1940161220918740.
Törnberg, Petter (2018). Echo chambers and viral misinformation: Modeling fake news as complex contagion. PloS one 13 (9), 1-21. https://doi.org/10.1371/journal.pone.0203958.
Unzicker, Kai (2023). Desinformation: Herausforderung für die Demokratie. Bertelsmann-Stiftung. https://doi.org/10.11586/2023043.
Vegetti, Federico/Mancosu, Moreno (2020). The Impact of Political Sophistication and Motivated Reasoning on Misinformation. Political Communication 37 (5), 678–695. https://doi.org/10.1080/10584609.2020.1744778.
Vegetti, Federico/Mancosu, Moreno (2025). Perceived Exposure and Concern for Misinformation in Different Political Contexts: Evidence From 27 European Countries. American Behavioral Scientist 69 (2), 131–147. https://doi.org/10.1177/00027642221118255.

