Im Vorfeld des sogenannten Superwahljahres 2024 wurde viel spekuliert, ob die mit der Veröffentlichung von ChatGPT rasant an Bedeutung gewinnende generative Künstliche Intelligenz (KI) auch einen entscheidenden Einfluss auf Wahlergebnisse und demokratische Prozesse haben kann. Viele Medien prognostizierten eine Welle an KI-generierten Falschinformationen (Berger 2023), kann KI doch für jede Behauptung gefälschte Beweise liefern und so die Beweislast umkehren. Das Weltwirtschaftsforum stufte im Jahr 2024 ‚KI-generierte Fehl- und Desinformation‘ sogar als das zweitwahrscheinlichste Risiko ein, um eine ‚Krise globalen Ausmaßes‘ auszulösen (WEF 2024).
Vor diesem Hintergrund untersuchten wir im Herbst 2024 in einer Studie die Nutzung von KI-gestützten und -generierten Bildern im rechtsalternativen Kontext (Donner et al. 2024). Unsere zentralen Forschungsfragen lauteten: Wie verbreitet sind KI-generierte Bilder in der Kommunikation rechtsalternativer Akteur*innen? Nutzen diese die neue Technologie besonders häufig? Und wie und in welchen Kontexten wird generative KI angewandt? Im Folgenden geben wir die zentralen Ergebnisse dieser quantitativen Analyse wieder und ordnen sie mit Blick auf Nutzungsmotive und mögliche politische und gesellschaftliche Implikationen ein.
Wenn alles künstlich wirken kann
In der Vergangenheit kamen Deepfakes1 und andere KI-gestützte Inhalte nur selten für politische Zwecke zum Einsatz. Sie waren aufwendig zu produzieren und im öffentlichen Diskurs schnell als solche entlarvt, basierten sie doch auf bereits vorhandenem Video- und Bildmaterial. Mit dem Aufkommen generativer KI hat sich das jedoch grundlegend verändert: KI-Bildgeneratoren ermöglichen es, vollständig neue synthetische Bilder zu erzeugen – auf Basis von Milliarden online zugänglichen Bildern.
Für politische Akteur*innen eröffnet diese technologische Entwicklung neue strategische Möglichkeiten. Die rapide gestiegene Raffinesse der Tools, ihr einfacher Zugang und die gesunkenen Produktionskosten erlauben es, visuelle Inhalte gezielt auf die Einstellungen und Erwartungen bestimmter Zielgruppen zuzuschneiden. Gerade im audiovisuellen Bereich scheint es mittlerweile Betrachter*innen schwerer zu fallen, reale Fotografien von KI-generierten Grafiken zu unterscheiden (Pocol et al. 2024).
Diese veränderten Bedingungen nährten die Vision eines ‚KI-Wahljahres‘: eine Situation, in der das Netz mit KI-generierten Inhalten überflutet wird und es für Nutzer*innen zunehmend unklar ist, welche Inhalte realen Ursprungs sind – und welche nicht (Frank et al. 2023). Daraus ergeben sich neue Formen von Manipulationspotenzial: Durch scheinbar authentische Darstellungen können Personen und Szenarien konstruiert werden, die für Verleumdung oder gezielte Desinformation genutzt werden.
Die Debatte um KI ist aber nicht nur durch die Unterschätzung von Risiken geprägt, sondern auch durch deren Überschätzung. Apokalyptische Szenarien und mediale Präsenz fördern aufgrund der Verfügbarkeitsheuristik die Wahrscheinlichkeit, dass die Prävalenz von KI-generierten Inhalten überschätzt wird. Dies kann die Glaubwürdigkeit von verlässlichen Informationen schwächen und demokratische Prozesse gefährden, hilft aber vor allem denjenigen, die glaubwürdige Informationen in Zweifel ziehen wollen. Die bloße Existenz von KI-Technologie vereinfacht die Option der Dekontextualisierung von Inhalten. So fällt es leichter, die Authentizität und den Wahrheitsgehalt jeglicher Information als ‚KI manipuliert‘ zu diskreditieren. Die Gefahr besteht deshalb nicht nur darin, dass Menschen falsche Informationen glauben, sondern dass selbst richtige Informationen in Zweifel gezogen werden. Rechtsalternative Akteur*innen können Unsicherheit nutzen, um sowohl Fälschungen glaubhaft als echt darzustellen als auch echte Inhalte als gefälscht zu deklarieren.
Angesichts der doppelten Dynamik – der potenziellen Gefährdung demokratischer Diskurse durch gezielte Desinformation und der gleichzeitigen epistemischen Destabilisierung durch pauschale Infragestellung von Authentizität – erschien eine empirische Betrachtung der tatsächlichen Nutzung generativer KI im politischen Feld umso dringlicher.
Der rechtsalternative KI-Kosmos
Der Fokus unserer Untersuchung liegt auf rechtsalternativen Akteur*innen – nicht nur aufgrund einzelner dokumentierter Vorfälle, in denen antidemokratische Gruppen frühzeitig generative KI nutzten (Donner et al. 2024), sondern auch wegen ihrer technologischen und thematischen Affinitäten, die eine besonders frühe und aktive Nutzung im politischen Kontext nahelegen. In der Vergangenheit haben sich diese Akteur*innen wiederholt als anpassungsfähig im Umgang mit neuen digitalen Plattformen, Technologien und kulturellen Ausdrucksformen gezeigt, etwa auf 4chan, über Memes (Zannettou et al. 2018), TikTok (Bösch 2023) oder Facebook (Davis et al. 2019). Sie nutzen mediale Innovationen nicht nur frühzeitig, sondern auch gezielt zur Umgehung etablierter Kommunikationsnormen und Gatekeeping-Strukturen.
Generative KI bringt zudem eine spezifische Eigenlogik mit: Durch die statistische Modellierung historischer Daten reproduziert sie dominante Narrative, Stereotype und ästhetische Formen der Vergangenheit. Diese Eigenschaft – in der Literatur als Nostalgiemaschine oder Klischeeverstärker bezeichnet (Meyer 2025) – korrespondiert stark mit rechtsalternativen Kommunikationsmustern, die oft auf Traditionsbezug und Essentialisierung beruhen. Besonders verstärkt wird dieser Effekt dadurch, dass die Entwicklung generativer KI bisher vor allem im globalen Norden stattfand und somit dortige Vorurteile und Stereotype verstärkt. Im demokratischen Spektrum herrscht dagegen häufig Zurückhaltung, etwa sichtbar in der freiwilligen Selbstverpflichtung zur Nichtverwendung generativer KI im Europawahlkampf 2024 (Griera 2024). Törnberg und Chueri (2025) zeigen zudem, dass rechtsextreme Akteur*innen schon heute überproportional an der Verbreitung von Desinformation beteiligt sind. Das macht die Analyse ihrer KI-Nutzung im Kontext der öffentlichen Debatte über Desinformation besonders relevant.
Gefahr oder Hype?
Die Datengrundlage umfasst 78.973 Bilder, die während der Hochphase des Landtagswahlkampfes in Brandenburg, Sachsen und Thüringen (15. Juli bis 31. August 2024) auf Telegram geteilt wurden. Sie stammen von rechtsalternativen und bundeslandspezifischen Accounts aus dem Monitoring des Online-Magazins Machine Against the Rage sowie von zusätzlich identifizierten rechten parteipolitischen Accounts. Das Monitoring basiert auf einer von Expert*innen kuratierten Ausgangsstichprobe an Kanälen, die periodisch über ein Snowball-Verfahren um die am meisten weitergeleiteten einschlägigen Kanäle erweitert wird.2 Aus einem repräsentativen Sample von 5.402 Bildern identifizierten wir 158 KI-generierte Inhalte. Das entspricht weniger als 5 % des Materials. Es ist davon auszugehen, dass dies auch im Jahr 2025 die Realität in Deutschland noch gut widerspiegelt, da Studien von CeMAS (2025) und dem CampAIgnTracker (2025) auch im Rahmen des Bundestagswahlkampfes auf ähnliche Größenordnungen gekommen sind.
Mehr als ein Drittel der von uns analysierten KI-generierten und -gestützten3 Bilder sind generischer Natur und dienen eher als Hintergrundrauschen zur politischen Vision. Über ein Drittel der Bilder (35,4 %) im Datensatz behandelt politische Themen. Das Thema Migration wird oft mit Kriminalität verknüpft (13,2 %). Hier wird hauptsächlich mit dem diskriminierenden Bild der suggerierten Invasion, der Debatte um den Begriff Remigration und homogenen Menschenmassen gearbeitet, um die politische Vision einzurahmen. Damit ist eine Kollektivverallgemeinerung von Migrant*innen als potenzielle Gewalttäter*innen verbunden. Mehr als jedes zehnte Bild enthält ein Nationalsymbol oder bildet eine Überhöhung der eigenen Nation ab – teils um das Bild einer weißen Gegenkultur zur Abgrenzung von anderen Ethnien zu zeichnen. Naturmotive wiederum werden im absoluten Vergleich bei jedem fünften Bild genutzt, über die Hälfte im generischen Kontext – also ohne jeglichen strategischen oder ästhetischen Mehrwert.
Die häufigste Form der visuellen Ansprache sind vermeintliche Tatsachen und Empörung, oft kombiniert mit Humor, besonders bei politischen Themen, Migration und Kriminalität. Nationalismus und Natur werden eher mit positiven Emotionen wie Freude und Nostalgie verknüpft, um zu mobilisieren, ein Gemeinschaftsgefühl zu suggerieren oder Veranstaltungen zu bewerben.
Ähnlich häufig im Datensatz zu finden sind Darstellungen von bekannten bzw. ihnen merklich ähnelnden Personen (17,7 %) und fotorealistische Situationen (17,2 %). Einerseits wird bei Bildern, die als fotorealistisch bezeichnet werden können, viel mit generischen Natur- und Landschaftsbildern gearbeitet, die so auch bei Online-Bilddatenbanken gesucht werden könnten, nun aber extra mit KI erstellt sind. Andererseits bilden einige KI-Bilder fiktive Szenarien ab, die visuelle Elemente von Gewalt, Bedrohung oder Gefahr beinhalten. Während generische Landschaftsbilder, für die in ästhetischer Hinsicht keine KI notwendig wäre, annehmen lassen, dass hier eher Lizenzkosten gespart oder eine technische Affinität suggeriert werden soll, scheinen andere fotorealistische Szenarien eine gewisse Täuschungsabsicht bezwecken zu wollen. Denn auch wenn zeichnerisch nachempfundene Abbildungen von Personen oder unrealistische Szenarien und Handlungen die Bilder oft sofort als nicht realistisch erkennen lassen und so den Täuschungsgrad reduzieren, kann Bildsprache Ressentiments schüren und Personen diffamieren.4
Affekte statt Fakten
Während nur ein kleiner Teil der KI-generierten Inhalte fotorealistische Darstellungen mit realen Personen kombiniert (1,9 %) und damit der Definition von Deepfakes genügt, erfüllt fast ein Drittel der untersuchten Bilder mindestens eines der beiden Kriterien. Die Gefahr bei vor allem fotorealistischen, aber auch plausiblen KI-Bildszenarios – zum Beispiel brennende Autos oder eine aggressive heterogene Menschenmasse – ist, dass Aussagen suggeriert werden, die glaubhaft sind, aber so nicht stimmen, und emotionale Reaktionen, unabhängig von der Frage nach der reellen Natur des Bildes, ausgelöst werden. Das abgebildete Szenario könnte deshalb, losgelöst von der Frage nach Authentizität, als realistisch eingestuft werden, wenn es Annahmen der Rezipient*innen über die Realität bestätigt.
Zu ähnlichen Ergebnissen kommt auch eine Studie der Otto Brenner Stiftung (Kruschinski et al. 2025b), die die Wahrnehmung und Wirkung von KI-generierten Kampagnen analysierte. So sei die Wirkung KI-generierter Kampagneninhalte stark von der Übereinstimmung mit den politischen Einstellungen der Rezipient*innen abhängig und Valenz sowie das Thema der Bildinhalte würden die Wahrnehmung stärker beeinflussen als der Ursprung des Bildes. Das Element der Künstlichen Intelligenz spiele deshalb bei der Rezeption eine eher zweitrangige Rolle. Viel wichtiger sei es doch, ob die Inhalte stark emotionalisierend und zum eigenen Weltbild passend seien. Hameleers et al. (2022) zeigen zudem, dass negative Deepfakes zwar glaubwürdig sein können, aber nicht zwingend überzeugender sind als andere Formen von Fehlinformationen. Dass der Konsum von mit KI-manipuliertem Bildmaterial nicht nur zu einer Realitätsbestätigung, sondern auch einer Realitätsverschiebung führen kann, legt eine aktuelle Studie des Massachusetts Institute of Technology (Pataranutaporn et al. 2025) dar: Teilnehmer*innen, die KI-generierten und mit KI manipulierten Inhalten ausgesetzt waren, tendierten eher dazu, ungenaue und verzerrte Erinnerungen an das Gesehene zu berichten, als Teilnehmer*innen, die unbearbeitete Kontrollbilder betrachteten. Dieser Effekt war sogar noch ausgeprägter, wenn die Teilnehmer*innen mit KI-generierten Videos konfrontiert wurden, die auf KI-bearbeiteten Bildern basierten. Dies deutet darauf hin, dass dynamische KI-Medien die Realitätsverschiebung der Rezipient*innen erheblich verstärken.
Warum rechtsalternative Akteur*innen KI-Bilder nutzen
Zwar erlaubt die vorliegende Analyse keinen direkten Einblick in die Intentionen der Akteur*innen, doch lassen sich aus der visuellen Gestaltung, dem thematischen Kontext und der kommunikativen Einbettung generativer Inhalte plausible Rückschlüsse auf zugrunde liegende Nutzungslogiken ziehen. Dabei zeigt sich, dass das im öffentlichen Diskurs häufig dominierende Motiv gezielter Täuschung – etwa durch realitätsnahe Deepfakes oder manipulierte Bilder prominenter Personen – in unserem Datensatz nur eine untergeordnete Rolle spielt. Entsprechende Versuche beschränken sich fast ausschließlich auf apokalyptisch inszenierte Szenarien allgemeiner Natur, nicht jedoch auf konkret überprüfbare Falschdarstellungen individueller Akteur*innen. Stattdessen deutet sich eine Reihe weiterer Nutzungsmotive an, die auf funktionale, symbolische und strategische Ziele verweisen – und damit ein differenzierteres Bild der Aneignung generativer KI durch rechtsalternative Akteur*innen ermöglichen.
Ein zentrales Motiv liegt in der Markenbildung: Selbst die insgesamt noch geringe Nutzung wird sehr stark durch einige wenige darauf spezialisierte Powernutzer*innen getrieben. Dabei ist auffällig, dass einzelne Akteur*innen den Einsatz generativer KI gezielt als Alleinstellungsmerkmal ihres Kanals inszenieren. Die generierten Inhalte fungieren dabei als visuelle Signatur – als Teil eines wiedererkennbaren ästhetischen Stils, der zur Profilbildung in sozialen Medien beiträgt. Ob die Erzeugung der Bilder jeweils tatsächlich den Einsatz fortgeschrittener KI erfordert, ist in vielen Fällen zweitrangig; entscheidend ist vielmehr die symbolische Aufladung der Technologie als Zeichen von Modernität und Abgrenzung.
Ein zweiter, pragmatischerer Beweggrund betrifft Fragen des Urheberrechts und der Ressourcenökonomie. Ein Großteil der analysierten Bilder weist einen hohen Grad an visueller Generik auf, wie er sich auch in gängigen Stockfoto-Archiven finden ließe. Die Wahl generativer Verfahren scheint hier vor allem eine ökonomisch und rechtlich motivierte Ersatzhandlung zu sein: Statt lizenzpflichtiges Material zu verwenden, ermöglichen KI-generierte Bilder eine kostengünstige und zeitsparende Alternative. Diese Vermutung wird durch die CampAIgn-Studie gestützt, die zeigt, dass insbesondere finanzschwache Kleinstparteien überproportional häufig auf generative KI zurückgreifen (Kruschinski et al. 2025a). Das ist ein Hinweis darauf, dass die Technologie auch strukturelle Vorteile im Wettbewerb mit begrenzten Wahlkampfressourcen schaffen kann.
Darüber hinaus lassen sich strategische Formen des Attention Hacking beobachten. Anknüpfend an bekannte Mechanismen kalkulierter Provokation – etwa das bewusste Übertreten medialer Tabugrenzen, das später geleugnet oder relativiert wird – wird KI gezielt eingesetzt, um Aufmerksamkeit zu generieren, ohne sich klar angreifbar zu machen. So enthielten etwa mehrere Videos der Jungen Alternative Brandenburg KI-generierte Bildsequenzen, deren visuelle Generik ausreichend Deutungsspielraum ließ, um anschließende Empörung in strategisches Kapital umzuwandeln. Tatsächlich gelang einem dieser Videos ein bemerkenswerter Reichweitenerfolg im Kontext des Wahlkampfs. Ein gutes Beispiel für erfolgreiches Attention Hacking ist auch die Aufmerksamkeit für KI-Influencer*innen wie Larissa Wagner, welche trotz geringer Reichweiten medial mehrfach aufgegriffen wurden (Reveland 2025). Als Early Adopter nutzen rechtsalternative Akteur*innen die neue Technologie also auch, um auf die KI-Aufmerksamkeitswelle aufzuspringen.
Ein weiteres häufiges Motiv ist die Emotionalisierung politischer Kommunikation. Generative KI wird hierbei zur affektiven Aufladung eingesetzt – sei es durch Bilder, die Stolz, Zugehörigkeit und nationale Identität hervorrufen, oder durch visuelle Szenarien, die Angst, Bedrohung und Ressentiment aktivieren. Der gezielte Einsatz emotional kodierter Bildwelten verweist auf eine medienpsychologische Wirksamkeit, die weit über Fragen der Authentizität hinausreicht.
Dessen ungeachtet eröffnet die Verbreitung generativer KI einen neuen diskursiven Möglichkeitsraum, der insbesondere von strategisch agierenden Akteur*innen genutzt werden kann – etwa durch das, was in der Literatur als Liar’s Dividend beschrieben wird: die Möglichkeit, den Wahrheitsstatus visueller Belege systematisch zu untergraben, indem reale Aufnahmen im Nachhinein als vermeintlich KI-generiert dargestellt werden. Diese Form epistemischer Destabilisierung zielt weniger auf die aktive Täuschung mittels künstlicher Bilder als auf die Erosion von Vertrauen in dokumentierte Wirklichkeit – insbesondere dann, wenn diese nicht mit der eigenen politischen Erzählung kompatibel ist. Dass diese Strategie mehr als ein theoretisches Szenario darstellt, legen einzelne Beispiele nahe: So wurde in unserem Sample ein reales Bild am Flughafen wartender Unterstützer von Kamala Harris als KI-Erzeugnis diskreditiert (Horton et al. 2024); ein weiterer inzwischen dokumentierter Fall betrifft die Behauptung, ein authentisches Foto eines migrantischen Helfers bei einem Gewaltereignis sei künstlich generiert (Stäbener 2025).
Schließlich lässt sich ein Motiv der Normalisierung identifizieren: Die beiläufige, bewusst unauffällige Nutzung generativer KI zielt offenbar darauf ab, technologische Grenzverschiebungen in gesellschaftlich akzeptierte Praktiken zu überführen. Wahlkampfinhalte, in denen KI funktional oder ästhetisch unverdächtig eingesetzt wird, tragen so zur Etablierung neuer medialer Standards bei, ohne offene Aushandlung, sondern durch habituelle Einübung. Strategien wie der in Imageboard-Kulturen verbreitete AI slop – also das gezielte Einsetzen KI-generierter Inhalte, bei denen Masse und Frequenz systematisch über inhaltliche Tiefe oder gestalterische Qualität gestellt werden – deuten auf ein Austesten gesellschaftlicher Toleranzschwellen hin. Gerade durch ihre scheinbare Harmlosigkeit wirken solche Anwendungen als diskursive Verschiebungspraxis, die bestehende Deutungsrahmen allmählich transformiert.
Mehr als Täuschung
Dennoch kann die Nutzung von KI-generierten Bildern vor den Landtagswahlen in Sachsen, Thüringen und Brandenburg eher als experimentell statt flächendeckend strategisch verstanden werden. Dass das nicht so bleiben muss, zeigen Entwicklungen im US-amerikanischen Raum. Hier wird KI bereits strategisch politisch genutzt. Eine Versteifung auf das Gefahrenpotenzial von Täuschungseffekten birgt das Risiko, andere strategische Motive von und daraus resultierende Gefahren durch KI-generierte Bilder leicht zu übersehen. Noch können mit kreativen Prompts Aufmerksamkeit geschaffen und Vorurteile bedient werden: eine zentrale Motivation, sich KI-generierter Bilder in rechtsalternativen Kreisen anzunehmen, wie auch unsere Analyse zeigt. Die neue Technologie verliert jedoch immer mehr ihren disruptiven Charakter – nicht weil die Qualität abnimmt, sondern weil sie vielmehr zur Normalität wird. Und so eine Verschiebung der Realität befördert.
1 Unter (bildlichen) Deepfakes verstehen wir realistisch wirkende synthetische Bilder, die gezielt reale Identitäten imitieren. KI-generierte Bilder können dagegen beliebige Inhalte darstellen. Zwar wird in der Theorie oft nach den zugrunde liegenden Algorithmen differenziert, diese lassen sich aus dem Endprodukt jedoch meist nicht eindeutig bestimmen. Daher fassen wir Deepfakes als Teilmenge KI-generierter Bilder und verwenden die Begriffe GenAI-Bild und KI-generiertes Bild synonym.
2 Parteipolitische Accounts wurden durch ein separates Snowball-Sampling auf bekannten Parteikanälen identifiziert. Weitere Details zur Methodik finden sich unter: https://machine-vs-rage.net/ausgabe-7/methodischer-annex-07/.
3 Bei den meisten Bildern stellen KI-generierte Elemente nur einen Teil der Bildinhalte dar. Sie dienen im Rahmen von Montagen und Memes als Hintergrund oder Ergänzung.
4 Beispielbilder zur Veranschaulichung verschiedener Kategorien können im Report eingesehen werden: machine-vs-rage.net/ausgabe-7/attention-is-all-they-need/.
Christian Donner, M. Sc., ist wissenschaftlicher Mitarbeiter am Institut für Demokratie und Zivilgesellschaft (IDZ) in Jena. Er ist Mathematiker mit Schwerpunkt auf Data Science und Computational Social Science. Für den Jenaer Standort des Netzwerkes toneshift bringt er innovative computergestützte Methoden zum Einsatz, um die Effekte politischer Kommunikation in sozialen Medien empirisch messbar zu machen.
Lena-Maria Böswald, M. Sc., ist Senior Policy Researcher mit Schwerpunkt Plattformregulierung bei interface – Tech analysis and policy ideas for Europe in Berlin. Zuvor arbeitete sie als Senior Advocacy Managerin bei Das NETTZ – Vernetzungsstelle gegen Hate Speech und als Datenanalystin bei Democracy Reporting International. In früheren Publikationen forschte sie zur Verbreitung von Hassrede und KI-gestützter Desinformation im digitalen Raum.
Dieser Text entstand zum Teil im Kontext der Arbeit des IDZ-Teilprojekts von toneshift – Netzwerk gegen Hass im Netz und Desinformation, in dem Christian Donner als Senior Data Scientist tätig ist. Der Kooperationsverbund wird gefördert vom Bundesministerium für Bildung, Familie, Senioren, Frauen und Jugend im Rahmen des Bundesprogramms „Demokratie leben!“ Für inhaltliche Aussagen und Meinungsäußerungen tragen die Publizierenden dieser Veröffentlichung die Verantwortung.
Literaturverzeichnis
Berger, Cathleen (2023). KI und Wahlen: Zwischen Meme-Kultur und politischer Werbung. Online verfügbar unter upgradedemocracy.de/ki-und-wahlen-zwischen-meme-kultur-und-politischer-werbung/ (abgerufen am 23.06.2025).
Böswald, Lena-Maria/Beatriz Almeida Saab (2022). What a Pixel Can Tell: Text-to-Image Generation and its Disinformation Potential. Democracy Reporting International. Online verfügbar unter democracyreporting.s3.eu-central-1.amazonaws.com/images/6331fc834bcd1.pdf (abgerufen am 30.10.2025).
Bösch, Markus (2023). Alternative TikTok Tactics: How the German Right-Wing Populist Party AfD Plays the Platform. Fast Politics, 149–167. http://dx.doi.org/10.1007/978-981-99-5110-9_8.
CeMAS (2025). Autoritäre Strategien im Netz: Analyse und Monitoring digitaler Risiken rund um die Bundestagswahl 2025, 49–59. Online verfügbar unter assets.ctfassets.net/jxoi5zxh0flm/70yEyJMOwcjJUAyO3wQzQa/9402073ee4f72fb7c685c26a36843e95/CeMAS_Report_BTW2025.pdf (abgerufen am 23.06.2025).
Davis, Travis/Steven Livingston/Matt Hindmann (2019). Suspicious Election Campaign Activity on Facebook How a Large Network of Suspicious Accounts Promoted Alternative Für Deutschland in the 2019 EU Parliamentary Elections. Online verfügbar unter: smpa.gwu.edu/sites/g/files/ zaxdzs2046/f/2019-07-22%20-%20Suspicious%20Election%20Campaign%20Activity%20 (abgerufen am 23.06.2025).
Donner, Christian/Lena-Maria Böswald/Maik Fielitz/Harald Sick/Holger Marcks (2024). Attention Is All They Need: Eine Analyse der Nutzung generativer KI in rechtsalternativen Netzwerken. Machine Against the Rage 2 (3). https://doi.org/10.58668/matr/07.2.
Griera, Max (2024). Desinformation im EU-Wahlkampf: EU-Kommission und Parteien vereinbaren Regeln. Online verfügbar unter www.euractiv.de/section/europawahlen/news/desinformationen-im-eu-wahlkampf-eu-parteien-und-kommission-vereinbaren-regeln/ (abgerufen am 23.06.2025).
Horton, Jake/Shayan Sardarizadeh/Mike Wendling (2024). Trump falsely claims Harris crowd was faked. Online verfügbar unter www.bbc.com/news/articles/cx2lmm2wwlyo (abgerufen am 23.06.2025).
Kruschinski, Simon/Fabio Votta/Miriam Runde/Jakob Scherer/Theresa Schültken (2025a). CampAIgn Tracker. Online verfügbar unter: www.campaigntracker.de (abgerufen am 23.06.2025).
Kruschinski, Simon/Pablo Jost/Hannah Fecher/Tobias Scherer (2025b). Künstliche Intelligenz in politischen Kampagnen – Akzeptanz, Wahrnehmung und Wirkung. Online verfügbar unter: www.otto-brenner-stiftung.de/fileadmin/user_data/stiftung/02_Wissenschaftsportal/03_Publikationen/AP75_KI_Kampagnen.pdf (abgerufen am 23.06.2025).
Meyer, Roland (2025). Echte Emotionen. Generative KI und rechte Weltbilder. Online verfügbar unter geschichtedergegenwart.ch/echte-emotionen-generative-ki-und-rechte-weltbilder/ (abgerufen am 23.06.2025).
Pataranutaporn, Pat/Chayapatr Archiwaranguprok/Sanantha W. T .Chan/Elizabeth Loftus/Pattie Maes (2024). Synthetic Human Memories: AI‑Edited Images and Videos Can Implant False Memories and Distort Recollection. arXiv. https://doi.org/10.48550/arXiv.2409.08895.
Pocol, Andreea/Lesley Istead/Sherman Siu/Sabrina Mokhtari/Sara Kodeiri(2024). Seeing is No Longer Believing: A Survey on the State of Deepfakes, AI-Generated Humans, and Other Nonveridical Media. Advances in Computer Graphics. CGI 2023. Lecture Notes in Computer Science 14496. https://doi.org/10.1007/978-3-031-50072-5_34
Reveland, Carla (2025). KI-Influencer im Wahlkampf: Rechts, weiblich, Fake. Online verfügbar unter www.tagesschau.de/faktenfinder/kontext/rechte-ki-influencer-100.html (abgerufen am 23.06.2025).
Stäbener, Jana (2025). Nach Messerattacke: Bild des syrischen Helden für gefährlichen Trend missbraucht. Online verfügbar unter www.fr.de/panorama/nach-messerattacke-bild-des-syrischen-helden-fuer-gefaehrlichen-trend-missbraucht-zr-93754108.html (abgerufen am 23.06.2025).
Törnberg, Petter/Juliana Chueri (2025). When do Parties Lie? Misinformation and Radical-Right Populism Across 26 Countries. The International Journal of Press/Politics. Online verfügbar unter journals.sagepub.com/doi/10.1177/19401612241311886 (abgerufen am 23.06.2025).
World Economic Forum (2024). The Global Risks Report 2024, 1. Online verfügbar unter www3.weforum.org/docs/WEF_The_Global_Risks_Report_2024.pdf (abgerufen am 23.06.2025).
Zannettou, Savvas/Tristan Caulfield/Jeremy Blackburn/Emiliano De Cristofaro/Michael Sirivianos/ Gianluca Stringhini/Guillermo Suarez-Tangil (2018). On the Origins of Memes by Means of Fringe Web Communities. arXiv. doi.org/10.48550/arXiv.1805.12512.

