Die zunehmende Nutzung generativer Künstlicher Intelligenz (KI) insbesondere in der politischen Kommunikation1 hat eine Debatte über ihren Einsatz und ihre Folgen ausgelöst (Jungherr et al. 2024). Häufig werden potenzielle Risiken von KI hervorgehoben, darunter der Rückgang der Qualität politischer Informationen, die Verbreitung von Desinformationen und die Erosion des Vertrauens in demokratische Institutionen (Bird et al. 2023). Diese Bedenken haben zu Forderungen nach einer Regulierung von KI geführt, zum Beispiel durch freiwillige Richtlinien, unabhängige Expert*innenbewertungen und Verbote (Comunale und Manera 2024).
Politische Entscheidungsträger*innen müssen die tatsächliche Risikowahrnehmung in der Bevölkerung gegenüber KI und ihren Regulierungsmaßnahmen verstehen, um ihre Akzeptanz zu fördern, ohne legitime Meinungen einzuschränken oder Zensurvorwürfe zu provozieren (Morosoli et al. 2025). Obwohl es Studien über die Einstellung zum Einsatz von KI im Journalismus (Behre et al. 2024) und in der Wirtschaft (Neu 2024) gibt, fehlt es an Untersuchungen über die Einstellung der Menschen zum Einsatz von KI in der Kommunikation politischer Akteur*innen. Die vorliegende Studie möchte diese Lücke schließen und fragt: Welche Einstellungen haben Bürger*innen zum Einsatz von KI in der politischen Kommunikation und damit verbundenen Regulierungsmaßnahmen und wie lassen sich diese Einstellungen durch Persönlichkeitseigenschaften (politische Einstellungen und soziodemografische Merkmale) erklären?
Einstellungen und wahrgenommene Risiken im Zusammenhang mit generativer KI
Unter KI werden Computersysteme verstanden, die durch maschinelles Lernen und algorithmische Modelle menschenähnliche Leistungen wie Entscheidungsfindung und Sprachverarbeitung erbringen können (Sanseviero et al. 2025). Generative KI, wie in ChatGPT, Copilot und Gemini, geht noch weiter, indem sie neue Inhalte wie Texte, Bilder und Videos auf der Grundlage von Mustern erstellt, die aus umfangreichen Datensätzen gelernt wurden (Sanseviero et al. 2025). Insgesamt zeigen Befragungen eine positive, jedoch leicht zunehmend kritischere Einstellung gegenüber KI, insbesondere im Bildungssektor sowie im Bereich Wirtschaft und hinsichtlich ihres Innovationspotenzials (Schlude et al. 2023; Strippel et al. 2023). Der Einsatz von KI wird von Bürger*innen mit potenziellen Risiken verknüpft, die in ihrer Gänze noch nicht vollständig absehbar seien (Simon et al. 2023). Dennoch befürchten nur wenige Menschen eine Gefährdung der Demokratie oder eine Diskriminierung durch KI (Kieslich et al. 2020), obwohl die kritische Haltung gegenüber KI in bisherigen Studien nicht auf eine allgemeine Technophobie zurückgeführt wird, sondern vielmehr auf das Ergebnis aus differenzierten Überzeugungen und Erfahrungen (Oh et al. 2017).
Was die politische Kommunikation betrifft, so wird KI mit einer Reihe von Risiken verbunden (Bird et al. 2023). Diskriminierung und Ausgrenzung können entstehen, wenn Datensätze bestimmte Gruppen unterrepräsentieren, was zu verzerrten oder stereotypen Ergebnissen führt. So weist Ferrara (2023) auf Beispiele ethnischer und geschlechtsspezifischer Verzerrungen u. a. in der stereotypen Darstellung von Menschen in Führungspositionen hin, die das Risiko bergen könnten, gesellschaftliche Stereotypen zu verstärken. Abgesehen von der Verstärkung von Vorurteilen ist KI anfällig für versehentliche Fehler und absichtlichen Missbrauch. Ungenaue Ergebnisse, die aufgrund von fehlerhaften Trainingsdaten entstehen, können die Nutzer*innen in die Irre führen (Ferrara 2023). Schließlich ist die Möglichkeit, mithilfe von KI Desinformationen zu produzieren, besonders besorgniserregend, da demokratische Prozesse, zum Beispiel Wahlen, durch die ressourcenarme und technisch einfache Erstellung von Desinformation in großer Menge beeinflusst werden können (Bird et al. 2023). Insbesondere stellen Deepfakes durch die Manipulation von Bildmaterial ein Risiko dar, da sie zu Vertrauensverlust in Nachrichten und die Legitimität demokratischer Öffentlichkeit führen und die Integrität des politischen Diskurses gefährden können (Vaccari und Chadwick 2020). Obwohl diese Gefahren von KI für die Demokratie oft hervorgehoben werden (Jungherr 2023), wurden Wahrnehmungen zu den verschiedenen Verwendungsmöglichkeiten von KI in der politischen Kommunikation und ihren potenziellen Risiken bisher nicht untersucht. Entsprechend fragen wir: Welche Risiken nimmt die Bevölkerung in Bezug auf KI in der politischen Kommunikation wahr? (FF1)
Um die Wahrnehmung gegenüber den Einsatzmöglichkeiten von KI in der politischen Kommunikation zu verstehen, ist es wichtig, die Gründe für diese Einstellungen zu kennen. Die Forschung zu KI-generierten Inhalten zeigt, dass sowohl Zustimmung zu KI-produzierten Inhalten als auch Merkmale wie Alter, Bildungsstand und technologische Offenheit die Wahrnehmung von KI beeinflussen können (Strippel et al. 2023; Wischnewski und Krämer 2022). So neigen Personen mit geringerem Bildungsniveau dazu, höhere Risiken im Zusammenhang mit KI wahrzunehmen. Auch Geschlecht und Alter beeinflussen diese Einstellungen. Dabei schätzen Frauen KI als gefährlicher ein (Neu 2024; Schlude et al. 2023). Häufige KI-Nutzer*innen und Menschen mit einem höheren Wissensstand über KI zeigen wiederum eine optimistischere Haltung (Kaya et al. 2024). Kritische Einstellungen gegenüber KI korrelieren mit allgemeiner Technikskepsis und Misstrauen gegenüber staatlichen Institutionen (Sindermann et al. 2022). Auch kann die kritische Auseinandersetzung mit KI-Inhalten durch eine hohe politische Selbstwirksamkeit – das Vertrauen in die eigene Fähigkeit, politische Prozesse zu verstehen und aktiv mitgestalten zu können – gefördert werden (Lu und Yuan 2024). Hinsichtlich des Einsatzes von generativer KI im Kontext politischer Kampagnen stellt sich somit die Frage: Welche persönlichen Merkmale wie Soziodemografie und Voreinstellungen beeinflussen die Wahrnehmung des Einsatzes von KI in der politischen Kommunikation? (FF2)
Einstellungen zur Regulierung generativer künstlicher Intelligenz
Die Regulierung von KI durch rechtliche Maßnahmen wird als wirksamer Ansatz zur Begrenzung potenzieller Risiken angesehen. Auf staatlicher Ebene können zwei Ansätze unterschieden werden: ein eher schützender Ansatz, der beispielsweise Transparenzkennzeichnungen für KI-generierte Inhalte und verbindliche Richtlinien für KI-Tool-Entwickler umfasst, und ein unterstützender Ansatz, bei dem der Staat KI-Entwickler*innen fördert, sofern diese die rechtlichen Anforderungen einhalten (Smuha 2021). Regulator*innen wie die EU haben sich bisher vor allem auf die schützende Rolle konzentriert (Kieslich et al. 2020) und beispielsweise mit dem EU AI Act einen KI-Rechtsrahmen zur Entwicklung, Bereitstellung und Nutzung von KI entwickelt, der von strengen Auflagen zu Transparenz und Datenschutz bis hin zu Verboten reicht (Europäisches Parlament 2024).
Studien deuten darauf hin, dass die Unterstützung für regulatorische Maßnahmen für KI generell hoch ist. Bühler (2023) fand heraus, dass mehr als drei Viertel der Deutschen KI-Regulierungen befürworten, während Schlude et al. (2023) feststellten, dass etwa die Hälfte der Internetnutzer*innen stärkere KI-Regulierungen bevorzugt. Es gibt verschiedene Regulierungsansätze: Im Allgemeinen wird bei der KI-Regulierung zwischen weichen und harten Maßnahmen unterschieden (Comunale und Manera 2024). Weiche Maßnahmen umfassen vor allem die Pflicht zur Kennzeichnung von KI-generierten Inhalten, Sicherheitsprüfungen für KI-Systeme und unabhängige Zertifizierungssysteme. Diese Maßnahmen werden von der Bevölkerung beispielsweise im Journalismus weitestgehend akzeptiert (Kieslich et al. 2022). Harte Regulierungsmaßnahmen beziehen sich auf den freiwilligen Verzicht von Unternehmen auf die Entwicklung von KI-Systemen oder auf komplette Verbote dieser Systeme (Comunale und Manera 2024). Diese harten Maßnahmen unterstützt die Bevölkerung weniger, obwohl sie sichere Rechtsrahmen für die KI-Regulierung als wichtig ansieht (Schlude et al. 2023).
Für den Bereich der politischen Kommunikation fehlen bislang Erkenntnisse zur Einstellung der Bevölkerung gegenüber verschiedenen Regulierungsansätzen im deutschsprachigen Raum. Da die politische Kommunikation im Rahmen der Kommunikation politischer Eliten mit der Bevölkerung jedoch wichtige Funktionen umfasst, etwa die Information der Öffentlichkeit über Parteien, Politik und Entscheidungen, gewinnen Regulierungsmaßnahmen und damit auch deren Akzeptanz an Bedeutung. Entsprechend möchten wir folgende Frage beantworten: Wie nimmt die Bevölkerung verschiedene Arten der Regulierung von KI in der politischen Kommunikation wahr? (FF3)
Die Forschung zeigt, dass sich die Akzeptanz von Regulierungsmaßnahmen zwischen Menschen stark unterscheidet. So gelten Frauen, jüngere Personen und liberalere Menschen als offener für Regulierung (Park et al. 2023). Darüber hinaus neigen Menschen mit einer hohen Offenheit für neue Erfahrungen eher dazu, strikte Regulierungsmaßnahmen abzulehnen. Dagegen hängt eine ängstliche Haltung gegenüber KI mit stärkeren Regulierungswünschen zusammen (Bartneck et al. 2024). Da sich diese Studien nur auf die allgemeine Regulierung beziehen, wird zudem gefragt, welche persönlichen Eigenschaften die Einstellung zur Regulierung von KI in der politischen Kommunikation beeinflussen (FF4).
Befunde der Studie
Wir beantworten die Forschungsfragen mithilfe einer repräsentativen Befragung der deutschen Bevölkerung.2 Die Teilnehmer*innen wurden von dem Panelanbieter Cint rekrutiert und erhielten für ihre Teilnahme eine finanzielle Incentivierung. Bei der Rekrutierung wurde eine demografisch repräsentative Stichprobe der deutschen (Online-)Bevölkerung im Alter von 18 bis 69 Jahren nach Alter und Geschlecht (kreuzklassifiziert) anvisiert. Insgesamt begannen N = 3.201 Personen zwischen dem 7. und 25. Mai 2024 mit der Beantwortung des Fragebogens. Nach der Bereinigung der Stichprobe um Abbrecher*innen und anhand von Qualitätskontrollen wie Straightlining und Erinnerungsfragen verblieben 1.991 Teilnehmer*innen. Die Zielquoten nach Alter und Geschlecht wurden durch Quotierung weitgehend erreicht. Verbliebene Abweichungen korrigierten wir per Gewichtung. Im gewichteten Datensatz waren 51 % weiblich, 48 % männlich, 1 % divers und das Durchschnittsalter betrug 44 Jahre. Erhoben wurden zwei zentrale Konstrukte auf 5-Punkt-Skalen: Risikowahrnehmung politischer KI-Nutzung (5 Items, α = .83, Fragetext und Items siehe Abb. 1) und Einstellungen zu Regulierung (Kennzeichnungen α = .76; Verbote α = .81, Fragetext und Items siehe Abb. 3). Als Prädiktoren erfassten wir neben Soziodemografie und politischem Interesse (ein Item, 1 = „überhaupt nicht“ bis 5 = „sehr stark“) auch politische Selbstwirksamkeit (Political Efficacy Kurzskala; Beierlein et al. 2014), differenziert nach interner politischer Wirksamkeit (Vertrauen in die eigene Kompetenz und Einflussfähigkeit in politische Angelegenheiten; α = .75) und externer politischer Wirksamkeit (Vertrauen in die Responsivität des politischen Systems gegenüber Bürger*innen; α = .80), Technologie-Neugier (4 Items, α = .86, zum Beispiel: „Hinsichtlich technischer Neuentwicklungen bin ich sehr neugierig.“) sowie KI-Wissen (6 Wissensfragen; 71 % korrekt, zum Beispiel: „KI-Systeme brauchen Informationen, um zu lernen und sich anzupassen.“).
Die Ergebnisse zur Frage nach der Risikowahrnehmung durch den Einsatz von KI in der politischen Kommunikation (FF1) deuten auf eine weit verbreitete Wahrnehmung von Risiken in der deutschen Bevölkerung hin. Mehr als die Hälfte der Befragten stimmt mindestens eher zu, dass der Einsatz von KI durch politische Akteur*innen die Glaubwürdigkeit politischer Botschaften verringern (62 %) und die Wähler*innen täuschen würde (56 %) (Abb. 1). Weitere Zustimmung erhält die Frage nach der Risikowahrnehmung von Imageschäden von Politiker*innen und politischen Parteien (48 %), der Schwächung der Demokratie (42 %) und der Verstärkung von Vorurteilen gegenüber Minderheiten durch Politiker*innen und Parteien (37 %).
Abbildung 1: Wahrgenommene Risiken des Einsatzes von KI in der politischen Kommunikation; Anmerkung: N = 1.991; Fragetext: „Wenn Parteien und Politiker in Zukunft immer öfter KI für das Erstellen von politischer Werbung verwenden, …“
Um zu verstehen, welche Faktoren die Wahrnehmung von Risiken beim Einsatz von KI in der politischen Kommunikation beeinflussen (FF2), haben wir individuelle Merkmale der Befragten und den Zusammenhang mit ihrer Risikowahrnehmung mittels einer Regressionsanalyse untersucht. Menschen, die an die Wirksamkeit ihres politischen Handelns glauben (externe politische Selbstwirksamkeit) oder sich für technologische Entwicklungen interessieren, schätzen die Risiken tendenziell geringer ein. Wer hingegen ein starkes politisches Interesse aufweist, blickt kritischer auf den KI-Einsatz. Auch ältere Befragte neigen eher dazu, Gefahren für die politische Kommunikation zu sehen, wobei der Effekt sehr gering ist. Überraschend ist, dass Frauen die Risiken insgesamt niedriger bewerten als Männer. Bildung und Wissen über KI spielen in diesem Zusammenhang hingegen keine signifikante Rolle.
Abbildung 2: OLS-Regression zum Zusammenhang zwischen Persönlichkeitsmerkmalen und wahrgenommenen Risiken; Anmerkung: N = 1.963; Koeffizienten links der Nulllinie verweisen auf einen negativen, Koeffizienten rechts der Nulllinie auf einen positiven Zusammenhang; signifikante Effekte sind ausgefüllt. Die vollständigen Regressionstabellen sind im Online-Anhang verfügbar.
Betrachtet man die Einstellung zur Regulierung von KI in der politischen Kommunikation (FF3), so zeigen die Ergebnisse, dass unterschiedliche Regulierungsvorschläge auf breite Zustimmung stoßen. Die Akzeptanz variiert jedoch deutlich je nach Art der Maßnahme. Besonders hoch ist die Unterstützung für weichere Regulierungen wie Kennzeichnungen von KI-generierten Inhalten: Eine Kennzeichnung von KI-generierten Bildern, die realistische Personen oder Ereignisse darstellen, befürwortet die Mehrheit der Befragten (84 %). Auch der Kennzeichnung aller KI-generierten politischen Inhalte (83 %) sowie solcher, die offensichtlich künstlich oder unrealistisch wirken (79 %), stimmen die Befragten zu.
Obwohl eine Mehrheit generative KI in der politischen Kommunikation als potenziell gefährlich einstuft, erhalten restriktivere Maßnahmen weniger Zustimmung. Ein freiwilliger Verzicht von Parteien auf den Einsatz von KI unterstützt knapp die Hälfte (48 %), ein vollständiges Verbot hingegen nur etwa ein Drittel (38 %), während es von einem ähnlich großen Anteil abgelehnt wird (32 %).
Abbildung 3: Regulierung des Einsatzes von KI in der politischen Kommunikation; Anmerkung: N = 1.991; Frage: „Wie nützlich finden Sie die folgenden Vorschläge?“
Um besser zu verstehen, welche Faktoren die Unterstützung verschiedener Regulierungsmaßnahmen beeinflussen (FF4), wurden zwei Regressionsmodelle berechnet: eines für weichere Maßnahmen wie Kennzeichnungen, ein weiteres für restriktivere Eingriffe wie Verbote. In beiden Fällen zeigt sich, dass die wahrgenommenen Risiken durch KI der stärkste Prädiktor ist. Wer den KI-Einsatz in der politischen Kommunikation als bedrohlich empfindet, spricht sich deutlich häufiger für Regulierungsmaßnahmen – insbesondere für Verbote – aus.
Darüber hinaus spielt das politische Selbstverständnis eine wichtige Rolle. Eine hohe interne Selbstwirksamkeit begünstigt die Zustimmung zu Kennzeichnungspflichten, hat aber keinen Einfluss auf die Zustimmung zu Verboten. Externe politische Selbstwirksamkeit – also das Vertrauen darauf, dass politisches Handeln der Bürger*innen politische Prozesse beeinfluss kann – geht hingegen mit einer geringeren Zustimmung zu beiden Regulierungsarten einher. Auch soziodemografische und psychologische Merkmale sind relevant. Ältere Menschen sowie weibliche Befragte unterstützen Regulierungen insgesamt eher. Bildungsgrad, Wissen über KI und technologische Neugier wirken differenzierend: Sie begünstigen die Zustimmung zu Kennzeichnungspflichten, während sie Verbote eher ablehnen.
Abbildung 4: Regressionsmodell zur Beziehung zwischen Persönlichkeitsmerkmalen und vorgeschlagenen KI-Regulierung; Anmerkung: N = 1.963 Befragte; Koeffizienten links der Nulllinie verweisen auf einen negativen, Koeffizienten rechts der Nulllinie auf einen positiven Zusammenhang; signifikante Effekte sind ausgefüllt. Die vollständigen Regressionstabellen sind im Online-Anhang verfügbar.
Diskussion der Befunde
Unsere Ergebnisse offenbaren eine ausgeprägte Wahrnehmung von Manipulations- und Vertrauensrisiken bei gleichzeitiger Präferenz für eher „weiche“ Regulierungsinstrumente statt Verboten des Einsatzes von KI in der politischen Kommunikation. Dieses Muster deckt sich mit internationalen Befunden, nach denen Bürger*innen technologischen Innovation nicht grundsätzlich ablehnend gegenüberstehen, wohl aber verbindliche Informationsrechte einfordern (Comunale und Manera 2024).
Personen mit starkem Interesse an technologischen Entwicklungen (Technologie-Neugier) nehmen die Risiken von KI deutlich geringer wahr. Diese verminderte Risikowahrnehmung lässt sich, wie auch andere Studien zeigen (Kaya et al. 2024; Park und Woo 2022), darauf zurückführen, dass Technologie-Neugier ähnlich wie technologischer Optimismus dazu führt, potenzielle Gefahren auszublenden und stärker auf Chancen zu konzentrieren. Gleichzeitig verbinden insbesondere ältere Befragte den Einsatz von KI häufiger mit Risiken. Auch wenn dieser Alterseffekt in unseren Daten nur sehr schwach ausgeprägt ist, entspricht er den Mustern, die Strippel et al. (2023) in anderen Studien zur Wahrnehmung von KI finden. Obwohl Frauen oftmals eine höhere Risikoaversität zugeschrieben wird (Nelson 2015), zeigen Frauen in unserer Analyse ein signifikant geringeres Maß an Gefahrenwahrnehmung als Männer. Auch andere Befunde zu KI-bezogenen Herausforderungen zeigen, dass Männer ein breiteres Spektrum an Risiken als bedeutsamer einschätzen als Frauen, besonders im Bezug zu geopolitischen und systemischen Risiken (Zhang und Dafoe 2019). Dies deutet darauf hin, dass KI eher als politisch relevante Technologie wahrgenommen wird, was die höhere Risikowahrnehmung der männlichen Befragten erklären könnte.
Der Einfluss politischer Selbstwirksamkeit auf die Risikowahrnehmung wie auch auf die Regulierungspräferenzen fällt ebenfalls ambivalent aus. Eine hohe interne Selbstwirksamkeit begünstigt die Zustimmung zu Kennzeichnungspflichten, hat aber keinen Einfluss auf die Unterstützung harter Regulierungsmaßnahmen. Personen, die sich politisch kompetent und handlungsfähig fühlen, befürworten Transparenzmaßnahmen möglicherweise, weil sie diese als Grundlage informierter Eigenverantwortung verstehen. Personen mit ausgeprägter externer Selbstwirksamkeit vertrauen stärker auf bestehende Kontrollmechanismen und wünschen insgesamt weniger Regulierung. Möglicherweise vertrauen sie darauf, dass politische Institutionen den Einsatz von KI kontrollieren können. Menschen, die mehr Vertrauen in die Funktionstüchtigkeit des demokratischen Systems haben, verbinden weniger Risiken mit dem Einsatz von KI. Bürger*innen sehen KI womöglich als Instrument zur Unterstützung des demokratischen Prozesses, in dem jede Person individuell Verantwortung übernehmen kann und soll und Regulierung als bevormundend und restriktiv wahrgenommen wird (Zeitlin et al. 2023).
Über alle Analysen hinweg bleibt jedoch die wahrgenommene Gefahr der stärkste Prädiktor jeder Regulierungspräferenz. Da viele Menschen noch nicht bewusst mit KI-generierten Inhalten in Kontakt gekommen sind, könnten Medien eine Schlüsselrolle bei der Einschätzung spielen: Eine eher kritische und risikozentrierte Medienberichterstattung über generative KI, wie Berichte über Deepfake-Skandale oder Datenschutzverletzungen, könnte die Risikowahrnehmung verstärken. Wo belastbare Informationen fehlen, füllen spekulative oder alarmistische Narrative diese Lücke und verstärken den Wunsch nach strikteren Regeln. Das bedeutet keineswegs, dass jegliche Kritik ungerechtfertigt ist; vielmehr sollten Informationsangebote differenziert über die Risiken und Grenzen, aber auch über die Chancen des KI-Einsatzes aufklären.
Die Befunde lassen sich in drei Handlungsfelder übersetzen. Erstens müssen Parteien und Kampagnenagenturen damit rechnen, dass KI-gestützte Inhalte ohne KI-Kennzeichnung ihre Glaubwürdigkeit gefährden. Dabei erscheinen transparente Kennzeichnungen als Mindeststandard, um möglichen Glaubwürdigkeitsverlusten gegenüber den Absender*innen aber auch gegenüber politischer Kommunikation politischer Akteur*innen entgegenzuwirken. Zweitens implizieren die Ergebnisse, dass regulierende Instanzen dazu angehalten sind, differenzierte und transparente Maßnahmen zu schaffen, anstatt pauschale Verbote zu implementieren. Drittens können zivilgesellschaftliche Akteur*innen wie Faktencheck-Initiativen oder Medienbildungsprojekte das politisch-kommunikative Selbstwirksamkeitsempfinden stärken und dadurch Kennzeichnungsmodelle anschlussfähig machen. Wer sich kompetent fühlt, fordert Aufklärung statt Restriktion und wird möglicherweise auch partizipative Label-Lösungen befürworten, wie sie von den Plattformen zur Entdeckung und Bekämpfung von Desinformation eingesetzt werden. Wenngleich partizipatives Fact-Checking beispielsweise durch Community Notes auf X umstritten ist (Schmidt et al. 2025), so bietet die Einbeziehung mündiger Nutzer*innen zur Detektion und Markierung KI-generierter Inhalte durchaus eine bedenkenswerte Perspektive, die automatisierte Verfahren ergänzen könnten.
Die Studie weist Grenzen auf, die bei der Interpretation der Befunde zu berücksichtigen sind und zugleich Anknüpfungspunkte für zukünftige Forschung liefern. Erstens basiert sie auf einer Querschnittbefragung in einer frühen Phase generativer KI-Integration (Mai 2024). Um mögliche Veränderungen in der Einschätzung abbilden zu können, sind Längsschnittdesigns nötig (z. B. MeMo:KI 2022). Regulatorische Prozesse sollten entsprechend von wiederholten Befragungen flankiert werden, um mögliche Veränderungen in den Einstellungen erkennen zu können. Zweitens beruhen die Angaben zu den Bewertungen der Regulierung auf Selbstauskünften. Inwieweit die Akzeptanz von Regulierung mit deren Effektivität übereinstimmt, bleibt offen. So müssen Kennzeichnungen auch wahrgenommen werden, um Wirkung zu entfalten (Jost et al. 2023).
In der Summe deutet alles darauf hin, dass eine demokratische Öffentlichkeit KI-Innovation in der Politik akzeptiert, solange sie auf Basis von transparenten und klaren Regeln eingesetzt wird. Ein generelles Verbot scheint dagegen vor dem Hintergrund fehlender Akzeptanz fraglich. Stattdessen könnte eine Kombination aus Kennzeichnungspflicht, Audits und flankierender Medienbildung eher die für eine gelingende Implementation notwendige Unterstützung seitens der Bevölkerung liefern. Ein durchdachter Umgang mit diesen Herausforderungen wird entscheidend sein, um die Vorteile der KI zu nutzen, ohne das Vertrauen der Öffentlichkeit in die demokratischen Institutionen zu gefährden, die sie stärken soll.
1 Unter dem Begriff „politische Kommunikation“ wird in der vorliegenden Studie die Kommunikation politischer Akteure (z. B. Parteien, Politiker*innen, politische Institutionen) verstanden, die sich an die Öffentlichkeit richtet und darauf abzielt, Bürger*innen in politischen Kampagnen (bspw. während des Wahlkampfs) mit dem Ziel der Überzeugung anzusprechen.
2 Der komplette Fragebogen, alle Daten und der Analysecode sind auf OSF verfügbar: osf.io/w8pnk/.
Hannah Fecher ist wissenschaftliche Mitarbeiterin am Institut für Publizistik der Johannes Gutenberg-Universität Mainz. In ihrer Forschung beschäftigt sie sich mit der Nutzung und Wirkung digitaler Medien in der politischen Kommunikation.
Dr. Pablo Jost ist wissenschaftlicher Mitarbeiter am Institut für Publizistik der Johannes Gutenberg-Universität Mainz. Dort forscht und lehrt er zur Kommunikation politischer und gesellschaftlicher Akteur*innen im Kontext des digitalen Medienwandels und zu den Auswirkungen auf die demokratische Öffentlichkeit.
Tobias Scherer ist wissenschaftlicher Mitarbeiter am Lehrbereich Politische Kommunikation des Instituts für Publizistik an der Johannes Gutenberg-Universität Mainz sowie im DFG-geförderten Projekt „Critical Online Reasoning in Higher Education“ (CORE). Schwerpunktmäßig forscht er im Gebiet der Medien- und Informationskompetenz, Desinformation und Künstlicher Intelligenz.
Dr. Simon Kruschinski ist Senior Researcher für Plattformdaten und Computational Social Science bei GESIS und Leiter eines DFG-Forschungsprojektes zur Wirkung von digitaler politischer Werbung. In seiner Forschung geht er der Frage nach, wie Technologien, Daten und Analytik in politischen Kampagnen genutzt werden, um Wähler zu mobilisieren oder sie persuasiv zu beeinflussen.
Literaturverzeichnis
Bartneck, Christoph/Ygeeswaran, Kumar/Sibley, Chris G. (2024). Personality and demographic correlates of support for regulating artificial intelligence. AI and Ethics, 4 (2), 419–426. https://doi.org/10.1007/s43681-023-00279-4.
Beierlein, Constanze/Kemper, Christoph J./Kovaleva, Anastassiya/Rammstedt, Beatrice (2014). Political Efficacy Kurzskala (PEKS). Zusammenstellung sozialwissenschaftlicher Items und Skalen (ZIS). Online verfügbar unter doi.org/10.6102/ZIS34 (abgerufen am 06.11.2025).
Behre, Julia/Hölig, Sascha/Möller, Judith (2024). Reuters Institute Digital News Report 2024: Ergebnisse für Deutschland. Arbeitspapiere des Hans-Bredow-Instituts. Online verfügbar unter doi.org/10.21241/SSOAR.94461 (abgerufen 05.11.2025).
Bird, Charlotte/Ungless, Eddie/Kasirzadeh, Atoosa (2023). Typology of Risks of Generative Text-to-Image Models. Proceedings of the 2023 AAAI/ACM Conference on AI, Ethics, and Society, 396–410. https://doi.org/10.1145/3600211.3604722.
Bühler, Joachim (2023). ChatGPT & Co: Sicherheit von generativer Künstlicher Intelligenz [Pressekonferenz]. TÜV Verband. Online verfügbar unter www.tuev-verband.de/fileadmin/user_upload/Content_local/Studien_local/TUEV-Verband_PK_Praesentation_ChatGPT_11_05_2023_final.pdf (abgerufen am 05.11.2025).
Comunale, Mariarosaria/Manera, Andrea (2024). The economic impacts and the regulation of AI: A review of the academic literature and policy actions. (IMF Working Paper 65). Online verfügbar unter doi.org/10.5089/9798400268588.001 (abgerufen am 05.11.2025).
Europäisches Parlament. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act)Text with EEA relevance. Online verfügbar unter data.europa.eu/eli/reg/2024/1689/oj/eng (abgerufen 06.11.2025).
Ferrara, Emilio (2023). Fairness and Bias in Artificial Intelligence: A Brief Survey of Sources, Impacts, and Mitigation Strategies. Sci, 6 (1), 3. doi.org/10.3390/sci6010003.
Jost, Pablo/Kruschinski, Simo/Sülflow, Michael/Haßler, Jörg/Maurer, Marcus (2023). Invisible transparency: How different types of ad disclaimers on Facebook affect whether and how digital political advertising is perceived. Policy & Internet 15 (2), 204–222. https://doi.org/10.1002/poi3.333.
Jungherr, Andreas (2023). Artificial Intelligence and Democracy: A Conceptual Framework. Social Media + Society 9 (3), Article 3. https://doi.org/10.1177/20563051231186353.
Jungherr, Andreas/Rauchfleisch, Adrian/Wuttke, Alexander (2024). Deceptive uses of Artificial Intelligence in elections strengthen support for AI ban (No. arXiv:2408.12613). arXiv. https://doi.org/10.48550/arXiv.2408.12613.
Kaya, Feridun/Aydin, Fatih/Schepman, Astrid/Rodway, Paul/Yetişensoy, Okan/Demir Kaya, Meva (2024). The Roles of Personality Traits, AI Anxiety, and Demographic Factors in Attitudes toward Artificial Intelligence. International Journal of Human–Computer Interaction, 40 (2), 497–514. https://doi.org/10.1080/10447318.2022.2151730.
Kieslich, Kimon/Dosenovic, Pero/Starke, Christopher/Lünich, Marco/Marcinkowski, Frank (2022). Meinungsmonitor Künstliche Intelligenz. Künstliche Intelligenz im Journalismus. Wie nimmt die Bevölkerung den Einfluss von Künstlicher Intelligenz auf die journalistische Arbeit wahr? (No. 4). Center for Advanced Internet Studies, CAIS. Online verfügbar unter www.cais-research.de/wp-content/uploads/Factsheet-4-Journalismus.pdf (abgerufen am 05.11.2025).
Kieslich, Kimon/Starke, Christopher/Došenović, Pero/Keller, Birte/Marcinkowski, Frank (2020). Künstliche Intelligenz und Diskriminierung (No. 2; Meinungsmonitor Künstliche Intelligenz). Center for Advanced Internet Studies. Online verfügbar unter www.cais-research.de/wp-content/uploads/Factsheet-2-Diskriminierung.pdf (abgerufen am 05.11.2025).
Lu, Hang/Yuan, Shupei (2024). “I know it’s a deepfake”: The role of AI disclaimers and comprehension in the processing of deepfake parodies. Journal of Communication, jqae022. https://doi.org/10.1093/joc/jqae022.
MeMo:KI (2022). Dashboard des Meinungsmonitor Künstliche Intelligenz. CAIS. Online verfügbar unter www.cais-research.de/forschung/memoki/memoki-bevoelkerungsbefragung/ (abgerufen am 05.11.2025).
Morosoli, Sophie/Resendez, Valeria/Naudts, Laurens/Helberger, Natali/De Vreese, Claes (2025). “I Resist”. A Study of Individual Attitudes Towards Generative AI in Journalism and Acts of Resistance, Risk Perceptions, Trust and Credibility. Digital Journalism, 1–20. https://doi.org/10.1080/21670811.2024.2435579.
Nelson, Julie A (2015). Are Women Really More Risk-Averse Than Men? A Re-Analysis of the Literature Using Expanded Methods. Journal of Economic Surveys, 29 (3), 566–585. https://doi.org/10.1111/joes.12069.
Neu, Viola (2024). Die digitale Spaltung der Gesellschaft: Ergebnisse aus einer repräsentativen Umfrage zu Künstlicher Intelligenz (Monitor Wahl- und Sozialforschung). KAS. Online verfügbar unter www.kas.de/documents/252038/29391852/Die+digitale+Spaltung+der+Gesellschaft.pdf/8570be55-a7ef-849e-3c76-310e10fb2c44 (abgerufen am 05.11.2025).
Oh, Changhoon/Lee, Taeyoung/Kim, Yoojung/Park, SoHyun/Kwon, Saebom/Suh, Bongwon (2017). Us vs. Them: Understanding Artificial Intelligence Technophobia over the Google DeepMind Challenge Match. Proceedings of the 2017 CHI Conference on Human Factors in Computing Systems, 2523–2534. doi.org/10.1145/3025453.3025539.Park, Ahran/Kim, Minjeong/Kim, Ee-Sun (2023). SEM analysis of agreement with regulating online hate speech: Influences of victimization, social harm assessment, and regulatory effectiveness assessment. Frontiers in Psychology, 14, 1276568. doi.org/10.3389/fpsyg.2023.1276568.
Park, Jiyoung,/Woo, Sang Eun (2022). Who Likes Artificial Intelligence? Personality Predictors of Attitudes toward Artificial Intelligence. The Journal of Psychology, 156 (1), 68–94. https://doi.org/10.1080/00223980.2021.2012109.
Sanseviero, Omar/Cuenca, Pedro/Passos, Apolinario/Whitaker, Jonathan (2025). Hands-On Generative AI with Transformers and Diffusion Models (1. Aufl.). O’Reilly Media.
Schlude, Antonia/Schwind, Mara/Mendel, Ulrike/Stürz, Roland A./Harles, Danilo/Fischer, Micha (2023). Verbreitung und Akzeptanz generativer KI in Deutschland und an deutschen Arbeitsplätzen. Online verfügbar unter www.bidt.digital/publikation/verbreitung-und-akzeptanz-generativer-ki-in-deutschland-und-an-deutschen-arbeitsplaetzen/ (abgerufen am 05.11.2025).
Schmidt, Michael/Martini, Franziska/Fielitz, Maik/Donner, Christian (2025). Der Schwarm als Faktenchecker. Community Notes zwischen kollektiver Intelligenz und politischem Lagerkampf. Machine Against the Rage, 8. https://www.doi.org/10.58668/matr/08.2.
Simon, Felix M./Altay, Sacha/ Mercier, Hugo (2023). Misinformation reloaded? Fears about the impact of generative AI on misinformation are overblown. Harvard Kennedy School Misinformation Review. https://doi.org/10.37016/mr-2020-127.
Sindermann, Cornelia/Yang, Haibo/Elhai, Jon D/Yang, Shixin/Quan, Ling/Li, Mei/ Montag, Christian (2022). Acceptance and Fear of Artificial Intelligence: Associations with personality in a German and a Chinese sample. Discover Psychology, 2 (1), 8. https://doi.org/10.1007/s44202-022-00020-y.
Smuha, Nathalie A. (2021). From a ‘race to AI’ to a ‘race to AI regulation’: Regulatory competition for artificial intelligence. Law, Innovation and Technology, 13 (1), 57–84. https://doi.org/10.1080/17579961.2021.1898300.
Strippel, Christian/Jokerst, Sofie/Heger, Katharina/ Emmer, Martin (2023). Weizenbaum Report 2024: Politische Partizipation in Deutschland. Weizenbaum Institute. Online verfügbar unter doi.org/10.34669/WI.WR/5 (abgerufen am 05.11.2025).
Vaccari, Cristian/Chadwick, Andrew (2020). Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News. Social Media + Society, 6 (1), 2056305120903408. https://doi.org/10.1177/2056305120903408.
Wischnewski, Magdalena/Krämer, Nicole (2022). Can AI Reduce Motivated Reasoning in News Consumption? Investigating the Role of Attitudes Towards AI and Prior-Opinion in Shaping Trust Perceptions of News. In: Stefan Schlobach/María Pérez-Ortiz/Myrthe Tielman (Hg.). Frontiers in Artificial Intelligence and Applications. IOS Press. https://doi.org/10.3233/FAIA220198.
Zeitlin, Jonathan/Van Der Duin, David/Kuhn, Theresa/Weimer, Maria/Jensen, Martin Dybdahl (2023). Governance reforms and public acceptance of regulatory decisions: Cross‐national evidence from linked survey experiments on pesticides authorization in the European Union. Regulation & Governance, 17 (4), 980–999. https://doi.org/10.1111/rego.12483.
Zhang, Baobao/Dafoe, Allan (2019). U.S. Public Opinion on the Governance of Artificial Intelligence (No. arXiv:1912.12835). arXiv. doi.org/10.48550/arXiv.1912.12835.

