Wahlen 2024: Wie Desinformation und Deepfakes die Demokratie gefährden » Lamarr-Blog (2024)

Wahlen 2024: Wie Desinformation und Deepfakes die Demokratie gefährden » Lamarr-Blog (1)

Weltweit stehen 2024 mehr als 70 Wahlen an. In Deutschland sind dies – neben der am Wochenende stattfindenden Europa-Wahl – Kommunalwahlen und Landtagswahlen in drei Bundesländern. In den USA wird im November der Präsident gewählt.

So ist es nicht verwunderlich, dass Desinformation und Deepfakes auch in diesem Wahljahr gezielt verbreitet und gestreut werden, um Stimmung gegen politische Gegner*innen zu machen, die Wähler*innen zu täuschen und so gezielt Einfluss auf die Wahlen zu nehmen.

Laut einer Umfrage der Bertelsmann Stiftung sind 81 Prozent der Befragten der Meinung, dass es sich bei Desinformation um ein reales Problem handelt, welches eine Gefahr für die Demokratie und den gesellschaftlichen Zusammenhalt darstellt. Dass der Ausgang von Wahlen durch Desinformation beeinflusst werden könnte, besorgt zwei von drei Befragten (67 Prozent).

Doch was sind Desinformationen und Deepfakes eigentlich?

Desinformation sind falsche und irreführende Informationen, die bewusst verbreitet werden, um zu beeinflussen oder zu täuschen. Oft wird der Begriff „Fake News“ synonym verwendet. Dagegen lässt sich der Begriff „Fehlinformationen“ abgrenzen, der sich durch die Intention unterscheidet, da hier keine Täuschungsabsicht vorliegt.

Deepfakes sind täuschend echt wirkende Medieninhalte, die durch Künstliche Intelligenz (KI) manipuliert wurden. Durch sie wird beispielsweise bewusst suggeriert, dass Personen etwas gesagt oder getan hätten, was jedoch so nie passiert ist.

Wie erkenne ich Desinformation und wie sollte ich mich verhalten?

Grundsätzlich ist es wichtig, Inhalte im Netz generell kritisch zu hinterfragen und gerade in politisch aufgeheizten Zeiten wie vor einer anstehenden Wahl nicht direkt zu reagieren. Wichtig ist, solche Inhalte nicht weiterzuleiten.

Doch schauen wir uns zunächst an, wie Desinformationen erkannt werden können. Diese Nachrichten weisen oft ein ähnliches Muster auf: Sie sind reißerisch und besonders emotional formuliert. Fragliche Nachrichten sollten immer mit weiteren Quellen abgeglichen werden.

Verdächtige Schlagwörter können zusammen mit dem Wort „Faktencheck“ in einer Suchmaschine überprüft werden. In solchen Faktenchecks werden Meldungen beispielsweise durch die öffentlich-rechtlichen Medien oder andere Organisationen überprüft und richtiggestellt.

Bei Meldungen, die verdächtig erscheinen und angeblich in seriösen Medien publiziert wurden, hilft es, die Quelle zu checken. Passt die Nachricht zum sonstigen Stil des Mediums? Findet sich der Inhalt auf der Webseite? Außerdem sollte das Impressum sowie das Zertifikat der Webseite überprüft werden, auch eine falsche URL kann ein Hinweis auf eine Falschmeldung sein.

Bei der Entscheidung, ob Fotos manipuliert sind oder nicht, kann z.B. die Bilder-Rückwärtssuche helfen: Die Datei oder die URL wird hierzu bei einer Suchmaschine hochgeladen. So lässt sich herausfinden, ob ein Bild aktuell ist oder bereits aus einer früheren Veröffentlichung stammt. KI-Bildgeneratoren sind darauf trainiert, Neues zu erschaffen. Daher sind KI-generierte Bilder einzigartig. Findet die Rückwärtssuche also nur genau ein Bild, sollte man aufmerksam werden. Generell sollten Medieninhalte kritisch hinterfragt werden und nicht einfach als Realität angenommen werden.

KI kann die Erstellung und Verbreitung von Desinformation vereinfachen

Desinformation gab es bereits vor dem Durchbruch generativer KI. Doch mithilfe von KI können Inhalte nun viel schneller erstellt und verbreitet werden. Dies ist besonders in Hinblick auf politische Wahlen ein echtes Problem, denn wie unter anderem der globale Risikoreport des Weltwirtschaftsforums zeigt, können Wahlen mithilfe von KI beeinflusst werden. Darüber hinaus könnten Wahlkampfvideos, die mittels KI generiert sind, nicht nur Wahlen beeinflussen, sondern auch Proteste anheizen oder in extremeren Szenarien zu Gewalt und Radikalisierung führen. Selbst wenn eine Plattform, auf der der Inhalt geteilt wird, darauf hinweist, dass es sich um gefälschte Inhalte handelt, konstatieren die Autor*innen des Reports.

Doch KI-generierte Desinformationen sind nicht einfach zu identifizieren und sie können selbst bei erfolgreicher Erkennung negative Folgen haben. Dichtet man beispielsweise Politiker*innen kurz vor einer Wahl fragwürdige oder polarisierende Aussagen in einem KI-generierten Video oder Audio an, kann dies negative Folgen für die Partei haben und zu Stimmenverlusten führen. Selbst wenn diese Inhalte später widerlegt werden, ist allein durch die Veröffentlichung bereits ein Schaden entstanden und beeinflusst so Menschen bei ihrer Meinungsbildung und Wahlentscheidung.

Chatsbots versagen bei politischen Inhalten

Viele Menschen verwenden Chatbots. Doch wie korrekt sind deren Antworten in Bezug auf politische Inhalte? Correctiv hat kürzlich mehrere Chatbots in Bezug auf Politikfragen – auch in Bezug auf die Europawahl – getestet. Das Ergebnis ist ernüchternd: Die drei bekanntesten Chatbots ChatGPT, Microsoft Copilot und Google Gemini beantworten die Fragen in vielen Fällen falsch oder gar nicht. Die Redaktion hat den Chatbots zwölf Fragen jeweils auf Deutsch, Englisch und Russisch gestellt. Inhalte waren unter anderem internationale Politik, die kommende Europawahl, aber auch Covid-19 oder der Klimawandel.

Der Google-Chatbot konnte selbst einfache Fragen, wie die nach dem Wahltermin, nicht beantworten. Der Microsoft-Chatbot kannte die Spitzenkandidat*innen der Parteien nicht und ChatGPT schlug erfundene Telegram-Kanäle als Informationsquelle vor. Hier nennt der Microsoft Copilot einen Kanal des AfD-Mitgliedermagazins als seriöse Quelle und somit einen Kanal einer Partei, die vom Verfassungsschutz als rechtsextremistischer Verdachtsfall eingestuft wird, was jüngst vom Oberverwaltungsgericht Münster bestätigt wurde.

Unterschiede zeigen sich im Test von Correctiv auch zwischen den verschiedenen Sprachen. Teilweise verweigern die Chatbots Antworten in einer Sprache, in einer anderen weichen sie Fragen aus. Das belegen auch die Studien „The Silence of the LLMs: Cross-Lingual Analysis of Political Bias and False Information Prevalence in ChatGPT, Google Bard, and Bing Chat” von Aleksandra Urman und Mykola Makhortykh und die Studie „Generative AI and elections: Are chatbots a reliable source of information for voters?” von AlgorithmWatch und AI Forensics.

Zur Einordnung dieser Ergebnisse ist es entscheidend, die grundlegende Funktionsweise von KI-Chatbots zu verstehen: KI-Chatbots liegen große Sprachmodelle (Large Language Models) zugrunde. Diese haben während des Trainingsvorgangs eine große Menge an Textbeispielen gesehen und daraus ein statistisches Modell von Sprache erlernt. Vereinfacht gesagt haben die Modelle gelernt, menschliche Texte zu erstellen, indem sie das nächste Wort vorhersagen. Dementsprechend ist es klar, dass bei diesen Modelle Halluzinationen oder falsche Informationen vorkommen können. Wer tiefer in die Funktionsweise von Sprachmodellen einsteigen möchte, kann dies z.B. hier tun.

Problematisch wird es, wenn Menschen auf Chatbots setzen, um Informationen zu recherchieren, ohne sich bewusst zu sein, dass es sich dabei nicht um eine Suchmaschine handelt, sondern um einen Textgenerator. Auch wenn Microsoft Copilot und Google Gemini im Gegensatz zu ChatGPT mit dem Internet verbunden sind und somit auch auf aktuelle Texte zugreifen können, basieren die generierten Texte auf Wahrscheinlichkeitsberechnungen und sind nicht auf ihren Wahrheitsgehalt überprüft. Die Studie von AlgorithmWatch und AI Forensics zeigt aber, dass es vorkommen kann, dass die Chatbots Kandidat*innen skandalöses Verhalten andichteten und diesen erfundenen Geschichten teilweise sogar reale Quellen zuschrieben. Das stellt nicht nur ein Risiko für den Ruf der Politiker*innen oder der Medien dar, sondern auch eine Gefahr für die demokratische Willensbildung. Bürger*innen können sich so keine unbeeinflusste Meinung bilden und sich unter Umständen von falschen Angaben leiten und beeinflussen lassen.

Künstliche Intelligenz und Social Media

Eine weitere Form der Beeinflussung, bei der KI-Methoden eine Rolle spielen, ist das sogenannte Microtargeting: KI wird dabei verwendet, um große Mengen individueller Daten auszuwerten und Interessen von Personenkreisen zu ermitteln. Interessengruppen werden dann mit diesem Wissen über Videos oder Botschaften kontaktiert, die sich ungewöhnlich stark mit den Interessen der Empfänger*innen decken. Bereits die thematische Übereinstimmung hilft dabei, Menschen auch politisch zu einer bestimmten Entscheidung zu beeinflussen. Der wohl bekannteste Fall ist der Skandal um Cambridge Analytica. 2016 hatte das Unternehmen Daten von Millionen Facebook-Nutzer*innen illegal abgezogen, um Persönlichkeitsprofile der Wähler*innen zu erstellen. Diese wurden dann mit stark personalisierter Wahlwerbung adressiert. So wollte das Team um den republikanischen Kandidaten Donald Trump im damaligen US-Wahlkampf gezielt Schwarze mit Negativwerbung davon abhalten, zur Wahl zu gehen, und so vermutlich nicht für seine demokratische Gegnerin zu stimmen.

In den sozialen Medien spielen außerdem Bots eine wichtige Rolle. Social Bots sind Programme, die in sozialen Medien wie echte Nutzer handeln und vor allem in Kommentarspalten Botschaften automatisch verbreiten. Sie greifen somit aktiv in die Diskussion ein und beeinflussen diese. Eine Studie der Universität Duisburg-Essen fand bereits 2019 heraus, dass Bots die sogenannte Schweigespirale auslösen können. Das bedeutet, dass Menschen sich weniger trauen, ihre Meinung zu äußern, wenn sie mit dieser in der Minderheit sind. Die Forscher*innen zeigen, dass bereits eine geringe Anzahl von zwei bis vier Prozent Bots ausreicht, um Nutzer*innen in einer kontroversen Diskussion zum Schweigen zu bringen. Die Gefahr geht jedoch nicht nur von der Beeinflussung der aktiv an der Diskussion beteiligten Personen aus. Für den still mitlesenden Teil der Nutzer*innen zeigt sich hier ein falsches Stimmungsbild, das die Meinungsbildung entsprechend beeinflussen kann.

Fazit: Wachsamkeit und Medienkompetenz als Schutzschild der Demokratie

Künstliche Intelligenz kann also einen entscheidenden Einfluss auf die Meinungsbildung von Wähler*innen haben und somit auch den Ausgang von Wahlen beeinflussen. Wichtig ist hier ein bewusster Umgang mit KI-generierten Inhalten. Dafür benötigt es folgendes: eine Sensibilisierung für das Problem, eine gesteigerte Medienkompetenz und einen sicheren und bewussten Umgang mit KI-Tools.

Einen Beitrag hierzu leistet das Projekt X-Fem unserer Lamarr-Partnerorganisation Fraunhofer IAIS. Das Projekt richtet sich speziell an weibliche Auszubildende und will deren digitale Kompetenzen stärken. Im bald erscheinenden E-Learning werden unter anderem die Bereiche Fake News/Desinformation, Hate Speech oder Künstliche Intelligenz behandelt.

Du willst deine eigene Medienkompetenz stärken? Dann melde dich jetzt zum Newsletter an und erfahre als erstes vom Start des E-Learnings von X-Fem.

Wahlen 2024: Wie Desinformation und Deepfakes die Demokratie gefährden » Lamarr-Blog (2024)

References

Top Articles
Latest Posts
Article information

Author: Pres. Lawanda Wiegand

Last Updated:

Views: 6197

Rating: 4 / 5 (51 voted)

Reviews: 82% of readers found this page helpful

Author information

Name: Pres. Lawanda Wiegand

Birthday: 1993-01-10

Address: Suite 391 6963 Ullrich Shore, Bellefort, WI 01350-7893

Phone: +6806610432415

Job: Dynamic Manufacturing Assistant

Hobby: amateur radio, Taekwondo, Wood carving, Parkour, Skateboarding, Running, Rafting

Introduction: My name is Pres. Lawanda Wiegand, I am a inquisitive, helpful, glamorous, cheerful, open, clever, innocent person who loves writing and wants to share my knowledge and understanding with you.