Deepfakes
Wie mit KI Wahlen manipuliert werden könnten

Durch künstliche Intelligenz wird es einfacher, politische Wahlen im Vorfeld zu beeinflussen. Warum ist die Gefahr durch Deepfakes und sonstige Desinformation so groß? Was tun Regierungen und Tech-Unternehmen dagegen?

    Grafik eines Roboterarmes, der einen Umschlag in eine Wahlurne steckt.
    Mit KI-Methoden wird zwar nicht der Wahlvorgang selbst manipuliert – sogenannte Deepfakes können aber in den Wochen vor der Abstimmung dazu beitragen, die Meinungen der Bevölkerung in bestimmte Richtungen zu lenken. (Getty Images / wildpixel)
    Im Jahr 2024 wird fast die halbe Weltbevölkerung aus über 70 Ländern an die Wahlurne gebeten. In Deutschland stehen unter anderem Landtagswahlen in Sachsen, Thüringen und Brandenburg an, auf EU-Ebene die Europawahl. Wie sehr könnten Inhalte, die mithilfe von künstlicher Intelligenz (KI) erstellt wurden, den Ausgang von Wahlen mitentscheiden?

    Inhalt

    Welche Gefahren drohen Wahlen durch künstliche Intelligenz?

    Dass Wahlen mithilfe von KI beeinflusst werden könnten, zeigt unter anderem der globale Risikoreport des Weltwirtschaftsforums. Demnach sind gezielt verbreitete Falschmeldungen eine sehr große Gefahr für die Legitimität demokratisch gewählter Regierungen.
    Akteure, die mit undemokratischen Absichten versuchen, über die Wähler Einfluss auf fremde Staaten zu nehmen, werden auch in Deutschland öffentlich benannt. Konstantin von Notz, Vorsitzender des Parlamentarischen Kontrollgremiums des Bundestages, sagte der „taz“: „Es wird immer offensichtlicher, dass Russland massiv Einfluss nimmt, selbst auf Wahlen und Referenden. Wir werden das auch diesmal wieder bei den Europa- und Landtagswahlen erleben.“
    Die typischen Ziele solcher Akteure (laut Analyse des Thinktanks CeMas):

    • Zersetzung von Vertrauen in die Demokratie
    • Diskreditieren von Parteien und Kandidaten
    • Abschreckung von Wählerinnen und Wählern vom Wahlgang

    Welche KI-Methoden werden für Wahlmanipulationen eingesetzt?

    Größtenteils Methoden werden aus der generativen KI angewendet: künstliche Fotos, Texte, Sprachaufnahmen oder Videos.

    Diskreditierung von politischen Gegnern

    Mithilfe von KI könnte zum Beispiel einer Politikerin eine Rede mit fragwürdigen Aussagen angedichtet werden, die sie nie gehalten hat. „Und wenn so etwas zeitlich geschickt, vielleicht fünf Tage vor Stimmabgabe platziert wird, kann es für die jeweilige Partei sehr ungut ausgehen“, sagte KI-Experte Marko Huber von der Uni Stuttgart gegenüber dem SWR.
    In der Slowakei wurden kurz vor den Präsidentschaftswahlen 2023 Audiobotschaften bei Facebook veröffentlicht, in denen eine Klonstimme des progressiven Kandidaten Michal Simecka behauptet, dass er die Wahl fälschen wolle. In dem vorgeblich mitgeschnittenen „Gespräch“ sagte die Stimme auch, dass sie den Bierpreis im Land verdoppeln wolle. Ministerpräsident wurde mit kleinem Vorsprung der prorussische Kandidat Robert Fico. Ob der Stimmenfake Anteil am Wahlausgang hatte, bleibt aber unklar.
    Ebenfalls hart durch eine KI-Attacke getroffen wurde Rumin Farhana. Ende 2023 war die führende Oppositionelle aus Bangladesch auf unterschiedlichen Plattformen mit Bikini zu sehen. Obwohl klar wurde, dass es sich um einen Deepfake handelt, löste das Video in dem mehrheitlich muslimischen Land Empörung aus.
    In New Hampshire bekamen Bürgerinnen und Bürger im Januar 2024 einen KI-Fake-Anruf von „Joe Biden“, der sie bat, nicht zu den Vorwahlen der Präsidentschaftswahl zu gehen. – ein sogenannter Robo Call.

    KI für den Imagewandel

    Was dazu taugt, Konkurrenz schlecht zu machen, wird manchmal auch für die eigene Imagepolitur eingesetzt.
    Beispiel Indonesien: Dort hatte der Präsidentschaftskandidat Prabowo Subianto die Wahl im Februar 2024 für sich entschieden. Die Sympathien für den Ex-General, der auch für Menschenrechtsverletzungen verantwortlich gewesen sein soll, waren in der Bevölkerung eher nicht so groß. Das änderte sich, als sich Subianto mit generativer KI ein anderes (künstliches) Image verpassen ließ. Sein neuer Look als knuddeliger Cartoon-Senior kam vor allem bei jungen Wählerinnen und Wählern gut an.
    Übrigens: Sich selbst durch KI visuell aufzuhübschen, wird auch als „Soft Fake“ bezeichnet.

    Microtargeting

    Microtrageting ist eine Form von KI, die in den Bereich des maschinellen Lernens fällt. Das Prinzip: Große Mengen individueller Daten – nicht selten aus sozialen Netzwerken – werden genutzt, um Interessen von kleinen Personenkreisen zu ermitteln. Mithilfe dieses Wissens werden die Interessensgruppen (manchmal sogar Einzelpersonen) mit Videos oder sonstigen Botschaften kontaktiert, die sich ungewöhnlich stark mit den persönlichsten Interessen der Empfänger decken. Bereits die thematische Übereinstimmung hilft dabei, Menschen auch politisch zu einer bestimmten Entscheidung zu überreden.
    Der wohl bekannteste Fall von Microtargeting ist der Skandal um Cambridge Analytica. 2016 hatte das Unternehmen Daten von Millionen Facebook-Nutzern illegal abgezogen, um Persönlichkeitsprofile von US-Wählern zu erstellen. Letztere wurden später mit maßgeschneiderter Wahlwerbung adressiert. Auch bei der Brexit-Kampagne in Großbritannien hat Microtrageting eine wichtige Rolle gespielt.
    In Indien wurde die Methode eingesetzt, um Social-Media-Nutzern passgenau Wahlbotschaften von Narendra Modi zu präsentieren. Der Premierminister zeigte sich in den Videos allerdings nicht im echten Antlitz, sondern optisch geglättet: als Avatar.

    Wie nutzen deutsche Parteien KI?

    Bislang verwenden deutsche Parteien künstliche Intelligenz eher zurückhaltend. Das geht aus einer Befragung des Redaktionsnetzwerks Deutschland hervor. Demnach nutzen die Grünen generative KI punktuell für Datenmonitoring und teilweise für Social Media. Die SPD gab an, die Technologie noch nicht in der öffentlichen Kommunikation einzusetzen. Ähnlich sieht es bei der CDU aus. Deren Parteischwester CSU nutzt KI nur begrenzt für grafische Gestaltung. Die Linke hat der Umfrage zufolge keine konkreten Pläne, KI-generiertes Bildmaterial im Wahlkampf einzusetzen, schließt die Möglichkeit aber nicht aus.

    AfD nutzt generative KI stark

    Eine Ausnahme ist bislang die AfD. Die Partei hat in der Vergangenheit bereits öfter KI-erzeugte Inhalte veröffentlicht. So verbreitete die AfD Göppingen Fake-Bilder von einem schwer bewachten Weihnachtsmarkt, der mit Stacheldraht umzäunt ist. Eine andere unechte Darstellung zeigt den Feldberg – „verunstaltet“ durch zahlreiche Windräder.
    Eine weiteres Beispiel: Auf einer Social-Media-Kachel erklärt eine Frau, warum sie Mitglied der AfD Göppingen geworden ist. Nach Aussage von KI-Experte Marco Huber im SWR ist die Dame KI-generiert.
    Ausgerechnet zu Beginn des Fastenmonats Ramadan postete der AfD-Kreisverband Esslingen ein Bild eines deutschen Grillfests: Spanferkel im Vordergrund, gutgelaunte weiße Menschen am üppig gedeckten Tisch. Zwar ist dem Bild anhand der entstellten Gesichter klar anzusehen, dass es unecht ist. Eine Realitätsverzerrung bleibt es dennoch.

    Redaktionell empfohlener externer Inhalt

    Mit Aktivierung des Schalters (Blau) werden externe Inhalte angezeigt und personenbezogene Daten an Drittplattformen übermittelt. Deutschlandradio hat darauf keinen Einfluss. Näheres dazu lesen Sie in unserer Datenschutzerklärung. Sie können die Anzeige und die damit verbundene Datenübermittlung mit dem Schalter (Grau) jederzeit wieder deaktivieren.

    Wie wollen Politik und Unternehmen gegen Wahlmanipulation vorgehen?

    Am 13. März 2024 hat das EU-Parlament den AI Act verabschiedet. Das Gesetz ordnet KI-Anwendungen in Risikoklassen ein. Systeme, die als besonders risikoreich gelten, müssen strenge Anforderungen erfüllen. Anwendungen, die gegen EU-Werte verstoßen, sollen ganz verboten werden. Dazu gehören Programme, die Bürgerrechte einschränken oder den freien Willen beschneiden.
    Im Februar 2024 haben 20 große Internetkonzerne den Munich-Tech-Accord unterzeichnet: eine Vereinbarung, mit der sie Fake News bekämpfen und KI-generierte politische Inhalte aufspüren wollen.
    Auch Google plant im Kampf gegen Deepfakes einen Strategiewechsel: In einer Videokampagne will der Konzern Desinformation nicht erst nachträglich als solche enttarnen, sondern in einer Videokampagne schon vorab darüber informieren, welche Falschinfos zu einem späteren Zeitpunkt in die Welt gesetzt werden könnten.
    OpenAI (Hersteller von ChatGPT) will Wasserzeichen in seinen Bildgenerator Dall-E einbauen und verbieten, dass ChatGPT Texte generiert, die für politische Kampagnen verwendet werden.
    jma