Medienforschung
Desinformation: Große Gefahr oder überschätzt?

Die Mehrheit der Deutschen sieht in Desinformation laut einer aktuellen Studie eine Gefahr für Demokratie und Zusammenhalt. Aus Sicht des Medienwissenschaftlers Christian Hoffmann geht der öffentliche Diskurs hier stark am Forschungsstand vorbei.

Christian Hoffmann im Gespräch mit Pia Behme |
Illustration: Eine Hand tippt auf einem Smartphonebildschirm, dahinter liegt eine Sprechblase mit dem wiederkehrenden Begriff "Fake News".
Desinformationen vor Wahlen, in Sozialen Medien, in Kriegszeiten - in den vergangenen Jahren wurde immer wieder über mögliche Gefahren und den Kampf gegen Desinformation berichtet. Mit Durchbrüchen bei der Künstlichen Intelligenz hat die Debatte noch einmal an Fahrt aufgenommen - weil KI die Erstellung und Verbreitung falscher oder irreführender Information vereinfachen kann.

Entspricht die Debatte dem Stand der Forschung?

Vor diesem Hintergrund überrascht es nicht, dass Desinformation von vielen Menschen als Gefahr wahrgenommen wird, wie eine Studie der Bertelsmann-Stiftung zeigt: 84 Prozent der Menschen in Deutschland sind demnach der Meinung, vorsätzlich verbreitete Falschinformationen im Internet stellten ein großes oder sogar sehr großes Problem für unsere Gesellschaft dar. 81 Prozent schätzten Desinformation als Gefahr für die Demokratie und den gesellschaftlichen Zusammenhalt ein. Und: Mehr als die Hälfte der Befragten sagten, dass das Thema Desinformation zu wenig Aufmerksamkeit bekomme.
Aus Sicht von Christian Hoffmann, Professor für Kommunikationsmanagement an der Universität Leipzig, ist eher das Gegenteil der Fall: Das Thema Desinformation bekomme zu viel Aufmerksamkeit: "Wir wissen inzwischen, dass die meisten Bürgerinnen und Bürger sehr wenig Fake News sehen. Und auch die Wirkungen von Fake News sind nach wie vor unklar. Also insofern scheint mir eigentlich, dass wir sehr viel Aufmerksamkeit richten, auf ein Thema, das wir eigentlich noch wenig verstanden haben bisher."

Hoffmann: Nur eine Minderheit konsumiert Fake News

Es gebe nur eine sehr kleine Minderheit von Bürgerinnen und Bürgern, die relativ intensiv Fake News konsumieren und diese sogar gezielt suchen würden, die ihr Weltbild bestärken und bestätigen, so Hoffmann. "Die öffentliche Vorstellung, dass Bürgerinnen und Bürger im Netz unschuldig herumsurfend über Fake News stolpern und dadurch in die Irre geführt werden, können wir in den Daten eigentlich überhaupt nicht feststellen".
Vor gut einem Jahr hatten Hoffmann und andere Forschendende schon kritisiert, dass die öffentliche Desinformations-Debatte oft am Stand der Forschung und dem wissenschaftlichen Konsens vorbeilaufe. Etwa seien wichtige Fragen – zum Beispiel welchen Einfluss Desinformation auf vergangene US-Präsidentschaftswahlen gehabt hat – kaum zu beantworten. Das gelte auch heute noch, so Hoffmann. In der Forschung werde entspannter und ruhiger mit dem Thema umgegangen als im öffentlichen Diskurs.
Wie KI-generierte Inhalte in einem öffentlichen Diskurs wirken werden, sei heute noch nicht abzusehen.

Globaler Risikobericht warnt vor Desinformation durch KI

Dabei gibt es bereits laute Warnungen: Anfang 2024 stufte das Weltwirtschaftsforum (WEF) in seinem globalen Risikobericht die KI-gesteuerte Fehl- und Desinformation als das derzeit größtes Risiko für eine globale Krise in den kommenden zwei Jahren ein, noch vor extremen Wetterereignissen und gesellschaftlicher Polarisierung. "Der Zusammenhang zwischen Falschinformationen und gesellschaftlichen Unruhen wird bei den Wahlen, die in den nächsten zwei Jahren in mehreren großen Volkswirtschaften anstehen, im Fokus sein", heißt es im Bericht.
Politisch wird bereits versucht, hier gegenzusteuern, etwa von Seiten der EU, die regulatorisch gegen Desinformation vorgeht. Zum Beispiel mit dem Digital Services Act, der in Deutschland jedoch noch ausgestaltet werden muss, und dem AI Act. Am Rande der diesjährigen Münchner Sicherheitskonferenz schlossen auch Google, Meta, Microsoft und weitere Techfirmen ein Abkommen gegen Wahlmanipulationen durch KI.
"Ich würde sagen, es ist eine große Unbekannte", meint Hoffmann. Es gebe experimentelle Studien, die zeigten, dass Inhalte auf Bürgerinnen und Bürger dann überzeugend wirkten, wenn diese Inhalte sehr plausibel sind: "Wenn beispielsweise einer Politikerin etwas in den Mund gelegt wird, was diese durchaus hätte sagen können, dann sind Teilnehmer bereit, das als bar anzunehmen." Allerdings würden viele Menschen eher mit zu viel Skepsis auf Medieninhalte reagieren als zu wenig.

Sorgen wegen Desinformation durch KI noch theoretisch

Die generelle Sorge, dass es KI Übeltätern ermögliche, massenweise Falschinformationen zu generieren und über die Sozialen Medien zu verbreiten, ist auch nach Ansicht von Dlf-KI-Experte Piotr Heller bisher eine theoretische Sorge: "Man weiß nicht, ob das wirklich so kommen wird." Forschungsergebnisse zeigten aber, das von ChatGPT und anderen KIs verfasste Lügen glaubhafter wirkten, als die von Menschenhand geschriebenen.
Desinformation zu erstellen, das wird mit KI jeder können, glaubt Christian Schiffer, Netzexperte von Bayerischen Rundfunk: "Künstliche Intelligenz wird die Erstellungskosten von Desinformation auf Null reduzieren. Und zwar völlig egal, ob es um Bilder geht, ob es um Text geht, also Spam-Mails zum Beispiel oder irgendwelche Fake News zu generieren, oder ob es um bewegte Bilder geht. Das wird passieren."
Schiffer sieht hier allerdings keine Gefahr, der die Gesellschaft komplett machtlos gegenüberstehe. Es brauche aber eine neue Form der Medienkompetenz.
Medienwissenschaftler Hoffmann sieht Aufklärungskampagnen, die vor den Gefahren von KI warnen, noch kritisch. Es bestehe die Gefahr, dass Bürgerinnen und Bürger zu ängstlich oder skeptisch würden und davon ausgingen, "dass überall Fake News lauern. Dann ist die Gefahr groß, dass Inhalte abgelehnt werden oder als unplausibel wahrgenommen werden, die wahr sind und die aus qualitativ hochwertigen Quellen kommen."