"Es gibt eine Studie im Kontext der dritten Fernsehdiskussion zwischen Clinton und Trump. Und die hat gezeigt, dass ein Drittel aller Kommunikation auf Twitter für Trump wahrscheinlich von Bots erzeugt wird. Und bei Clinton sind es auch über 20 Prozent."
Professor Jürgen Pfeffer, Informatiker und Spezialist für Soziale Medien an der Hochschule für Politik in München:
"Weil es sehr einfach ist Bots herzustellen oder Fake News und insofern die eigene Nachricht zu verstärken, liegt die Vermutung nahe, dass beides extrem zunimmt."
Computerprogramme beteiligen sich an der politischen Meinungsmache
Dr. Jonas Kaiser, Kommunikationswissenschaftler am Humboldt Institut in Berlin und in Harvard:
"Das Gefahrenpotenzial von Fake News ist heute schon erheblich, auch wenn sich noch keine demokratierelevanten Auswirkungen gezeigt haben. Eine unwahre Meldung zum Gegenstand einer Wahlentscheidung zu machen, ist aus Sicht der Demokratie eine Katastrophe."
Prof. Rolf Schwartmann, Leiter der Forschungsstelle für Medienrecht an der Technischen Hochschule in Köln. Social Bots manipulieren Meinungen. Sie schüren Streit in Diskussionsforen. Fake-News, also absichtlich falsch gestreute Nachrichten entscheiden Wahlen. Spätestens seit dem Wahlsieg Donald Trumps werden Befürchtungen laut, dass Computerprogramme sich zunehmend an der politischen Meinungsmache beteiligen. Wie solche Meinungs-Roboter funktionieren, erläutert Jürgen Pfeffer:
"Generell ist die Funktion eines social bots, menschliches Verhalten zu imitieren. Das heißt alles, was Sie mit dem Computer zum Beispiel auf sozialen Medien machen können, das können auch social bots machen. Mit dem Vorteil, dass sie es natürlich rund um die Uhr machen können und dass sie es tausendfach machen können."
Bots reagieren automatisch auf bestimmte Schlüsselwörter
Auf Facebook oder Twitter legen sich solche Bots ein menschlich wirkendes Profil zu. Sie versenden Botschaften, folgen anderen Nutzern der sozialen Medien.
"Wenn zum Beispiel eine Facebook-Meldung, eine Twitter-Nachricht mit einem bestimmten Wort fällt, dann warten die Bots darauf und setzen eine automatisierte Antwort. Das heißt, sie liken etwas oder auf Twitter, sie retweeten eine Information. Das geht relativ automatisiert. Eine geringere Anzahl versucht tatsächlich in Interaktionen einzusteigen, allerdings wird hier auf von Menschen vorgefertigte Informationen zurück gegriffen.
Anders gesagt: Die Programme reagieren zum Beispiel bei Twitter automatisch auf bestimmte Schlüsselwörter wie "Trump" oder "Ukraine" oder "Flüchtlinge", indem sie diese Tweets weiter verbreiten. Oder auch - wie ein menschlicher Nutzer –kommentieren. Bots können jede noch so hirnrissige Verschwörungstheorie kopieren und verbreiten und so verzerrte Meinungsbilder entstehen lassen. Und sie können noch mehr:
"Es wurde in den letzten Jahren immer wieder darüber berichtet, dass Politiker sich Follower gekauft haben, die dann die eigenen Nachrichten teilen und auch liken. Was somit die eigenen Nachrichten scheinbar populärer macht, als sie de facto sind."
Jonas Kaiser über die Arbeitsweise der künstlichen Meinungsmacher:
"Andererseits werden Bots aber nicht nur zur Verbreitung der eigenen Nachrichten genutzt, sondern auch dazu, um Gegner kritisch darzustellen, um Hashtags zu überladen oder ein disruptives Element reinzubringen, indem man zum Beispiel vollkommen störenden Spam in einen Hashtag reinsetzt, sodass die Debatte nicht mehr möglich ist auf Twitter.
Passt die Meldung ins Profil des Users?
Die absurdesten Nachrichten können sich in Windeseile verbreiten. Zum Beispiel: "Flüchtlinge schlachten Schwäne" oder "Hillary Clinton betreibt mit anderen Demokraten einen Kinderpornoring". Oder auch "Flüchtling starb nach tagelangem Warten vor dem Berliner Lageso". Wie schnell eine Meldung bei Facebook kommuniziert wird, hängt nicht von ihrem Wahrheitsgehalt ab, sondern davon, wie oft sie von Menschen geteilt wird und ob eine Nachricht in das jeweilige Profil des Users passt.
"Facebook hat ja bekanntlich seine journalistischen Menschen aus den Redaktionsstuben entfernt. Das heißt, die Nachrichten, die jetzt unter Facebook in Benutzerprofilen angezeigt werden, werden ausschließlich algorithmisch erzeugt. Es wird ausschließlich darüber entschieden, was haben Sie in der Vergangenheit gelesen, was lesen Ihre Freunde, was wird Ihnen wahrscheinlich gefallen. Und das macht es auch schwierig, die Verbreitung von Fake News zu verhindern."
"Es gibt keine belastbare Möglichkeit, eine Fake News von einer Real News zu unterscheiden", sieht auch Medienrechtler Rolf Schwartmann.
Verleumdung und üble Nachrede nicht von der Meinungsfreiheit gedeckt
"Wenn Sie eine Lüge verbreiten im Netz, dann ist es für mich als Empfänger der Nachricht aufgrund der Information nicht möglich zu entscheiden, ist das falsch oder wahr. Es kann ja noch so hanebüchen sein und trotzdem realistisch klingen."
Verleumdung und üble Nachrede sind aber – auch im Internet - nicht von der Meinungsfreiheit gedeckt, so Justizminister Heiko Maas im vergangenen Dezember. Rolf Schwartmann teilt diese Auffassung und denkt über juristische Konsequenzen nach:
"Wenn klassische Medien in einer Weise berichten, die man ethisch beanstandet, dann gibt es eine Instanz, das ist der Presserat. Jetzt kann man sich die Frage stellen, ob man das nicht auch für Plattformen braucht. Man könnte überlegen, das wird auch schon diskutiert, dass man eine jederzeitige Erreichbarkeit bei den Plattformbetreibern hat und dass sie innerhalb einer kurzen Frist – 24 Stunden –nachprüfen können, ob eine Info falsch ist oder wahr. Und dann müsste darüber aber noch eine andere Instanz stehen, eine Kontrollstelle, die die Arbeitsweise der Plattformbetreiber überprüft. Und das, was diese Kontrollstelle an Information ermittelt, dass müsste dann wieder justiziabel sein und von Gerichten überprüft werden können."
Facebook: Müsste gezielte Falschmeldungen schnell löschen
Weitergehende Forderungen zielen darauf ab, dass die Betreiber von Plattformen wie Facebook selbst dafür sorgen müssen, gezielte Falschmeldungen schnell zu löschen oder gar nicht erst ins Netz zu bringen.
"Wir stehen ja am Beginn der Debatte. Am Ende stellt sich grundlegend die Frage, ob die Plattformbetreiber sogar verantwortlich sind, das zu überprüfen, was dritte ohne ihr Wissen auf der Plattform bereitstellen. Und vor dem Hintergrund würde ich deren Verantwortung an der Stelle sehen, sie muss aber durch den Gesetzgeber letztlich angeordnet werden".
Allerdings ist das öffentliche Verbreiten von handfesten Lügen nichts Neues. Fake News war zum Beispiel der Satz, den die französischen Königin Marie Antoinette angeblich über den hungernden dritten Stand verlauten ließ:
"Wenn sie kein Brot haben, sollen sie doch Kuchen essen". Fake News waren die "Protokolle der Weisen von Zion", vermeintliche Mitschriften jüdischer Geheimsitzungen zum Ziel der "Weltherrschaft des Judentums". Und Fake News waren die Behauptungen der Bush-Administration, der Irak besitze Massenvernichtungswaffen.
Jürgen Pfeffer: "In den USA hat man während dem Zweiten Weltkrieg schon Labors eingerichtet, die sich mit wissenschaftlicher Analyse von falschen Informationen, von Gerüchten beschäftigt, weil klar war, dass das die Moral im eigenen Land zerstört. Das heißt, seit 70, 80 Jahren ist die Forschung am Werk und auch das Bewusstsein dafür, dass falsche Information problematisch sein kann."
Politische Probleme einer Gesellschaft, die sich zunehmend polarisiert
Zudem sind sich die meisten Forscher einig, dass auch die heutigen Bots und die Verbreitung von Fake-News eher meinungsverstärkend als meinungsverändernd sind. Und bei den Meinungen, so Jonas Kaiser, liege das Problem. Das Internet diene lediglich als Sündenbock für die politischen Probleme einer Gesellschaft, die sich zunehmend polarisiere und für deren Spaltung noch keine versöhnende Lösung gefunden worden sei.
"Das Problem, das wir haben ist nicht zwingend eines des Internets, sondern dass unsere Gesellschaft immer polarisierter wird, bzw. sich an bestimmten Fragen polarisiert. In Deutschland beispielsweise, wen man spricht, wer in Deutschland für und gegen Flüchtlingspolitik ist, dann gibt’s da kaum einen Konsens, dass wir jetzt X oder Y machen müssen, sondern es heißt entweder Ja oder Nein. Und daran entlädt sich eine Identitätspolitik, dass sich das radikalisiert, dass man nicht mehr miteinander spricht. Und dann sucht man sich im Zweifel die Quellen, die der eigenen Meinung entsprechen oder sie verstärken. Und dann les ich nicht mehr die Süddeutsche, sondern schau auf Seiten, die dem entsprechen, was ich mir vorstelle."