Donnerstag, 28. März 2024

Archiv

Social-Media-Studie zur Bundespräsidentenwahl
Mit jedem fünften Tweet "Junk News" verbreitet

Was hat sich während der Wahl des Bundespräsidenten auf Twitter getan? Forscher in Oxford haben das beobachtet. Das Ergebnis: Die Verbreitung von Falschinformationen war recht hoch, der Einsatz sogenannter Socialbots dagegen vergleichsweise gering. Doch das könnte sich noch ändern.

Lisa-Maria Neudert im Gespräch mit Stefan Koldehoff | 30.03.2017
    Von fünf Tweets zur Bundespräsidentenwahl 2017 verbreitete einer Falschinformationen.
    Von fünf Tweets zur Bundespräsidentenwahl 2017 verbreitete einer Falschinformationen. (Michael Borgers / Deutschlandfunk)
    Das in der Studie ermittelte "Verhältnis von Information zu Misinformation" habe bei 4:1 gelegen, sagte Lisa-Maria Neudert, einer der Macherinnen der Studie, im Deutschlandfunk. Dies sei ein "erhebliches Verhältnis", so die Einschätzung der Wissenschaftlerin. Zumal sich die Debatte um sogenannte "Fake" respektive "Junk News", wie sie in der britischen Studie genannt werden, sonst auf US-Medien konzentriere. Doch auch in Deutschland sei das ein Thema, betonte Neubert.

    Lesen Sie hier das Interview in voller Länge:
    Stefan Koldehoff: Dieses Ringen um eine offene und demokratische Gesellschaft, von dem gerade die Rede war: Das ist eben - auch, weil diese Gesellschaft so lange nicht ernsthaft in Frage gestellt wurde - keine Selbstverständlichkeit mehr. Und: Es gibt zunehmend anti-demokratische und anti-offene Bewegungen, denen das Internet und die sogenannten "Sozialen Medien" vielfältige Möglichkeiten bieten. Was das allerdings tatsächlich und konkret anrichtet - die Stichworte lauten unter anderem "Polit-Bots" und - ja, wieder mal: "Fake news" -, dazu gibt es bislang kaum belastbare wissenschaftliche Forschung. Bislang: Denn bei einer Tagung des "LPR Forum Medienzukunft" in Frankfurt ist eine solche Studie der Uni Oxford nun vorgestellt worden - unter anderem von Lisa-Maria Neudert, die Mitautorin ist. Sie hat die Auswirkungen der Sozialen Medien konkret an einem Ereignis und dessen Abbildung an zwei Tagen untersucht.
    Lisa-Maria Neudert: Was wir uns da angeschaut haben in der letzten Zeit, sind die Bundespräsidentenwahlen in Deutschland. Wir haben uns zeitgleich auch angeschaut die US-Wahlen in Amerika und außerdem den Brexit. Unser Research dazu hat sich jetzt angeschaut in diesen Phänomenen: Wie war da die Online-Kommunikation in sozialen Netzwerken? Wir haben uns genau Twitter dazu angeschaut, welche politische Kommunikation hat da stattgefunden, welche Rolle hatten dabei Social Bots, Meinungsroboter, und auch was für einen Einfluss hatten dabei Fake News, also falsche Informationen.
    Koldehoff: Dann nehmen wir doch jetzt gleich mal das Ergebnis vorweg: Kann das Internet politische Meinungsbildung und damit auch politische Willensbekundung, also Wahlen, Entscheidungen, politische Einstellungen beeinflussen?
    Neudert: Beeinflussen kann es das Internet auf jeden Fall, das spricht auch einfach dafür, wenn man ansieht, wo wird Wahlkampf gemacht. Der spielt sich ab auf der Straße, der spielt sich ab in den Medien, in den Massenmedien, und spielt sich über Werbung ab und spielt sich aber auch über Medieninhalte ab. Und das Internet ist davon natürlich ein ganz großer Teil, in dem ganz viele Inhalte in Deutschland publiziert werden, ja.
    Koldehoff: Dieser sogenannte automatisierte Content, diese Bots, wie wird das bewertet? Wird das genauso ernst genommen wie das, was in den sogenannten etablierten Medien stattfindet?
    Neudert: Also, vorab vielleicht erst mal: Was sind Social Bots? Social Bots sind Meinungsroboter in den sozialen Netzwerken, die dort vorgeben, menschliche Nutzer zu sein, und Kommunikation automatisieren können. Sie können dort also Nachrichten verbreiten, verstärken, aber auch direkt mit Nutzern interagieren und kommunizieren, und aber auch gewisse Themen auf die Agenda bringen. Inwiefern das ernst zu nehmen ist bei Usern, ist natürlich die Frage, wenn ein User nicht erkennt, was ein Bot ist. Dann ist es möglich, dass er denkt, dass das genauso eine menschliche Kommunikation ist, wie wenn er jetzt sonst mit jemandem auf den sozialen Netzwerken spricht. Man hat also jetzt eine Kommunikation, die nicht vermittelt ist von einem übergeordneten, superioren Massenmedium, sondern man kann auch glauben, dass die Kommunikation von einem Social Bot jetzt mit jemandem ist wie du und ich. Das hat möglicherweise auf Nutzer noch mal andere Einflüsse. Man spricht in dem Zusammenhang auch von sozialer Information, zum Beispiel durch Likes, aber auch durch Zustimmung des sozialen Umfeldes und dann zusätzlicherweise noch diese soziale Komponente hinzugefügt bekommen haben. Und da hat die Forschung gezeigt, dass es Menschen sehr wichtig ist, was zum Beispiel ihr Freundesnetzwerk an Inhalten liest, an Inhalten gut findet, aber auch – man nennt das Ganze auch Homophilie –, was jetzt Leute, die man als ähnlich zu einem wahrnimmt oder zu denen man auch aufschaut, was die für Inhalte gut finden und posten.
    Koldehoff: Heißt das denn, nach dem, was Sie da jetzt herausgefunden haben, für eine nervöse Republik besteht eigentlich gar kein Anlass? Es gibt zwar Versuche, zu manipulieren, aber so richtig funktioniert es noch nicht?
    Neudert: Da gibt es jetzt zwei Komponenten, die wir in unserer Forschung herausgefunden haben. Und zwar zunächst einmal erstens: In der Wahl zum Bundespräsidenten waren Social Bots nur bedingt aktiv. Wir haben ungefähr ein Aktivitätslevel von 5 bis 15 Prozent der Tweets gefunden, die durch Social Bots generiert wurden, was jetzt im Vergleich zu dem, was wir in den USA oder beim Brexit beobachtet haben, sehr gering ist. Wir haben allerdings auch noch eine zweite Komponente uns angeschaut und da ging es um Missinformation und Falschinformation im Internet. Und was wir da gefunden haben, ist, dass das Verhältnis von Information zu Missinformation momentan vier zu eins auf deutschen Medien online im Zusammenhang mit der Bundespräsidentenwahl war. Und ich denke, das Ergebnis, das Verhältnis, dass Information zu Missinformation vier zu eins ist, ist doch relativ erheblich, zumal sich diese Fake-News-Debatte oft auf US-Medien stützt und oft über US-Medien, die spezifische Fake News Outlets sind, konzentriert. Es ist also definitiv auch in Deutschland ein Thema, das auf der Agenda ist. Wir bezeichnen in unserer Forschung sowohl Fake News als auch Social Bots als auch zum Beispiel Microtargeting in der Werbung, also wenn ganz spezifisch Leute angesprochen werden, was vor allen Dingen durch soziale Netzwerke ermöglicht wird, als Formen von automatisierter Propaganda, mit der es möglich ist, ganz bewusst politische Kommunikation zu machen. Und das Ganze ist ein Benchmarking sozusagen für einmal jetzt die Landtagswahlen, die wir uns momentan auch anschauen, da hat heute Morgen die Datensammlung geendet, spannend also auch, was dabei herauskommt, und dann natürlich für die Bundestagswahlen. Und was man bei Social Bots auch immer noch dazu sagen muss, ist, dass es natürlich … Jetzt waren vielleicht nicht so viele aktiv, aber Social Bots können natürlich auch aktiv geschaltet werden. Das ist da noch so die Frage der Potenzialität, die da immer wieder aufkommt.
    Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.