Archiv

Youtube-Algorithmus
Studie: Youtube radikalisiert User nicht systematisch

Algorithmen führen Youtube-User hin zu immer radikaleren Inhalten – diese Annahme wird durch eine neue Studie widerlegt. Nutzerinnen und Nutzer radikaler Inhalte kämen eher von anderen Portalen zu Youtube, sagte Studienautorin Homa Hosseinmardi im Dlf. Der Platform Vorgaben zu machen, sei daher schwierig.

Homa Hosseinmardi im Gespräch mit Michael Böddeker |
Rechtsextreme Youtube-Nutzer sind eher selten, das zeigt eine Studie
Der Anteil politischer Inhalte auf Youtube in den USA ist nochmal deutlich gewachsen, aber nicht der von extrem rechten Inhalten, das zeigt eine Studie (Unsplash / CardMapr.nl)
Falschinformationen, Fake News, sind im Netz ein großes Problem. Gerade hat Twitter angekündigt, stärker dagegen vorzugehen. Noch relevanter ist das Problem aber wohl auf Youtube. Die Plattform hat viel mehr aktive Nutzer, die dort täglich Videos konsumieren. Oft wurde schon darüber berichtet, wie Algorithmen im Netz die Nutzerinnen und Nutzer zu immer extremeren Inhalten leiten. Eine neue Untersuchung zu politischen Inhalten auf Youtube zeigt jetzt aber: Ganz so einfach ist der Zusammenhang nicht.

"Extrem rechte Inhalte sind eher selten"

Es gibt zwar User, die sich mit der Zeit immer extremere Inhalte anschauen. Aber die meisten Konsumenten extremer politischer Inhalte gelangen offenbar nicht durch Empfehlungen des Algorithmus zu entsprechenden Youtube-Videos, sondern auf anderen Wegen. Das hat eine Analyse der Daten von mehr als 300.000 US-Amerikanern gezeigt. IT-Forscherin Homa Hosseinmardi von der Universität von Pennsylvania in den USA ist die Autorin der Studie, die im Fachmagazin PNAS erschienen ist.
Extrem rechte Inhalte seien eher selten auf Youtube, sagte Hosseinmardi im Deutschlandfunk. Ihr Anteil sei in den vier Jahren der Studie auch nicht gestiegen. Zudem kämen rechtsextreme Nutzer häufig von ebensolchen Websites - das deute darauf hin, dass die Nutzer solcher Inhalte diese gezielt suchten.
Programmiercode mit Globus, server und abstraktem technischen Hintergrund in blau
Forscherin: "Algorithmen können keine sozialen Probleme lösen"
Algorithmen basieren auf menschlichen Entscheidungen, was zum Beispiel in der Strafjustiz oder bei der Jobvergabe zum Problem werden kann. Daher müssten Algorithmen regelmäßig überprüft werden, sagte Forscherin Sandra Wachter im Dlf.

Das Interview im Wortlaut:
Michael Bödekker: Was für politische Inhalte schauen sich Menschen auf Youtube vor allem an?
Homa Hosseinmardi: Tatsächlich werden in den USA auf Youtube sogar mehr politische Inhalte konsumiert als auf Twitter. Deshalb sollte die Forschung Youtube noch stärker ins Visier nehmen. Und in den vier Jahren, die wir untersucht haben, ist der Anteil solcher Inhalte auf Youtube nochmal deutlich gewachsen, von acht Prozent auf zwölf Prozent. Der größte Teil davon ist politisch in der Mitte oder leicht links. Extrem rechte Inhalte sind eher selten, und ihr Anteil ist in den vier Jahren auch nicht gestiegen.

Weder rechts noch links: "anti-woke"-Kanäle

Böddeker: Es gibt aber nicht nur sehr rechte Youtube-Kanäle, sondern auch etwas, dass sie in ihrer Studie als "anti-woke"-Kanäle beschreiben. Was für Kanäle sind das?
Hosseinmardi: Das ist wirklich schwer zu definieren. Rechtsaußen oder rechtsextrem, das ist ziemlich klar definiert. Dazu gehören Dinge wie QAnon, Verschwörungstheorien, oder White Supremacy – also der Glaube an die Überlegenheit der Weißen. Bei der Kategorie "anti-woke" ist es dagegen schwieriger, sie auf dem klassischen links-rechts-Spektrum zu verorten. Diese Kanäle haben aber alle etwas gemeinsam: Sie stellen sich gegen fortschrittliche Bewegungen und gegen Institutionen, die für mehr soziale Gerechtigkeit kämpfen. Das haben wir in unserer Studie als "anti-woke" bezeichnet.
Desinformation in den sozialen Medien
In der Corona-Pandemie und bei der jüngsten Unwetterkatastrophe zeigt sich, wie schnell Falschinformationen verbreitet werden – insbesondere über die Messenger-Dienste. Aus Sicht von Experten sind vor allem ältere Menschen empfänglich dafür.

"All das deutet darauf hin, dass es nicht am Algorithmus liegt"

Böddeker: Was bringt Youtube-Nutzer dazu, sich rechtsextreme Videos anzuschauen? Suchen sich politisch extreme Menschen gezielt extreme Inhalte? Oder radikalisiert der Youtube-Algorithmus die Zuschauer, indem er ihnen immer extremere Inhalte empfiehlt?
Hosseinmardi: Tja, genau das ist die interessanteste Frage: Was ist Ursache und was ist Wirkung? Wir haben uns deshalb angesehen, woher die Nutzer kommen, die sich extrem rechte Inhalte auf Youtube anschauen. Meist kommen sie von rechtsextremen Websites irgendwo im Netz. Das bedeutet: Diese Nutzer suchen sich gezielt solche Inhalte auf Youtube, weil sie ihrem persönlichen Geschmack entsprechen. Außerdem haben wir untersucht, ob die Inhalte extremer werden, wenn sich jemand zehn Youtube-Videos hintereinander anschaut. Aber: Wir konnten keinen Effekt feststellen, durch den die späteren Videos immer extremer werden. All das deutet darauf hin, dass es nicht am Algorithmus liegt, wenn sich jemand extreme Inhalte anschaut.
Hand hält Handy mit Twitch-App
Radikalisierung durch Computerspiele?
Spätestens seit den Anschlägen von Halle und Christchurch wurde deutlich, dass die Gaming-Szene ein Problem mit Rechtsextremismus hat. Spiele-Communities seien für Rechte ein "wunderbares Ökosystem", sagte Kulturwissenschaftler Christian Huberts im Dlf.
Böddeker: Das heißt, Youtube radikalisiert die User nicht? Bisher hatten genau das ja viele angenommen.
Hosseinmardi: Naja, da muss man vorsichtig sein. Es gibt zwar keine systematische Radikalisierung, die alle User in extreme Richtungen treibt. Es gibt aber schon einige Menschen, die sich mit der Zeit immer radikalere Videos anschauen. Diese Gruppe wollen wir in Zukunft noch genauer untersuchen: Welche Themen interessieren sie, wonach suchen sie, zu welcher demographischen Gruppe zählen sie, und so weiter. Aber in dieser aktuellen Studie ging es uns erstmal nur um die Frage, ob es eine systematische Verzerrung gibt.

"Wer gebildet ist, ist weniger anfällig für Falschinformationen"

Böddeker: Was bedeutet all das am Ende? Sollte Youtube aus ihrer Sicht etwas an seinem Algorithmus ändern?
Hosseinmardi: Das ist wirklich schwer zu entscheiden. Sollte Youtube Einfluss auf die Inhalte nehmen und bestimmte Videos benachteiligen und verstecken? Oder sollte Youtube alle Inhalte gleich behandeln, egal wo sie politisch stehen, und auch normale und extreme Inhalte gleichbehandeln? Das ist wirklich nicht einfach.
Ich persönlich denke, dass man an anderer Stelle ansetzen sollte, nämlich bei der Bildung. Wer gebildet ist, ist weniger anfällig für Falschinformationen. Das hätte einen größeren Effekt.
Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.