Archiv

Netzwerkdurchsetzungsgesetz
"Facebook als Richter unserer Meinungsfreiheit"

Ab Oktober sind Internetplattformen verpflichtet, strafbare Inhalte zu löschen. Damit wälze der Staat ab, worüber eigentlich Gerichte entscheiden müssten, sagte der Netzaktivist Markus Beckedahl im Dlf. Denn Facebook habe ein eigenes Regelsystem, bei dem auch rechtswidrige Inhalte oft stehenblieben.

Markus Beckedahl im Gespräch mit Stefan Heinlein |
    Markus Beckedahl beim Start der 10. Ausgabe der Digitalkonferenz re:publica im Jahr 2016
    Markus Beckedahl, Gründer und Chefredakteur von netzpolitik.org (picture alliance / dpa - Sophia Kembowski)
    Stefan Heinlein: Rund zwei Milliarden Menschen sind aktiv bei Facebook, oder anders ausgedrückt: Fast jeder vierte Erdenbürger hat einen Account bei Mark Zuckerberg. Facebook ist damit ein Gigant im Netz, für nicht wenige inzwischen die wichtigste Infoquelle, die zentrale Verbindung zur Welt. Facebook ist aber auch durchaus eine Spielwiese für viele Abarten im Internet – hier vernetzen sich Terroristen und Populisten. Gewalt- und Pornovideos werden per Klick ins Netz gestellt und verbreiten sich dort in rasender Geschwindigkeit. Doch ganz so frei darf Facebook jegliche Inhalte nicht verbreiten, bei uns in Deutschland verpflichtet ein neues Gesetz die Internetplattformen, strafbare Inhalte umgehend zu löschen. In dieser Woche kündigte Facebook an, in Essen ein neues großes Löschzentrum mit 500 Mitarbeitern aufzubauen – nach Berlin also eine zweite Einheit gegen Hass und Gewalt bei Facebook. Und darüber möchte ich jetzt sprechen mit dem Journalisten und dem Netzaktivisten Markus Beckedahl. Guten Morgen, Herr Beckedahl!
    Markus Beckedahl: Guten Morgen!
    7.500 Community-Manager für zwei Milliarden Nutzer
    Heinlein: Herr Beckedahl, mehr Personal für die Facebook-Feuerwehr also, ist das genug für die Löscharbeiten im größten sozialen Netz bei Facebook?
    Beckedahl: Ja, Sie haben ja schon am Anfang gesagt, zwei Milliarden Nutzer hat Facebook. Davon sind sehr viele häufig täglich aktiv, und bisher hat man nur 4.500 Menschen, die quasi zu dieser Feuerwehr gehören, also Community-Management, Content-Management machen, was natürlich viel zu wenig ist. Daraufhin hat Facebook jetzt angekündigt, auch als Reaktion auf massive Kritik, dass man jetzt diese 4.500 um weitere 3.000 aufrüsten möchte, aber 7.500 Menschen, die zwei Milliarden oder die Inhalte von zwei Milliarden Menschen kontrollieren sollen, das ist nicht viel.
    Facebook: "Ein Ebenbild unserer Gesellschaft"
    Heinlein: Also sauber, sicher und jugendfrei wird Facebook auch in Zukunft nicht sein?
    Beckedahl: Na ja, Facebook ist auch eigentlich nur eine Infrastruktur, wo Menschen drüber kommunizieren, und insofern ist Facebook oder sind die Inhalte, die dort publiziert werden, auch ein Ebenbild von unserer Gesellschaft, und unsere Gesellschaft ist jetzt auch nicht so sauber, wie manche sie sich vorstellen.
    "Nur wenige kompetente Staatsanwälte und Richter"
    Heinlein: Wie ließe sich denn Facebook wirksam kontrollieren? Muss sich der Staat da mehr einmischen, müssen auch Staatsanwälte viel stärker Facebook durchforsten nach strafbaren Inhalten?
    Beckedahl: Ja, das war eine große Grundsatzdebatte, die wir im letzten halben Jahr in Deutschland geführt haben. Ich würde mir wünschen, wenn wir besser qualifiziertes Personal in unserer Justiz hätten, sodass Menschen, die dort Holocaust-Leugnung betreiben, die dort Menschen ins KZ schicken wollen, dass die alle vor Gericht gestellt werden, wenn sie das aus Deutschland heraus tun, in Deutschland tun, und dass dann unsere normalen rechtsstaatlichen Prozesse und Wege genommen werden, sodass Menschen dafür auch verurteilt werden können. Leider haben wir nur wenige kompetente Staatsanwälte und Richter. Hier ist jahrelang verschlafen worden, dass wir auf dem Weg in die digitale Gesellschaft sind. Und so hat dann unsere Bundesregierung eher einen anderen Weg gewählt, nämlich mit dem Netzwerkdurchsetzungsgesetz Facebook und Co. zu verpflichten, offensichtlich rechtswidrige Inhalte, die gemeldet werden, innerhalb von einem Tag zu entfernen. Und auch deswegen braucht Facebook in Deutschland mehr Personal.
    "Regeln nicht wirklich verstanden, weil sie teilweise unlogisch sind"
    Heinlein: Diese zusätzlichen Mitarbeiter in Essen, werden die denn tatsächlich diese strafbaren Inhalte dann innerhalb von 24 Stunden löschen können, oder reicht das nicht aus? Sie haben gesagt, das ist viel zu wenig eigentlich.
    Beckedahl: Das wird halt die spannende Frage sein. Bisher agiert diese Facebook-Feuerwehr nach einem komplizierten Regelwerk, von Facebook selbst ausgestellt, was teilweise an Journalisten geleakt wurde, von Journalisten dann veröffentlicht wurde. Wir haben uns das mehrere Male genau angeschaut in unserer Redaktion, wir haben die Regeln nicht wirklich verstanden, weil sie teilweise unlogisch sind. Jetzt kommt noch eine neue Herausforderung hinzu: Durch das Netzwerkdurchsetzungsgesetz ist Facebook verpflichtet, 21 Straftatbestände von Beleidigung bis Volksverhetzung, die offensichtlich rechtswidrig sind, innerhalb von 24 Stunden zu entfernen, weil sonst drohen hohe Strafen, wenn man da nicht rechtzeitig reagiert. Also die spannende Frage ist, wie wird zukünftig diese Facebook-Feuerwehr funktionieren, wenn die da zwei verschiedene Regelsysteme haben – einmal das Facebook-globale Regelsystem, auf der anderen Seite unsere deutschen 21 Straftatbestände.
    "Facebook reagiert erst dann, wenn Inhalte gemeldet werden"
    Heinlein: Ganz praktisch, wie muss man sich denn diese Arbeit in den Löschzentren vorstellen? Wird da jedes Foto, jedes Video einzeln betrachtet und dann auf strafbare Inhalte hin durchforstet?
    Beckedahl: Nee, in der Regel reagiert Facebook mit Menschen erst dann, wenn Inhalte gemeldet werden. Bei jedem Inhalt, der von Nutzern publiziert wird, gibt es für andere Nutzer, für die Rezipienten dieser Inhalte, die Möglichkeit, Inhalte zu melden. Sobald diese Inhalte gemeldet werden, greift wahrscheinlich – das ist alles intransparent – erst mal eine künstliche Intelligenz, ein Algorithmus ein, der Sachen vorsortiert. Dann gibt es eine Zweiklassengesellschaft: Es gibt Billigarbeiter, in der Regel auf den Philippinen, die für einen Hungerlohn sich im Sekundentakt Enthauptungsvideos und so weiter anschauen müssen. Das wird auch die Müllhalde des Internet bezeichnet, das sind untragbare Arbeitszustände, die dort vorherrschen. Und dann gibt es halt die Erste-Welt-Arbeiter, die dann hier in Berlin oder zukünftig in Essen sitzen und die dann weniger Enthauptungsvideos sich anschauen, sondern ob da eine Beleidigung dabei ist oder Volksverhetzung dahintersteht. Man kann aber auch ein bisschen überspitzt sagen, bisher kann man diese Reaktion oder das, was da passiert, auch mit Würfeln kennzeichnen, weil viele hatten das Gefühl, wenn man offensichtlich rechtswidrige Inhalte meldet, dass dann manchmal was gelöscht wird und sehr häufig der Facebook-Kundenservice reagiert mit einer Nachricht: Diese Inhalte sind für uns aber jetzt nicht strafbar und bleiben stehen.
    "Auch durch das Netzwerkdurchsetzungsgesetz nicht mehr Transparenz"
    Heinlein: Also diese Löschvorgänge sind aus Ihrer Sicht, aus Sicht des Netzexperten, weitgehend intransparent und nicht ganz nachvollziehbar.
    Beckedahl: Ja, das ist ein ziemliches Problem. Die Bundesregierung hat mit dem Netzwerkdurchsetzungsgesetz versucht oder will jetzt versuchen – das tritt ja erst im Oktober in Kraft –, hier ein bisschen mehr Systematik, Transparenz reinzubringen, aber die spannende Frage bleibt, wird jetzt Facebook zukünftig doppelt, mit zwei verschiedenen Regelwerken reagieren, also offensichtlich rechtswidrige Inhalte möglicherweise dann innerhalb von 24 Stunden runternehmen und zusätzlich noch würfeln, also mit anderen Worten, sein eigenes Regelwerk auf andere Inhalte anlegen. Das ist vollkommen intransparent, da wird auch dieses Netzwerkdurchsetzungsgesetz nicht mehr Transparenz bringen.
    "Ein großes Problem, dass wir uns als Gesellschaft abhängig machen"
    Heinlein: Verstehe ich Sie richtig – Facebook wird damit mehr oder weniger zum Herrscher über die Inhalte im Internet, zumindest auf ihren Seiten. Also die Angestellten von Mark Zuckerberg, die bestimmen dann, was moralisch, ethisch in Ordnung ist und was umgekehrt von den Rechnern verschwinden muss?
    Beckedahl: Ja, das machen sie ja jetzt schon. Das ist ein großes Problem, dass wir uns als Gesellschaft abhängig machen von einem Betreiber, der in einem anderen Land sitzt und uns quasi seine Regeln diktiert und wir als Gesellschaft, zumindest 32 Millionen Menschen unserer Gesellschaft, sollen jeden Tag dort Kunde sein, die Plattform nutzen, dass wir halt abhängig sind von deren Regeln. Und zukünftig haben wir noch das weitere Problem: Facebook wird haftbar dafür gemacht, wenn offensichtlich rechtswidrige Inhalte nicht schnell gelöscht werden, mit anderen Worten, der Staat bringt Facebook noch in eine zusätzliche Situation, dass Facebook jetzt auch noch als Richter und Henker quasi über unsere Meinungsfreiheit urteilen muss, was eigentlich Aufgabe der Gerichte sein sollte bei uns in einem Rechtsstaat.
    Äußerungen unserer Gesprächspartner geben deren eigene Auffassungen wieder. Der Deutschlandfunk macht sich Äußerungen seiner Gesprächspartner in Interviews und Diskussionen nicht zu eigen.