Facebook, Microsoft, Twitter und Youtube – diese vier Konzerne haben im Mai 2016 einen Verhaltenskodex der EU unterzeichnet und sich damit verpflichtet, illegale Hassrede, in der zum Beispiel zu Gewalt aufgerufen wird, innerhalb von 24 Stunden nach deren Bekanntwerden zu entfernen. Das funktioniere immer besser, so das Ergebnis des neusten Berichts der EU-Kommission. Danach seien im Überprüfungszeitraum 70 Prozent der gemeldeten Inhalte auch entfernt worden, vier Fünftel davon innerhalb von 24 Stunden, so Justizkommissarin Vera Jourova: "Ich will, dass sie weitermachen. Wir werden den Druck aufrechterhalten. Vielleicht können 70 Prozent noch erhöht werden. Wir werden schauen, was wir noch verbessern können."
Nicht nur entfernten die Plattformen nun schneller und häufiger illegale Hasskommentare, so die Justizkommissarin. Sie hätten laut Kommissionsbericht auch ihre Systeme zum Melden illegaler Inhalte und ihre Zusammenarbeit mit Organisationen der Zivilgesellschaft verbessert und mehr Personal angestellt, um mögliche Verstöße zu bewerten.
"Alle sind zufrieden, außer vielleicht die Opfer"
Ganz anders sieht das Joe McNamee. Er ist Vorsitzender von EDRI, European Digital Rights. Der Dachverband vertritt Bürgerrechtsorganisationen aus ganz Europa: "Die Kommission hat anscheinend weder Interesse, noch die Macht, etwas Echtes durchzusetzen. Und weil die Kommission die echte Arbeit nicht machen kann und darf – laut der Mitgliedsstaaten – und will, haben wir drei Seiten Kodex."
McNamee kritisiert, dass die Plattformen laut Kodex zuerst überprüfen sollen, ob ein Inhalt gegen ihre eigenen Richtlinien verstößt. Nur wenn nötig – so heißt es im Kodex – müsse ein möglicher Gesetzesverstoß überprüft werden. Viele strafbare Äußerungen würden so nie zur Anzeige gebracht, fürchtet McNamee. Davon profitierten Mitgliedsstaaten, Plattformen und Täter: "Das heißt, dass die Polizei keine Berichte über illegale Inhalte kriegt, deshalb sind die Mitgliedsstaaten zufrieden. Die Plattformen werden nicht sagen, dass ihre Kunden etwas Illegales gemacht haben. Das heißt, dass sie nix Illegales gehostet haben, also sind sie zufrieden. Derjenige, der diese Inhalte hochgeladen hat, ist zufrieden, denn nur seine Berichte werden gelöscht. Alle sind zufrieden, außer vielleicht die Opfer und derjenige, der glaubt, dass das Gesetz etwas dazu zu sagen haben sollte."
In den Augen von Joe McNamee habe die Kommission am falschen Ende angefangen, das Problem zu lösen. Es beginne schon damit, dass die EU nur einen Rahmen dafür definiere, was man unter illegaler Hassrede und rassistischen Äußerungen zu verstehen habe. Jedes Mitgliedsland hat diesen Rahmen in nationales Recht umgesetzt. McNamee kann sich deshalb vorstellen, statt eines freiwilligen Kodex hier auf bindendes Recht zu setzen.
"Die Situation ist in Deutschland eine andere"
Justizkommissarin Vera Jourova will aber zunächst keine EU-Gesetzgebung. Angesichts der Erfolge des Verhaltenskodex sei es immer unwahrscheinlicher, dass man diese brauche. Die Situation sei in Deutschland eine andere, hier habe man größere Probleme mit Hassrede, so die Kommissarin. Deshalb sei hier das Netzwerkdurchsetzungsgesetz angemessen. Für die EU sei das aber kein Vorbild: "Das bringt einen großen Abschreckungseffekt mit sich, weswegen die IT-Firmen im Zweifel alles löschen. Das will ich für Europa nicht."
Etwas anderes seien jedoch Terror-Propaganda und Anleitungen zu terroristischen Akten. Das zu unterscheiden, darauf legt Vera Jourova großen Wert. "Hier muss der IT-Sektor verlässlich kooperieren. Und 100-prozentige Verlässlichkeit geht nur mit Gesetzgebung. Diesen Weg wird die Kommission wahrscheinlich gehen. Das wird im Mai entschieden werden."
Vor allem an der Transparenz, was mit gemeldeten Inhalten passiere, müsse noch gearbeitet werden. Zu wenige Nutzer erhielten hier eine Rückmeldung, so die Justizkommissarin. Außerdem wolle man erreichen, dass weitere Plattformen sich dem Verhaltenskodex verpflichten. Laut Vera Jourova hätten das Google Plus und Instagram bereits zugesagt.
Doppelmoral in der EU?
Auch EDRI-Chef Joe McNamee sieht die Gefahr des Zu-viel-Löschens. "Es ist ganz einfach für die Rassisten und die Extremisten zu sagen: 'Wir sind die Opfer. Die bösen amerikanischen Firmen und die böse Kommission löschen unsere Daten.' Werden wir herausfinden, dass wir einen Fehler gemacht haben? Nein. Warum nicht? Weil die Kommission die Daten nicht sammelt."
Die Kommission habe keine Daten über den tatsächlichen Umfang des Problems, so die Kritik von EDRI. In ihren Bericht hatte die Behörde knapp 3.000 gemeldete Postings einbezogen und die Reaktionen der Plattformen analysiert. Joe McNamee sieht hier eine Doppelmoral: Bei der Vorratsdatenspeicherung wolle man Daten von allen Bürgern sammeln, auch von Unverdächtigen. Bei Hate Speech sammele man keine Daten, obwohl hier die Täter leicht zu identifizieren seien.