Archiv

Lösch-Richtlinien bei Facebook
Tierquälerei darf man zeigen, Gewalt nur manchmal

Die Bundesregierung will Facebook und andere soziale Netzwerke verpflichten, strafbare Inhalte schnell zu löschen. Interne Schulungsunterlagen von Facebook, die dem „Guardian“ vorliegen, zeigen aber: Das könnte schwierig werden.

    Die Internetseite von facebook ist auf einem Laptop zu sehen.
    Facebook hat offenbar eine Vielzahl von Regeln zum Löschen kritischer Inhalte (picture alliance / dpa / Oliver Berg)
    Die Facebook-Mitarbeiter sehen sich dabei einer Flut von Meldungen gegenüber. Laut dem „Guardian“ gehen jede Woche allein 6,5 Millionen Beiträge über Konten von nichtexistenten Nutzer ein, sogenannter Fake Accounts.
    Dazu kommen Hasskommentare und Beiträge, in denen Gewalt, Terrorismus, Pornografie, Rassismus oder Selbstverletzungen vorkommen. Ob die Inhalte tatsächlich strafbar sind, klären dort Moderatoren anhand komplexer Richtlinien.
    Nur wenige Sekunden Zeit, um zu entscheiden
    Nach Informationen der Zeitung fühlen sich Mitarbeiter mit ihrer Arbeit überfordert. Oft blieben ihnen nur wenige Sekunden Zeit, um zu entscheiden, ob ein Inhalt gelöscht wird. Die Zeitung zitiert einen Informanten mit den Worten: „Facebook kann seine Inhalte nicht unter Kontrolle halten, es ist zu schnell zu stark gewachsen.“ Die Mitarbeiter kritisieren die Richtlinien demnach zum Teil als widersprüchlich und eigenartig, komplex und verwirrend.
    Einige Beispiele:
    • Selbsttötung: Live-Videos von Selbstverletzungs-Versuchen sollen nicht gelöscht werden, weil Facebook nach eigenen Angaben nicht Menschen zensieren oder bestrafen will, die in einer Notlage sind.
    • Tierquälerei: Videos dürfen generell geteilt werden. Das Argument: Durch sie könne auch ein Bewusstsein geschaffen werden – gegen Tierquälerei. Nur besonders erschütternde Bilder werden demnach markiert.
    • Gewalt: Nach Ansicht von Facebook ist nicht jeder Aufruf zu einer Gewalttat auch ernst gemeint. „Menschen benutzen gewalttätige Sprache, um ihren Frust loszulassen. Sie fühlen sich sicher auf der Seite.“ Erst wenn durch den Kontext klar werde, dass jemand eine Gewalttat plane, soll reagiert werden. Aber auch dann gibt es Unterschiede: „Lass uns ein paar fette Kinder verprügeln“ oder „einen Rothaarigen treten“ darf laut den Richtlinien gepostet werden. „Jemand sollte Trump erschießen“ oder „steche zu und werde zum Schrecken der Zionisten“ muss gelöscht werden.
    „Es wird immer Grauzonen geben“

    Facebook begründete die Richtlinien mit der Diversität der Nutzer. Monika Bickert, die bei dem Netzwerk für die globale Produktpolitik zuständig ist, sagte dem „Guardian“, die Facebook-Nutzer seien sehr verschieden. Sie hätten unterschiedliche Ansichten darüber, welche Inhalte in Ordnung seien und welche nicht. „Ganz egal, wo man die Grenze zieht, es wird immer Grauzonen geben“.
    Damit umreißt sie das Grundproblem, dem Facebook gegenübersteht: Einerseits wie ein Verleger Verantwortung für die Inhalte übernehmen, die gepostet werden, andererseits die Meinungsfreiheit zu schützen.
    (at/hba)