Die Sprachen der Welt sind komplex. Nicht immer bedeutet das, was man schreibt, auch wirklich das, was man meint. Häufig ist es das zwischen den Zeilen Geschriebene, was den Unterschied ausmacht. Aus ebendiesem Grund kann sich Facebook beim Scannen von Beiträgen nicht ausschließlich auf Zahlen und Algorithmen verlassen, sondern benötigt Personal, das filtert, was gefiltert gehört – die Moderatoren.
Facebooks geheimes Regelwerk wurde geleakt
Doch auch Tausende Moderatoren, die weltweit ihrer wichtigen Aufgabe nachgehen, können nicht alles schaffen. Für Entscheidungen bleiben ihnen häufig nur wenige Sekunden und der Druck, der auf ihnen lastet ist hoch. Um sie bei ihrer Arbeit zu unterstützen hat Facebook ihnen ein Regelwerk zur Hand gegeben, das stets als gut gehütetes Geheimnis galt – zumindest bis heute.
Die geleakten Dokumente, knapp 1.400 Seiten ebendieses Regelwerks, fielen kürzlich der New York Times in die Hände. Es scheint kaum möglich sämtliche Facetten der „globalen politischen Rede“, wie es Facebook nennt, mittels eines einzigen Regelwerks zu erfassen. Noch unmöglicher erscheint es für einen Moderatoren all dies zu behalten und in kürzester Zeit anzuwenden.
Veraltet und ungenau
Selbst bei all diesen Hürden, die sich einem derartigen Regelwerk bereits von Natur aus in de Weg stellen, wird es noch um einiges Kritischer, wenn ebendieses auch noch Fehler aufweist. So wirkt es, als seien die Richtlinien bereits seit Jahren keiner gründlichen Überarbeitung unterzogen worden und auch die kritische Nuance bleibt nahezu gänzlich aus.
So scheinen Abschnitte der Sammlung mit Irrtümern des indischen Rechts einherzugehen und bezeichnen nahezu jede Religions-Kritik als „wahrscheinlich illegal“. Tatsächlich ist diese jedoch nur dann illegal, wenn sie die Intention verfolgt, Gewalt zu befeuern und entsprechend unbegründet geäußert wird. Ein Fehler in Myanmar erlaubte wiederum einer bekannten extremistische Gruppierung den monatelangen Verbleib auf der Plattform. Die Gruppe wurde mitunter für Völkermord verantwortlich gemacht.
Überforderte Moderatoren
Ebenso wie im Bezug auf Fake News lagert Facebook auch die Moderation des Netwerks bezüglich Hate Speech auf andere Unternehmen aus. Von den Mitarbeitern dieser Firmen wird erwartet, viele Posts in gerade mal acht bis zehn Sekunden zu prüfen. Nur die wenigsten von ihnen halten diese Arbeit länger als ein paar Monate aus – ganz zu schweigen von den Schock-Szenarien, die sie „irreperabel traumatisieren“.
Auch der Bug, der 2017 Moderatoren gegenüber Terrorverdächtigen bloßstellte spielt keine unwesentliche Rolle. Müssen Facebook-Mitarbeiter nun etwa um ihr Leben fürchten? Ihrem Ruf schaden sie schließlich bereits durch die Zusammenarbeit mit dem Netzwerk:
Bereits im Zuge von Facebooks Kampagne gegen Fake News wurde dem Konzern vorgeworfen, er betreibe lediglich Krisen-PR. „Sie nehmen nichts ernst. Sie sind mehr daran interessiert, sich gut aussehen zu lassen und den Buckel zu geben… Sie interessieren sich offensichtlich nicht dafür“, erklärte Brooke Binkowski, ehemaliger Chefredakteur von Snopes, einer Website zum Überprüfen von Fakten, die seit zwei Jahren mit Facebook zusammenarbeitet.
Fragwürdige Machenschaften bedrohen Facebooks Zukunft
Während Facebook alles daran legt, in seinem „Kampf“ gegen Hate Speech und Fake News ein gutes Bild abzugeben, beginnt der Heiligenschein doch nach und nach zu schwächeln. Immer mehr Kritiker wenden sich gegen den Konzern. Der Datenskandal um Cambridge Analytica brachte den Stein ins Rollen und nun scheinen immer neue rechtliche und ethische Vergehen den Facebook-Konzern heimzusuchen.
Nichtsdestotrotz scheinen die Bemühungen gegen Hate Speech zumindest von der deutschen Regierung anerkannt zu werden. So zog Gerd Billen, Staatssekretär für Justiz und Verbraucherschutz, erst kürzlich eine erste positive Zwischenbilanz zum Netzwerkdurchsetzungsgesetz (NetzDG). Gegenstimmen ließen nicht lange auf sich warten.