Zwar wird der Druck auf Plattformen immer größer, bis es wirkliche Veränderungen geben könnte, dürften allerdings noch Jahre vergehen.

Foto: Reuters/Dado Ruvic

Die rassistischen Übergriffe auf die schwarzen England-Nationalspieler Jadon Sancho, Marcus Rashford und Bukayo Saka verdeutlichten am Sonntag nicht nur, wie stark Rassismus tatsächlich in unserer Gesellschaft verankert ist. Dass auch an den darauffolgenden Tagen noch zahlreiche solche Kommentare auf sozialen Medien zu finden sind, zeigt nämlich ebenso auf: Die Inhaltsmoderation der großen Social-Media-Plattformen funktioniert nicht.

Zwar betonen Branchenriesen wie Facebook immer wieder, vehement gegen extremistische Inhalte vorzugehen, effektiv scheinen diese Maßnahmen allerdings nicht zu sein. Ob die Mühen schlussendlich am fehlenden Willen oder schlechten Moderationssystemen scheitern, bleibt unklar. Einblick in die Entscheidungsfindung zu gewinnen ist nach wie vor unmöglich. Bekannt ist jedoch, dass die Moderation teilweise automatisiert stattfindet, neben menschlichen Mitarbeitern gibt es also Tools, die Hassrede erkennen können sollen.

Automatisiert und unzuverlässig

Das Problem ist: Die automatische Löschung rassistischer Inhalte ist in der Praxis nicht zuverlässig. Deshalb verlassen sich die Plattformbetreiber auf die Eigeninitiative von Nutzern, entsprechende Postings manuell zu melden, wenn sie von einer Verletzung der Community-Richtlinien ausgehen.

Zahlreiche Nutzer merkten jedoch an, dass teilweise auch gemeldete rassistische Postings nicht gelöscht wurden, berichtet "Cnet". Auch im STANDARD-Test zeigte sich, dass Instagram zwei eindeutig regelwidrige Kommentare nicht löschte. Eine menschliche Überprüfung fand in beiden Fällen allerdings nicht statt, die Plattform wies stattdessen darauf hin, dass das Review-Team sich die Meldung "aufgrund der vielen Meldungen, die bei uns eingehen", nicht ansehen konnte. Der Check erfolgte durch ein automatisiertes System. Auf Twitter wurden ähnliche Berichte geteilt:

In einem Statement gegenüber den Tech-Berichterstattern sagte eine Instagram-Sprecherin dazu, dass die Plattform "schnell Kommentare und Konten entfernt" habe, die die Fußballer rassistisch angriffen. Das Problem sei zwar nicht über Nacht zu lösen, aber man setze sich dafür ein, die Community vor Missbrauch zu schützen.

Häufig sehen die Netzwerke Moderationsentscheidungen jedoch als Graubereich, in dem sie zwischen freier Meinungsäußerung und dem Schutz vor Hassrede abwägen. Im Falle eindeutig rassistischer Übergriffe scheint die Sachlage allerdings keinesfalls ambivalent zu sein.

Bekanntes Problem

Zwar sind diese auch in den Community-Richtlinien als verboten aufgelistet. Es stellt sich allerdings die Frage, was theoretisch festgelegte Regeln für einen Nutzen haben, wenn sie in der Praxis nicht durchgesetzt werden. Social-Media-Plattformen dürften inzwischen nicht mehr von der rasanten Verbreitung rassistischer Beleidigungen, Drohungen und Übergriffen überrascht sein, begleitet das Phänomen die Dienste doch seit etlichen Jahren. Immer wieder kamen deshalb auch in der Vergangenheit Vorwürfe auf, sie würden Extremisten eine Plattform und die Möglichkeit bieten, sich online zu organisieren.

Allerdings scheinen insbesondere Facebook und dessen Tochterunternehmen nicht mit der Eindämmung ebensolcher Inhalte hinterherzukommen. Erst Anfang Juli wurde bekannt, dass das soziale Netzwerk deshalb US-Nutzer offen fragt, ob sie Sorge hätten, dass ihre Bekannten zu Extremisten würden. Ob die einflussreichen Konzerne abgesehen von diesen kleineren Einblicken an den eigenen Systemen und Vorgehensweisen arbeiten, ist hingegen völlig undurchsichtig. Es lässt sich zwar grundsätzlich attestieren, dass es offensichtlich rechtsextremen Akteuren in den letzten Jahren etwas unangenehmer gemacht wurde, gleichzeitig gibt es weiterhin keinen Zugriff auf jene Daten, auf denen Entscheidungen basieren (DER STANDARD berichtete).

Parler, Löschung und fehlende Moderation

Die Diskussion über die fehlende Löschung rassistischer Beiträge und von Gewaltaufrufen erinnert (entfernt) an die zwischenzeitliche Aufregung rund um die rechte Twitter-Alternative Parler. Nach dem gewaltsamen Sturm auf das US-Kapitol verschwand die Plattform monatelang aus dem Internet, Apple und Google entfernten sie aus ihren App-Stores, die Amazon Web Services stellten kurz darauf die Zusammenarbeit ein.

Der Vorwurf: Rechtsextremisten hätten sich dort im Vorfeld des 6. Jänner organisiert. Schnell wurde allerdings auch die Kritik laut, dass die Plattformbetreiber mit zweierlei Maß messen würden, da die Moderation bei Facebook, Twitter, Instagram und Co nicht viel besser sei – und vor allem die Reichweite und Nutzerzahlen jene von Parler um ein Vielfaches übersteigen.

Kein Interesse an härterem Vorgehen?

Parler stellte sich damals als "die erste Adresse für freie Rede" dar, die mangelhafte Moderation war also Teil der Unternehmensstrategie. Die Plattform lebte in gewisser Weise davon, dass sich konservative und teils rechtsextreme Personen dorthin flüchteten, weil sie die Löschung von Beiträgen oder gar ihrer Konten auf konventionellen Netzwerken befürchteten. Bedenkt man allerdings, dass Facebook – als Unternehmen, das sich durch Werbung finanziert – davon profitiert, dass rassistische User auch weiterhin seine Plattform nutzen, lässt sich ein selbstständiges Interesse an einem härteren Vorgehen gegen entsprechende Inhalte infrage stellen.

Sowohl in der Europäischen Union als auch in den USA scheint der Druck zwar immer stärker zu werden. Bis es tatsächlich zu klaren Entscheidungen oder gar veränderten rechtlichen Rahmenbedingungen kommen könnte, dürften allerdings noch Jahre vergehen – und der Schutz vor rassistischen Übergriffen weiterhin mangelhaft bleiben. (Mickey Manakas, 14.7.2021)