Laut Forschern des ISD ist die Inhaltsmoderation zu intransparent.

Foto: Reuters/Dado Ruvic

Antiasiatische und Videos mit nationalsozialistischen Inhalten sammeln auf Tiktok teils Millionen Klicks, zeigt die bisher größte unabhängige Studie zu Hassinhalten auf der Kurzvideoplattform. Um die automatische Moderation zu umgehen, nutzen User häufig Popsongs – und Rechtschreibfehler.

Laut dem Institute of Strategic Dialogue (ISD), einem in London ansässigen Thinktank zur Bekämpfung von Extremismus, ist Tiktok "bei denjenigen beliebt, die Onlineräume nutzen wollen, um Hass und Extremismus zu produzieren, zu posten und zu fördern". Im Rahmen der Studie zeigte sich zudem, dass einige der führenden rassistischen und terroristischen Inhalte von Australiern stammten oder sich auf diese beziehen, berichtet der dort ansässige Nachrichtensender ABC.

Beispielsweise soll in einem Video mit mehr als zwei Millionen Views ein weißer Mann dabei zu sehen sein, wie er eine Fledermaus isst und damit auf rassistische Stereotype über Chinesen anspielt. In anderen Beiträgen sieht man einen Mann, der sich als Schwarzer oder als Polizist verkleidet, um den Mord an George Floyd nachzustellen. Dieser löste vergangenes Jahr die weltweiten Black-Lives-Matter-Proteste aus.

Neuer Soundtrack gegen Sperre

Dass Social-Media-Plattformen auch von Extremisten genutzt werden, ist bekannt. Unternehmen wie Facebook haben schon lange mit dem Vorwurf zu kämpfen, diesen eine Plattform zu bieten. Den Experten zufolge hat Tiktok allerdings neue Methoden hervorgerufen, um die Inhalte zu verbreiten und anschließend automatische Offlinenahmen zu verhindern.

"Tiktok ist bekanntermaßen eine recht schwierig zu untersuchende Plattform. Zum einen ist sie noch recht neu, auf der anderen gibt es keine wirkliche Methodik", sagt Ariel Bogle, ein Analyst am International Cyber Policy Centre (ICPC). "Außerdem ist sie durch einen Algorithmus gesteuert, der sehr undurchsichtig geblieben ist." In einer Stichprobe von 1.030 Videos seien ungeheuerliche Inhalte über alle möglichen Gruppen zu finden. Rassistische Videos, die sich gegen Asiaten richten, nutzen dabei häufig den Covid-19-Hashtag, um die Inhalte an Personen heranzutragen, die sie sonst nie sehen würden.

Fast die Hälfte der Beiträge in der Stichprobe waren zudem nationalsozialistisches Material. Teilweise waren Aufnahmen aus dem Livestream des Christchurch-Attentäters zu sehen, aber auch Personen, die direkt aus seinem Manifest vorlesen. Entsprechende Inhalte sind in vielen Ländern illegal und verlinken offenbar nicht selten auf einen verschlüsselten Messenger-Kanal mit nochmals extremistischerem Material. Außerdem konnte festgestellt werden, dass auch Anhänger transfeindlicher Gruppen oder jene der "Men Go Their Own Way"-Ideologie – eines Ablegers der frauenfeindlichen Incel-Bewegung – sich auf der Plattform zu versammeln scheinen.

Löschung erst nach aktivem Hinweis

Bei Abschluss der Studie waren laut dem ISD 80 Prozent der Videos immer noch online, zu einer Löschung der restlichen Beiträge kam es laut ABC erst durch die aktive Meldung des britischen Thinktanks.

Zwar sagt Tiktok selbst, dass der Großteil aller Inhalte, die gegen die Nutzungsbedingungen verstoßen, innerhalb von 24 Stunden gelöscht werde. Allerdings gibt mehrere Funktionen, die für die Umgehung der automatischen Moderation genutzt werden können. Dazu gehört etwa, einen einzelnen Buchstaben in einem gesperrten Satz oder Accountnamen auszutauschen oder einen Hashtag absichtlich falsch zu schreiben.

Zudem werden die "Stitch"- und "Duett"-Funktionen genutzt, um nationalsozialistische Inhalte mit anderen Videos zu verknüpfen und so eine Löschung zu verhindern. "Es ist immer eine Art Katz-und-Maus-Spiel mit der Moderation auf Tiktok", sagt Bogle. Wenn Accounts gelöscht wurden, sollen Inhalte einfach von anderen Personen und mit neuem Soundtrack erneut hochgeladen worden sein. Um eine erzwungene Stummschaltung von Beiträgen zu verhindern, die die Richtlinien verletzen, kamen Lieder aus dem App-Katalog zum Einsatz. Besonders beliebt ist dabei offenbar "Little Dark Age" der Band MGMT.

Zu wenig Transparenz

Laut Ciaran O'Connor, dem Autor der ISD-Studie, ist Tiktok zwar anzurechnen, dass die meisten gemeldeten Videos weniger Aufmerksamkeit erhielten. Dennoch brauche es mehr Transparenz bezüglich der Vorgehensweise bei der Inhaltsmoderation: "Es gibt eine Lücke in der Durchsetzung von Tiktoks Ansatz gegen Hass und Extremismus ... diese Inhalte werden entfernt, aber inkonsequent", sagte er. Eine Sprecherin der Plattform erwiderte in einem Statement, dass man die Forschung des ISD wertschätze und Tiktok gewalttätigen Extremismus und hasserfülltes Verhalten kategorisch verbiete. (mick, 26.8.2021)