Die Apps von Facebook, TikTok, Twitter, YouTube und Instagram sind in dieser Abbildung auf einem Smartphone zu sehen
Meta, Tiktok, X und Youtube haben sich bislang nur vage geäußert, welche konkreten Maßnahmen sie ergreifen, um gegen die Verbreitung extremistischer Inhalte vorzugehen.
REUTERS/DADO RUVIC

Im Zuge der Eskalation des Konflikts zwischen Israel und der Hamas droht diese damit, Videos von Geiselerschießungen öffentlich zu verbreiten. Damit stellt sie die sozialen Netzwerke großer Technologieunternehmen vor die Herausforderung, die Verbreitung extremistischer Gewalt wirksam zu verhindern. Seit dem Angriff der Hamas am 7. Oktober hat der militärische Flügel der Gruppe angekündigt, für jeden israelischen Angriff auf den Gazastreifen eine israelische Geisel hinzurichten und diese Hinrichtungen in Audio- und Videoform zu verbreiten. Nach Angaben der israelischen Verteidigungskräfte hält die Hamas derzeit rund 220 Menschen als Geiseln fest.

Bei dem Angriff zu Beginn des Konflikts wurden auch Aufnahmen von Hamas-Kämpfern, die israelische Bürger töteten, live gestreamt. Nach dem Anschlag übernahm die Hamas die Kontrolle über die Konten der Geiseln auf Facebook und Instagram, um die Anschläge live zu übertragen und Todesdrohungen auszusprechen. Als Reaktion darauf haben große Tech-Unternehmen Ressourcen mobilisiert, um die Verbreitung solcher Inhalte nachzuverfolgen und zu verhindern. Über die konkreten Maßnahmen, die sie ergreifen, haben sie sich bislang hingegen nur vage geäußert. Meta, Tiktok, X (vormals Twitter) und Youtube haben zu diesem Zweck jedenfalls eigene Abteilungen ins Leben gerufen. Auf Nachfrage von "Wired", wie sie dem Live-Streaming ihrer Plattformen entgegentreten wollen, wenn die Hamas diese Funktion als Waffe einsetzen will, haben diese Unternehmen jedoch nur begrenzte Informationen geliefert. Häufig wurde lediglich auf allgemeine Richtlinie verwiesen.

Pause für Live-Streaming gefordert

Experten auf diesem Gebiet kritisieren die Social-Media-Unternehmen für ihren Mangel an Transparenz und behaupten, dass sie nicht die notwendigen Schritte unternehmen, um die Verbreitung von Hinrichtungsvideos auf ihren Plattformen zu verhindern. Sie argumentieren, dass die komplette Aussetzung von Live-Streaming-Funktionen während eines Konflikts wie diesem eine praktikable Lösung sein könnte. Imran Ahmed, CEO des Center for Countering Digital Hate, betont die Notwendigkeit, solche inszenierten "Spektakel", die durch diese live gestreamten Hinrichtungen entstehen sollen, zu beseitigen.

Ahmed kritisiert außerdem, dass die Plattformen bei der Identifizierung gewalttätiger extremistischer Inhalte nicht so effektiv sind wie bei der Identifizierung anderer Arten von Inhalten, z. B. urheberrechtlich geschützter Musik. Er betont, dass der Schutz von Menschenleben eine ebenso hohe Priorität haben sollte wie der Schutz von Eigentumsrechten. Die Plattformen sind jedoch besorgt, dass die Weitergabe zu vieler Informationen über ihre Methoden zur Inhaltsmoderation militanten Gruppen und deren Anhängern dabei helfen könnte, die bestehenden Maßnahmen zu umgehen.

Schwierige Kontrolle

Obwohl sich große Tech-Unternehmen aktiv gegen extremistische Inhalte einsetzen, sind sie weiterhin auf die Unterstützung gemeinnütziger Organisationen wie Tech Against Terrorism angewiesen. Diese Organisationen spielen eine entscheidende Rolle dabei, die Firmen auf aktuelle Inhalte von Gruppen wie der Hamas oder dem Palästinensisch-Islamischen Dschihad aufmerksam zu machen. Problematisch in der Verbreitung extremistischer Inhalte bleibt nach wie Telegram, der Messenger-Dienst ist bekannt für seine laxe Inhaltsmoderation, was wiederum das erneute Uploaden auf anderen Plattformen erheblich erleichtert.

Letztlich hängt die Fähigkeit dieser Plattformen, in der aktuellen Krise richtig zu handeln, auch von ihren algorithmischen Systemen und ihrer Vorbereitung auf derartige Ereignisse ab. Da die Situation unberechenbar bleibt, wird die Wirksamkeit dieser Plattformen bei der Bekämpfung der von der Hamas ausgehenden Bedrohung in den kommenden Tagen genau beobachtet werden müssen. (red, 24.10.2023)