Bild nicht mehr verfügbar.

Im November will man erstmals umfassend über den eigenen Kampf gegen Terrorismus informieren.

Foto: Reuters

Wieder einmal muss Facebook vor den US-Kongress ausrücken. Dort will das Justizkomitee vom Social-Network-Riesen sowie seinen Konkurrenten Google und Twitter wissen, welche Maßnahme man im Umgang mit Hassrede und Gewaltaufrufen setzen möchte. Kurz vor der Anhörung hat Facebook nun eine Reihe von Maßnahmen für seine Plattformen (Facebook, Whatsapp, Instagram) präsentiert.

Der US-Politik geht es diesmal dabei primär um den Umgang mit terroristischen Organisationen, wie aus einem gemeinsamen Brief Abgeordneter aus beiden Parteien. Schlagzeilen hatte Facebook aber auch auf andere Weise gemacht. Der Attentäter von Christchurch konnte einige Zeit seine Taten per Livevideo vor der ganzen Welt verüben. Und die ursprünglich auf 8chan geposteten Pläne des Täters in El Paso kursierten auch auf anderen sozialen Medien, darunter Facebook.

26 Millionen Inhalte "proaktiv" entfernt

Bei Facebook erklärt man, man habe in den letzten beiden Jahren technisch massiv aufgerüstet, um Hassinhalte schneller zu erkennen. Man erkenne Hass- und Terrorgruppen nicht an ihrer Ideologie, sondern an ihrem Verhalten auf der Plattform. Neben internationalen Terrororganisationen wie Al-Kaida oder dem IS habe man etwa auch mehr als 200 Gruppierungen im Bereich des weißen Nationalismus aus dem Netzwerk geworfen. 99 Prozent der erkannten und gelöschten Inhalte, insgesamt 26 Millionen Inhalte, habe man selbst "proaktiv identifiziert", noch bevor sie von irgendeinem User gemeldet worden waren.

Künftig wird Facebook keine Links mehr von einer Reihe weiterer Quellen zulassen. Das betrifft auch einige Foren auf berühmt-berüchtigten Seiten wie 4chan und 8chan.

Der Livestream von Christchurch habe deswegen keinen Alarm ausgelöst, weil die eigenen, KI-gestützten Systeme bislang kaum mit Inhalten von Gewaltakten aus Ich-Perspektive gefüttert worden waren. Um diese Scharte auszumerzen, verarbeitet man nun Videos aus Schusswaffentrainings von Sicherheitsbehörden in den USA und Großbritannien. Dabei will man auch vermeiden, versehentlich "fiktionale" Inhalte, wie etwa Ausschnitte aus Videospielen, unabsichtlich zu löschen.

Neue Terrordefinition

Man schafft man außerdem eine neue Definition zur Einstufung von Terrorismus in den Gemeinschaftsrichtlinien. Statt sich auf Gruppen zu beschränken, die Gewaltakte zur Durchsetzung ideologischer, politischer und religiöser Ziele einsetzten oder unterstützten, inkludiert man nun alle Personen und nichtstaatlichen Organisationen, die sich an Gewalt gegen Zivilisten beteiligen oder diese gutheißen. Künftig sind damit beispielsweise auch weiße Nationalisten und andere bisher nicht erfasste Gruppierungen abgedeckt.

Seit März versuche man außerdem gezielt Menschen davon abzuhalten, Hassgruppen anheimzufallen. Wer nach einschlägigen Inhalten sucht, wird an Organisationen verwiesen, die Wege aus der Hassspirale zeigen sollen. Weiters habe man entsprechend früheren Ankündigungen das eigene Team für die Bekämpfung von extremistischen Inhalten ausgebaut. 350 Personen mit Expertise aus verschiedenen Bereichen wie Terrorismusbekämpfung oder Deradikalisierung seien nun für die Leitung der Anstrengungen verantwortlich.

Im November will man im eigenen Transparenzbericht zu den Gemeinschaftsrichtlinien nicht nur ausweisen, welche Fortschritte man im Kampf gegen islamistische Terrororganisationen gemacht hat. Erstmals sollen in diesem Bericht alle Gruppen inkludiert werden, die von Facebooks Definition erfasst werden.

"Oversight Board" soll externe Kontrolle bringen

Gegenüber der "New York Times" gibt sich Evelyn Duek, Expertin in Sachen Gesetzgebung zu Meinungsfreiheit im Netz, ob der Ankündigungen vorsichtig positiv. Solche Berichte seien oft ein "Transparenztheater" und würden viele Informationen ohne brauchbaren Kontext enthalten, warnt sie allerdings. Daher enthalte sie sich einer endgültigen Meinung, bis der Bericht auf dem Tisch liegt.

Erstmals sprach Facebook auch öffentlich über die Schaffung eines Kontrollgremiums, "Oversight Board" genannt. Dieses soll bereits seit über einem Jahr in Entwicklung sein und sich etwa mit Fällen befassen, in denen User die Löschung von ihnen geposteter Inhalte für ungerechtfertigt halten. Unabhängige Experten sollen dabei die inhaltlichen Entscheidungen von Facebook prüfen und bei strittigen Fällen ein Urteil fällen, wenn die Moderatoren des Konzerns zu keiner endgültigen Lösung kommen.

Im ersten Schritt wird der "Rat", der Anfang 2020 seine Arbeit aufnimmt, mit elf Teilzeitmitgliedern bestückt, insgesamt sollen einmal 40 Personen mit unterschiedlichen Hintergründen und Expertisen dort vertreten sein und auch die Möglichkeit haben, Entscheidungen von Facebooks eigenen Mitarbeitern zu revidieren. (gpi, 18.9.2019)