Bild nicht mehr verfügbar.

Schon bei der Eindämmung der Verbreitung der Aufnahmen des Christchurch-Attentats hatte Facebook große Mühe.

Foto: Reuters

Der Terroranschlag in der Wiener Innenstadt vom Montagabend hat auch in sozialen Medien für Aufregung gesorgt. Und es dauerte nicht lange, bis dort auch erste Falschinformationen und Videoaufnahmen aus dem ersten Bezirk kursierten.

Auch wenn mehrere Plattformen unfreiwillig zur Verbreitung solcher Inhalte genutzt wurden, sorgte vor allem der Ablauf auf Facebook für einige Kritik. Das weltweit größte soziale Netzwerk hatte seinen sogenannten "Safety-Check" aktiviert – mit problematischen Folgen.

Der Safety-Check ist dafür gedacht, dass Nutzer, die sich zum Zeitpunkt von Naturkatastrophen, großen Unfällen und auch Attentaten und Amokläufen in der Nähe befunden haben, als "sicher" markieren können, wenn sie nicht betroffen oder außer Gefahr sind. Dies ist für ihre Freunde sichtbar und hilft, Ungewissheiten schneller zu bereinigen und gegebenenfalls auch die Kommunikationskette zu beschleunigen.

"Crisis-Response" mit Kollateralschaden

Allerdings richtet Facebook über einen Teilautomatismus namens "Crisis-Response" auch eine Art Forum für Nutzer in der unmittelbaren Umgebung eines solchen Ereignisses ein, wie der Datenschützer Wolfie Christl auf Twitter berichtet. Das geschah auch im Rahmen des Attentats in Wien. Inolvierte Nutzer konnten dort Inhalte hochladen, eine Moderation fand scheinbar nicht statt. Selbst Stunden später war es Usern möglich, dort "toxisches Zeug" zu posten, dokumentiert Christl. Er wirft Facebook grob verantwortungsloses Vorgehen vor.

Auch in den Timelines mancher Nutzer landeten die teils verstörenden Aufnahmen, die unter anderem zeigen, wie ein Täter einen Passanten erschießt. Diese wurden mitunter auch automatisch abgespielt. Mit Verzögerung ging Facebook schließlich gegen diese Uploads vor. Nicht immer aber wurden sie sofort gelöscht, sondern teilweise nur hinter einer Warnmeldung bezüglich "möglicher Gewalt" verborgen, die sich mit einem Klick umgehen ließ.

Gegenüber dem STANDARD bestätigt das Innenministerium, dass man in Kontakt mit Facebook und auch Twitter stehe. Genaueres zu den getroffenen Absprachen wollte man derzeit nicht erläutern, es gehe aber jedenfalls auch "um das Löschen diverser Videos".

Ein Facebook-Sprecher äußerte sich zur Causa: "Wir sind schockiert über die Ereignisse in Wien und sind in Gedanken bei den Opfern und ihren Angehörigen. Seit gestern Abend sind unsere Teams dabei, Inhalte im Zusammenhang mit dem Anschlag von Facebook und Instagram zu entfernen, die gegen unsere Richtlinien verstoßen. Das gilt auch für Bilder und Videos in unserem Crisis-Response-Tool."

Erinnerung an Christchurch-Aufnahmen

Es ist nicht das erste Mal, dass Facebook bei der Entfernung solcher Inhalte Probleme hat. So konnte der Attentäter, der 2019 zwei Moscheen im neuseeländischen Christchurch angriff, seine Tat über 17 Minuten lang live übertragen, ehe der Stream seitens Facebook abgedreht wurde. Danach kursierten die Aufnahmen noch in vielfacher Ausführung auf der Plattform. Allein in den ersten 24 Stunden entfernte das Netzwerk nach eigenen Angaben das Video 1,5 Millionen Mal, wobei es in 1,2 Millionen Fällen bereits vor dem Upload herausgefiltert worden wurde. Es dauerte allerdings mehrere Tage, bis die Verbreitung weitestgehend vollständig eingedämmt werden konnte.

Dem Netzwerk stellen sich dabei zweierlei Probleme. Die schnelle Reaktion auf Inhalte zu Amokläufen, Terroranschlägen und ähnlichen Ereignissen benötigt große Personalressourcen, da gerade bei Gewaltaufnahmen eine algorithmische Erkennung kaum möglich ist. Diese muss nach Meldungen durch User von menschlichen Moderatoren vorgenommen werden. Erst dann kann auch eine automatische Blockade oder Löschung der Aufnahmen auf Basis der Metadaten und des digitalen "Fingerabdrucks" der Videos erfolgen.

Doch auch dieser garantiert nicht, dass jede Version problematischer Aufnahmen erkannt wird. Mitunter können schon kleine Änderungen – etwa das Einfügen von Texten oder andere Überlagerungen – dazu führen, dass ein Clip für das System wie ein völlig neues Video erscheint. Der Kontrollprozess, beginnend mit der Meldung durch Nutzer, muss dann erneut in Gang gesetzt werden. (gpi, sum 3.11.2020)