Bild nicht mehr verfügbar.

Donald Trump sah nach den rechtsextremen Demonstrationen in Charlottesville, bei denen ein Teilnehmer vorsätzlich in ein Gruppe Gegendemonstranten fuhr und eine Frau tötete, die Schuld auf "beiden Seiten".

Foto: AP / Evan Vucci

Ku-Klux-Klan-Teilnehmer waren bei den Charlottesville-Demonstrationen ebenso dabei wie Neo-Nazis, White Supremacists und Alt-Right-Unterstützern.

Foto: APA/AFP/ANDREW CABALLERO-REYNOLD

Eine neue Studie des "Network Contagion Research Institute" bestätigt abermals die gängige Vermutung, dass die Wahl Donald J. Trumps zum 45. US-Präsidenten, Rassismus und Antisemitismus in verschiedensten Internetforen gefördert hat. "In deiner Stadt gibt es vielleicht 100 Rassisten, aber in der Vergangenheit musstest du sie in der realen Welt treffen. Heute gehst du einfach online", wird einer der Studienautoren, Jeremy Blackburn, zitiert.

Die Wissenschaftler untersuchten dabei auch die Häufigkeit von rassistischen Schimpfwörtern in Sozialen Medien, fernab großer Plattformen wie Facebook seit Trumps Wahl. So fanden sie zum Beispiel heraus, dass sich antisemitische Kraftausdrücke in der berüchtigten Diskussionsgruppe "Politically Incorrect" auf der Seite 4Chan im Zeitraum zwischen Juli 2016 und Jänner 2018 annähernd verdoppelt haben. Beschimpfungen gegenüber der schwarzen Bevölkerung steigerten sich im gleichen Zeitraum um etwa 30 Prozent. Ein nach dem Vorbild von Twitter modelliertes Soziales Netzwerks namens Gab, welches sich nach eigener Auffassung der Meinungsfreiheit verschrieben hat, verzeichnete seit seiner Gründung im August 2016 eine Flut an Postings die "white" im Zusammenhang mit einer angeblichen Überlegenheit der "weißen Rasse" verbreiteten.

Verstärkungseffekte

Von besonderem Interesse für die Forscher war, ob und wie, Hetze von kleineren Randgruppen in den Onlinemainstream reichen kann. "Man kann nicht so tun, als würde diese Randerscheinung tatsächlich am Rand bleiben. Speziell nicht in der Ära des globalen Webs", lobte etwa Heidi Beirich, Direktorin des Southern Poverty Law Center die Forschungsergebnisse. Besonders durch den Einsatz von Memes, würden Menschen in Online-Randgruppen Content produzieren, welcher sich später in den Online-Massenmedien schnell verbreite. Innerhalb eines Jahres verbreitete sich etwa ein erstmals auf 4chan erstelltes antisemitisches Meme ("Making Hate Crimes Great Again"), zunächst über Gab, nur um später innerhalb eines Jahres mehr als 1.000 mal in der Gruppe "The_Donald" auf reddit in verschiedensten Abwandlungen gepostet zu werden.

Die Forscher beobachteten vor allem eine direkte Korrelation zwischen Ereignissen im wahren Leben und einem Anstieg von Hasspostings im Netz. Schulmassaker wie jenes in Portland oder die Neo-Nazi-Aufmärsche in Charlottesville im August 2017 waren demnach Schlüsselereignisse, die zu einer massiven Häufung rassistischer Einträge in den verschiedensten Foren führten.

Steigende Gewalt befürchtet

Vor allem aber befürchten die Forscher einen Wiederhalleffekt in die andere Richtung, sprich, dass der Hass aus dem Netz vermehrt in die reale Welt getragen wird und in physischer Gewalt gipfelt. "Du kannst eine Krankheit nicht bekämpfen, wenn du nicht weißt wo und wie sie entsteht und wie sie sich verbreitet", rechtfertigt der Studienleiter die Untersuchung.

Ein aktuelles Beispiel bekräftigt die Thesen der Forscher. Auf 4chan verbreitete sich in den vergangenen Tagen ein einer angeblichen Rabattaktion beigefügter QR-Code. Im fiktiven Gutschein der Firma "Nike" mit einem Konterfei von Ex-Footballstar Colin Kaepernick heißt es: "Um unsere Solidarität zu zeigen mit unseren Überzeugungen, glauben wir bei Nike daran, dass es unsere Pflicht ist dieses Angebot an alle farbigen Personen zu richten". Kaepernick hatte vor rund zwei Jahren eine Protestewelle in der amerikanischen Profi-Footballliga NFL ausgelöst, als er während der Nationalhymne kniete, um gegen die Polizeigewalt an der schwarzen Bevölkerung zu protestieren.

Der Gutschein wirbt mit angeblichen 75 Prozent Rabatt auf alle Nike-Artikel und solle nur in Filialen gelten. Wenn der QR-Code an der Ladentheke jedoch gescannt wird, scheint für den Verkäufer eine Meldung auf, die einen bewaffneten Raubüberfall suggeriert. In der angezigten Meldung heißt es: "Das ist ein Überfall. Machen sie keine ruckartigen Bewegungen und geben Sie alle großen Scheine in den Schuhkarton oder alle sterben."

Mangelnde Konsequenz auf Plattformen

Die Betreiber der kleineren Sozialen Netzwerke und Plattformen bekräftigen zwar zum Teil es den Branchenführern wie Facebook oder Twitter nachzumachen und hasserfüllten Content möglichst schnell zu löschen, wirklich umsetzen können und wollen es aber scheinbar nicht alle. Gab etwa antwortete auf die Vorwürfe mangelnder Unterbindung solcher Hasspostings: "Hass ist ein normaler Teil der menschlichen Existenz. Es ist eine starke Form der Abneigung gegenüber anderen. Es ist den menschlichen Trieben inne. Es ist natürlich. Kommt damit klar."

Bei reddit hingegen versucht man seit dem vergangenen Oktober verstärkt gegen Hetze vorzugehen und verbietet seither ausdrücklich Inhalte, welche Gewalt an Individuen oder Gruppen glorifizieren, fördern oder dazu aufrufen. Dennoch ist sich die Sprecherin der Webseite bewusst, dass es noch grobe Mängel zu beheben gilt: "Wir wissen, dass wir mehr tun müssen und wir werden weiter daran arbeiten unsere Richtlinien, die Durchsetzungsmechanismen und den Community-Support zu verbessern, um zu garantieren, dass reddit ein willkommener Ort für alle Menschen ist", so die Sprecherin. In Wahrheit ist jedoch auf all diesen Plattformen, auf kleineren wie auf größeren, noch jede Menge Arbeit nötig, um eine weitere Radikalisierung der Menschen im Netz zu verhindern. Über die richtige Methode wie dies geschehen soll, besteht indes noch Unklarheit. Die Forscher befürchten, dass sowohl Zensur als auch das Verbannen von Usern von bestimmten Seite lediglich zu einer Verlagerung in andere Foren führt. Umfangreiche Studien wie jene, dürften aber zu einem besseren Verständnis der Problematik führen. (faso, 23.9.2018)