Tiktok hat inzwischen eine Milliarde Nutzerinnen und Nutzer.

Foto: Reuters China Stringer Network

4,5 Milliarden Menschen, also mehr als die Hälfte der Weltbevölkerung, nutzen mittlerweile soziale Medien. Beliebte Plattformen wie Instagram, Facebook und Tiktok erlauben einem nahezu hürdenlos, mit Freunden in Kontakt zu bleiben, Nachrichten zu konsumieren – oder sich unterhaltsame Tanzvideos anzusehen.

Dass die zunehmende Vernetzung eine gefährliche Schattenseite birgt, hat sich im Laufe der Pandemie nochmals verdeutlicht: Seit bald zwei Jahren mobilisieren Impfgegner und Verschwörungserzähler ihre zunehmend gewaltbereite Gefolgschaft für Demonstrationen gegen die Regierung und ihre Maßnahmen.

Altbekannt und brandgefährlich

Ein neues Phänomen ist das nicht. Rechtsextreme und islamistische Gruppierungen nutzen Social Media schon lange für die Rekrutierung neuer Anhänger. Im Laufe der Jahre haben sie ausgeklügelte Strategien entwickelt, um schnell auf Trends zu reagieren – und ihr Zielpublikum auch dann zu erreichen, wenn dieses gar nicht nach extremistischen Inhalten sucht, erklärt Verena Fabris von der Beratungsstelle Extremismus.

Besonders gefährlich ist in dieser Hinsicht die Videoplattform Tiktok, die dank ihres Aufbaus vor allem junge Menschen begeistert – und inzwischen mehr als eine Milliarde aktive Nutzerinnen und Nutzer zählt. 60 Prozent von ihnen sind zwischen 16 und 24 Jahre alt. Damit fallen sie gleichzeitig in die Altersgruppe, für die Online-Präventionsangebote konzipiert werden, und in jene, auf die Extremisten abzielen, sagt der Politologe Rami Ali gegenüber dem STANDARD. Zum Vergleich: Die wichtigste Zielgruppe auf Instagram ist zwischen 25 und 34 Jahre alt.

Neben seiner Lehr- und Forschungsarbeit zu Extremismus-, Präventions- und Jihadismusforschung an der Humboldt Universität zu Berlin wirkt Ali seit einigen Jahren auch am partizipativen Online-Streetwork-Projekt Jamal al-Khatib mit, das im deutschsprachigen Raum als gelungenes Beispiel für Gegenerzählungen im Bereich der Extremismusprävention gilt. Basierend auf Erzählungen von Aussteigern aus der jihadistischen Szene wird dabei versucht, alternative Narrative zu etablieren.

Riskante Algorithmen

Aber zurück zu Tiktok: Öffnet man die App, landet man auf der "For You Page", wo einen unterhaltsame Videos mit musikalischer Untermalung begrüßen. Der Tiktok-Algorithmus beobachtet sofort – und ausgesprochen präzise – das eigene Nutzungsverhalten. Schaue ich also bestimmte Videos länger an als andere, werden mir in Zukunft ähnliche Beiträge vorgeschlagen. Auf diesem Weg können sich schnell rassistische Inhalte, meist getarnt als Satire, in den eigenen Feed hineinschleichen, warnt der Politologe.

Vor allem bei Jugendlichen ist die chinesische Kurzvideoplattform Tiktok beliebt
Foto: Reuters / Dado Ruvic

Die Motivation des Nutzers, also ob er ein Video aus Neugier oder ideologischer Überzeugung angesehen hat, sei dem Algorithmus dabei egal. Wer bestimmte Dinge anschaut, kriegt mehr vom Selben zu sehen, sagt Ali. Für Inhaltsproduzenten bedeute dieser Mechanismus jedoch, ohne weiteres Zutun eine riesige Anzahl von Menschen zu erreichen. Schnell mische sich so harmlos verpackter Extremismus unter lustige Koch- und Tanzvideos.

Ein prominentes Beispiel dafür ist der islamische Prediger Abul Baraa. In scherzhaft aufbereiteten Videos beantwortet er zum Beispiel die Frage, ob man als Muslim eine Vollkaskoversicherung für das eigene Auto abschließen dürfe – oder ob diese haram, also verboten seien. Der Beitrag erreichte 2,9 Millionen Views, berichtet der Bayerische Rundfunk. Dabei ist Baraa laut dem niedersächsischen Verfassungsschutz ein überregional bekannter Prediger der salafistischen Szene, der mit vergleichbaren Inhalten seine Standpunkte normalisiert.

Ausgeklügelte Strategien

Auch Videos mit nationalsozialistischen Inhalten sammeln teils Millionen Klicks, wie eine Studie des Institute for Strategic Dialogue zu Hassinhalten auf Tiktok aufzeigte. Gefährlich macht die Plattform laut den Forschern, dass sie neue Methoden für die Verbreitung extremistischer Inhalte hervorgerufen hat. Automatisierte Moderationssysteme werden demnach schlicht mit Popsongs und Rechtschreibfehlern ausgetrickst.

In einer Stichprobe von 1.030 Videos seien ungeheuerliche Inhalte über alle möglichen Gruppen zu finden. Rassistische Videos, die sich gegen Asiaten richten, nutzen zum Beispiel häufig den Covid-19-Hashtag, um die Inhalte an Personen heranzutragen, die diese sonst nie sehen würden.

Fast die Hälfte der untersuchten Beiträge zeigte jedoch neonazistisches Material. Teilweise waren Aufnahmen aus dem Livestream des Christchurch-Attentäters zu sehen, aber auch Personen, die direkt aus seinem Manifest vorlesen. Meist wurde in den Beiträgen auf verschlüsselte Messengerkanäle verlinkt, wo noch radikalere Inhalte zu finden waren.

Die automatisierte Moderation tricksten Akteure aus, indem sie einzelne Buchstaben in einem gesperrten Satz oder Accountnamen austauschten oder einen Hashtag absichtlich falsch schrieben. Außerdem kommt laut den Forschern die "Stitch"- und "Duett"-Funktion zum Einsatz, um rechtsextreme Inhalte mit anderen, harmlosen Videos zu verknüpfen.

Subtil oder direkt

Grundsätzlich müsse man laut Ali zwischen subtilen und direkteren Inhalten unterscheiden, die konfrontativer und offen menschenfeindlich sind: Während man erstere noch immer auf Instagram, Youtube, Twitter und eben auch Tiktok findet, mussten Rechtsextreme für letztere schon vor einiger Zeit auf Plattformen wie Telegram, Gaming-Apps wie Discord oder Imageboards wie 4chan ausweichen. Jihadisten setzen wegen strengerer Regulierungen hingegen auf alternative Messenger wie Gab Chat und Hoop Messenger.

Rechtsextreme müssen schon länger auf Messenger wie Telegram ausweichen.
Foto: imago images/photothek

Dennoch erreichen Akteure aus dem salafistischen oder auch panislamistischen Spektrum weiterhin große Reichweiten auf Mainstream-Plattformen. Vor allem letztere greifen abseits von religiösen häufig "politische Themen auf, prangern die Diskriminierung von Muslimen an und greifen "den Westen" oder "die Medien" an", führt er aus.

Prävention, aber wie?

Eine erfolgreiche Präventionsarbeit im Internet werde durch diese Ausgangssituation auf mehreren Ebenen erschwert. Ein grundlegendes Problem sei zum Beispiel, dass Akteure viel zu lange brauchen würden, um auf Trends und technologische Entwicklungen zu reagieren. Das habe man schon bei "alten" Plattformen wie Instagram und Youtube beobachten können, wo sich extremistische Akteure längst eingenistet hatten, bevor die ersten Gegenangebote auftauchten.

Allerdings gibt es auch strukturelle Hürden: Haben Projektträger ein Problem identifiziert und eine potenzielle Lösung dafür gefunden, müssen sie sich erstmal nach Geldgebern umsehen, Projektanträge schreiben und auf die Genehmigung ebendieser warten. Viele Ressourcen würden deshalb für organisatorische und bürokratische Arbeit verloren gehen, sagt Ali.

Gegenangebote seien außerdem oft nicht authentisch genug, weshalb sie die gewünschte Zielgruppe nicht ansprechen. Gerade die Tatsache, dass Projekte meist mit staatlichen Mitteln finanziert werden, nutzen Extremisten laut dem Politologen für ihre Zwecke. "Man hört dann etwa, dass der Staat mittels dieser 'Propaganda' versuche, einen 'staatsgenehmen Islam' zu etablieren, der natürlich im Widerspruch zum eigenen, vermeintlich einzig richtigen Islam steht." Derartige Angriffe wirken laut ihm unabhängig davon, wie authentisch der Inhalt ist: "Die Logik dahinter ist einfach und für alle nachvollziehbar: Die 'Quelle' ist 'verschmutzt', also ist es der Inhalt auch."

Mehr Handlungsspielraum

Auf kurzlebige, schnell auftretende Social-Media-Trends – die von Rechtsextremen und Islamisten aufgegriffen werden – kann wegen der Strukturen kaum reagiert werden. Laut Ali brauche es deshalb dringend eine Flexibilisierung und Individualisierung der Förderlandschaft. Das fordere vor allem politischen Willen und Mut, neue Wege zu gehen, damit Projektträger mehr Spielraum haben, um auch Dinge ausprobieren zu können.

Diese Position teilt auch Džemal Šibljaković, Leiter der Sozialabteilung der Islamischen Glaubensgemeinschaft Österreich (IGGÖ). Für ihn zählen die starren Strukturen von Geldgebern zu den schwerwiegendsten Hürden der Online-Präventionsarbeit. "Unabhängig davon fehlt es auch zum Teil an Mut seitens vieler Institutionen, in diesem Feld proaktiv tätig zu werden und neue Sachen auszuprobieren", sagt er gegenüber dem STANDARD.

Tiktok und die jungen Menschen

Soziale Medien seien laut ihm deshalb so gefährlich, weil diejenigen, die dort alternative Narrative anbieten sollten, untätig bleiben: "Extremistische Prediger haben sich in so gut wie jedem Medium breit machen können", sagt Šibljaković. Alle davon hätten gemeinsam, dass sie zu spät als relevanter Arbeitsbereich wahrgenommen wurden.

Häufig finden sich auf Tiktok kurze Tanzvideos, hinterlegt mit Popmusik.
Foto: AFP / Miguel Medina

Aufgrund des im Vergleich zu anderen Diensten viel präziseren Algorithmus und der großen Relevanz bei jungen Menschen müsse man laut Ali dennoch Tiktok besondere Aufmerksamkeit schenken, und Projektträger sollten überlegen, wie sie ihre Inhalte auf die Plattform heben. Aus seiner Sicht hätte die Videoplattform dann das Potenzial, die Präventionsarbeit nach vorne zu katapultieren. Allerdings nutzen bisher nur radikale Akteure die Möglichkeiten des Dienstes aus.

Kaum Extremismusprävention?

Laut Verena Fabris von der Beratungsstelle Extremismus ist das Problem jedoch viel grundlegender: Abgesehen von kleineren Projekten, wie Jamal al-Khatib, würde in Österreich quasi keine Online-Extremismusprävention existieren. In Deutschland gebe es zwar eine größere Projektlandschaft, die Reichweite ebendieser sei allerdings bei weitem nicht so groß, dass sie mit neosalafistischen Seiten konkurrieren könnte.

"Es geht also aus meiner Sicht weniger um ein mögliches Scheitern der Online-Präventionsarbeit, sondern darum, dass sie kaum stattfindet", sagt Fabris. Obwohl es seit Jahren einen Konsens darüber gebe, dass das Internet eine entscheidende Rolle im Radikalisierungsverlauf spielt, gebe "es in Österreich kaum öffentliche Gelder für Forschung, Monitoring von Online-Aktivitäten extremistischer Gruppierungen oder auch spezifische Online-Präventionsprojekte". Laut Fabris brauche es deshalb spezifische Förderprogramme, gefordert sei in erster Linie die Politik.

Ausblick

Erste Schritte könnten laut Ali in der Zwischenzeit Islamverbände setzen. Als Vertreter der muslimischen Communitys sollten diese den salafistischen Akteuren nicht die Deutungshoheit über die eigene Religion überlassen. "Salafisten betrachten ihre Online-Präsenz als gottesdienstliche Handlung, für die sie im Jenseits belohnt werden", sagt er. Man müsse deshalb auch ohne Unterstützung aktiv werden und die muslimische Vielfalt sichtbar machen.

Die IGGÖ sagt auf Anfrage, das eigene Social-Media-Angebot schon seit mehreren Jahren auszubauen. Derzeit arbeite man an mehreren Formaten, mit denen möglichst viele Zielgruppen erreicht werden sollen. Einen erfolgreichen Durchbruch im besprochenen Feld der Online-Prävention habe man aber nicht erzielen können.

Darüber, dass es Handlungsbedarf für allen beteiligten Akteure gibt, sind sich die Expertinnen und Experten jedenfalls einig. Wie schnell sich die Ausgangssituation für Präventionsarbeit im Internet tatsächlich verändern wird, hängt allerdings von mehreren Faktoren ab.

Einerseits müssen Projektträger rasch realisieren, wie relevant Tiktok für junge Menschen ist und welche Chancen die Plattform auch ihnen bietet. Andererseits ist die Politik unter Zugzwang, die Förderstrukturen auszubauen und zu flexibilisieren. Verändern sich jedoch die Rahmenbedingungen nicht, werden extremistische Narrative der Gegenrede immer einen Schritt voraus sein. (Mickey Manakas, 4.12.2021)