De-Platforming wird in den letzten Jahren in immer mehr Bereichen angewandt.

Foto: APA/Georg Hochmuth

Donald Trump, "Querdenker" und QAnon-Verschwörer: Was diese Personen eint, ist, dass sie in den letzten Wochen verstärkt ihre Onlinepräsenz verloren haben. Denn Gewaltaufrufe und die Verbreitung gefährlicher Falschinformationen über die Corona-Pandemie führten zu tausenden Kontosperren. Konservative, Rechte und Verschwörungserzähler könnten dadurch weiter in die Tiefen von Alternativ-Diensten wie Telegram getrieben werden. Das wirft die Frage auf: Wie wirksam ist De-Platforming wirklich?

Vor allem bezüglich der Löschung Trumps von quasi allen etablierten Onlineplattformen gingen die Meinungen auseinander. Heiß diskutiert wurde deshalb, ob Twitter, Facebook und Google tatsächlich einen amtierenden US-Präsidenten von ihren Diensten ausschließen dürften. Ja, sagen die Betreiber: Denn die unzähligen Verstöße gegen mehrere klar ausformulierte Nutzungsbedingungen erlauben die Entfernung eines Nutzers. Ganz so einfach ist die Sachlage allerdings nicht wirklich.

Hausregeln und zu viel Macht

"Den Plattformen steht es zu, als Privatunternehmen festzulegen, mit wem sie in ein Verhältnis eintreten wollen und welche Regeln für dieses gelten. In Bezug auf Trump geht es dabei weniger um die rechtlichen Fragen, das ist eine politische Diskussion", erklärt der Extremismusforscher Jakob Guhl im STANDARD-Gespräch. Laut ihm sei allerdings eine Diskussion darüber unvermeidlich, ob diese Plattformen zu viel Macht haben.

Die Löschung eines amtierenden Präsidenten besitze nämlich "deutlich mehr Sprengkraft als die Löschung einer rechtsextremen Gruppierung". Allerdings, hebt Guhl hervor, sei die Rechtfertigung in Trumps Fall relativ offensichtlich, da sich die Plattformen auf konkrete Verhaltensweisen beriefen, die Trump zu- und nachgewiesen werden könnten.

Trotz allem gab es laute Protestrufe, und zahlreiche republikanische Politikerinnen und Politiker sprangen dem ehemaligen Präsidenten verteidigend zur Seite. "Das wird als von politischem Bias getrieben interpretiert", sagt Guhl. "Allerdings stehen konkrete Handlungen dahinter. In gewisser Weise müssen die Plattformen außerdem signalisieren: Wir haben diese Regeln, und wir setzen sie durch."

War Kickls Löschung Zensur?

Ähnliches gilt auch für Youtubes Löschung einer Parlamentsrede von FPÖ-Klubobmann Herbert Kickl Mitte Jänner. Als "nächsten Anschlag" auf die "parlamentarische Redefreiheit" bezeichnete er diese. Dabei war seine Ansprache voller gefährlicher Corona-Falschinformationen.

Auch bei ihm scheint es naheliegend, dass das Offlinenehmen des Videos nicht aufgrund seiner politischen Einstellung, sondern wegen konkreter Verhaltensweisen – nämlich der Verbreitung gefährlicher Falschinformationen über Corona – stattgefunden hat. Genau darin liege jedoch das Problem, betont Jakob Guhl: "Die Moderationsentscheidungen sind sehr intransparent, es ist oft nicht klar, worauf sie beruhen."

Nachvollziehbare Moderationsentscheidungen

Von Sperren betroffene Personen müssten aber erfahren, was ihnen konkret vorgeworfen wird, damit sie sich erst beschweren können. "Es ist zwar nicht so, als gäbe es ein in der Verfassung festgeschriebenes Recht auf eine Facebook-Reichweite. Aber diese Plattformen spielen eine große Rolle in der Gestaltung des Online-Diskurses." Es müsse also sichergestellt werden, dass die Entscheidungsprozesse nachvollziehbar werden, um faire Entscheidungen garantieren zu können.

Zugriff auf die Daten, auf denen Moderationsentscheidungen basieren, gibt es derzeit aber nicht – und zwar bei keiner der nennenswerten Plattformen. Problematisch ist dies auch deshalb, weil derzeit kein wirkliches Druckmittel existiert, um einen tieferen Einblick zu erwirken.

Dahingehend etwas verändern könnte der Digital Services Act (DSA) der EU. Denn das derzeit in Verhandlung befindliche Gesetzespaket soll gerade Themen wie verstärkte Transparenz in Bezug auf Moderationsentscheidungen, Beschwerdeprozesse, Algorithmen und deren Funktionsweisen neu regulieren. Bis der DSA in Kraft tritt, könnten allerdings noch Jahre vergehen.

Starke Alternativen

Ein wichtiger Nebeneffekt des De-Platforming ist zudem das konstante Erstarken alternativer Plattformen wie Telegram, Gab und bis vor kurzem noch Parler, bei denen es sich um die wahrscheinlich wichtigsten Anlaufstellen für immer mehr Verschwörungserzähler und Extremisten handelt. Eine Abwanderung, die auch Radikalisierungsprozesse beeinflusst, da bekannte Szene-Persönlichkeiten in eine Halböffentlichkeit gehoben werden.

Laut Guhl gibt es bezüglich dieses Themas zwei große Gefahren. Zum einen ermöglicht die Verbreitung extremistischer Weltbilder die Normalisierung ebendieser, indem sie an einen großen Teil der Bevölkerung ausgespült werden. Andererseits enden individuelle Radikalisierungsprozesse immer wieder in extremistischer Gewalt, wie an rechtsextremen Terroranschlägen wie jenen in Christchurch und Charlottesville deutlich zu sehen ist.

"De-Platforming von großen Plattformen führt zu einer deutlichen Einschränkung der Reichweite und des Einflusses von extremistischen Akteuren", betont jedoch Guhl. Natürlich ziehe der engste Kern bei einer Löschung von Facebook mit zu Alternativ-Diensten wie Telegram, Gab oder Parler – aber viele Leute eben auch nicht. "Die wenigsten sind den ganzen Tag damit beschäftigt, online irgendwelchen rechtsextremen Influencern zu folgen."

Telegram ist nicht Tiktok

Dass Rechtsextreme wie Martin Sellner seit der Löschung von Youtube und Twitter nur noch Telegram als Sprachrohr nutzen können, hat demnach zwei Effekte: Einerseits ist die Reichweite deutlich kleiner und deshalb auch die Fähigkeit eingeschränkt, Inhalte zu normalisieren und in den Mainstream hineinzutragen. Andererseits entstehen dadurch ideologisch homogene Echokammern, in denen kaum noch Widerspruch existiert.

Wenn sich Personen nur noch in solchen Räumen aufhielten, in denen über die Islamisierung und den großen Austausch fabuliert wird, könne das Radikalisierungsprozesse durchaus sogar beschleunigen. "Dennoch macht es einen Unterschied, ob Sellner seine rechtsextremen Ideologien auf Tiktok oder Facebook veröffentlicht oder auf Telegram", betont Guhl.

Immer mehr Nutzer

Andererseits kann gerade dieser Messenger seit Anfang des Jahres einen großen Nutzerzuwachs verzeichnen. Grund dafür dürfte unter anderem die aktualisierte Datenschutzbestimmung von Whatsapp sein, die Facebook außerhalb der EU die Nutzung von Userdaten für Werbezwecke erlaubt. Andererseits wechseln immer mehr "Querdenker" nach Löschungen auf Facebook zu Telegram, um sich dort zu organisieren und zu mobilisieren.

Das liege unter anderem an einer steigenden Sehnsucht nach Erklärungsmustern dafür, was es mit der Pandemie auf sich habe, wer dahinter stecke, schätzt Guhl die Abwanderung ein. Es ist also eine Suche nach einem Sündenbock. "Von Rechtsextremen und Verschwörern betriebene Gruppen sind deshalb um ein Vielfaches größer als noch im Februar 2020", gibt er zu bedenken.

Außerdem bestehe aufgrund des Aufbaus der Telegram-Kanäle eine immer größere Gefahr, dass sich rechtsextreme und verschwörungsideologische Inhalte überschneiden. Diese regen Nutzer nämlich zum Teilen von Inhalten zwischen Kanälen an. Folgt man also einer Gruppe, kann es schnell sein, dass man sehr viel extremere Inhalte vorgesetzt bekommt. "Dadurch ist die technische Distanz zwischen Impfgegnern, Corona-Skeptikern, QAnon-Anhängern bis hin zu Rechtsextremen und Neonazis plötzlich sehr gering", gibt Guhl zu bedenken.

Interesse an Verschwörungen

Das stetig steigende Interesse an Verschwörungserzählungen bedeute für rechtsextreme Akteure zudem, dass sie potenziell ein viel größeres Publikum vor sich haben als zuvor – und zwar ein solches, das sie durch De-Platforming eigentlich schon verloren hatten. Denn für "Querdenker" ist Telegram im deutschsprachigen Raum zur zentralsten Plattform geworden.

Eine Moderation der öffentlichen Kanäle ist dabei so gut wie inexistent. Sowohl in Österreich als auch Deutschland gilt der Messenger nämlich nicht als Plattform. Deshalb fällt Telegram im Nachbarland nicht unter das Netzdurchsetzungsgesetz (NetzDG), und hierzulande gelten die Regeln des Kommunikationsplattformengesetz nicht, wie der STANDARD berichtete.

Unregulierter Hybrid

Das Problem dabei: Telegram ist nicht ausschließlich Messenger, viel eher handelt es sich um eine Hybriden. Denn abgesehen von der Nachrichtenfunktion gibt es die bereits erwähnten öffentlichen Kanäle. Für diese wird kein Passwort benötigt, und eine Person kann über seinen Kanal Inhalte mit Followern teilen. "Da gibt es im Grunde keinen großen Unterschied zu einem Youtube-Kanal. Es gibt einen öffentlichen Bereich und bestimmte Funktionen, die an eine Plattform erinnern", bewertet Guhl den Aufbau der App.

Hinzukommt, dass Telegram auf eigene Faust bisher kaum auf gemeldete Fälle einging, Sperren und Löschungen sind meist Fehlanzeige. Nur vereinzelt gehen die Betreiber gegen Rechtsextremismus vor, zuletzt nach dem Sturm auf das US-Kapitol. Warum es dazu kam, weiß man allerdings nicht. Man könne nur spekulieren, ob es womöglich Druck von großen Tech-Firmen gab, sagt der Extremismusforscher.

Denn Amazon, Google und Microsoft kontrollieren zu dritt fast den gesamten Cloud-Hosting-Markt, der für den Betrieb einer Webseite notwendig ist. Und wie man an Parler sieht, macht Big-Tech unter Umständen schnellen Prozess. Seit Apple und Google zusätzlich zu Amazons Sperre die Twitter-Alternative aus ihren App Stores geworfen haben, ist Parler nicht mehr erreichbar.

Telegram selbst begründet sein neuestes Vorgehen mit den eigenen Regeln rund um die Bewerbung von Gewalt. In der Vergangenheit gab es allerdings immer wieder Forschungsberichte zu rechtsextremen und rechtsterroristischen Kanälen. Dass zuvor nichts passiert sei, "lag also nicht an einer Informationslücke. Dennoch wurden nur ganz vereinzelt Kanäle entfernt."

Krisenmanagement

Löschungen gebe es allerdings nur, "wenn ein gewalttätiges Ereignis stattfindet – und zwar auf einem für Telegram wichtigen Markt. Dann wird ein nachträgliches Krisenmanagement betrieben, um das Gesicht nicht zu verlieren." Die Problematik liegt also, ähnlich wie bei Mainstream-Plattformen wie Facebook und Twitter, in der mangelnden Transparenz der Entscheidungen – oder besser gesagt Nicht-Entscheidungen.

Betrachtet man jedoch die Entwicklungen der letzten fünf Jahre, ist trotz allem eine positive Entwicklung zu beobachten. So wird De-Platforming inzwischen auf viel mehr Bereiche angewandt, als es damals noch der Fall war. Wirklich neu ist seit Anfang des Jahres primär die Tatsache, dass mit Trump erstmals ein amtierendes Staatsoberhaupt von fast allen Mainstream-Plattformen rausgeworfen wurde. Eine Moderationsentscheidung, die transparenter hätte geschehen sollen.

Allheilmittel De-Platforming?

Gleichzeitig, so Jakob Guhl, dürfe De-Platforming nicht als Allheilmittel des Extremismus-Problems auf sozialen Medien gesehen werden. "Es braucht darüber hinaus Diskussionen darüber, wie es dort überhaupt zu so viel Hass, Extremismus und Verschwörungstheorien kommt. Dafür braucht es mehr Transparenz bezüglich der Algorithmen großer Plattformen."

Was auf Alternativ-Diensten wie Telegram passiere, müsse zudem weiterhin beobachtet werden. "Aber vielleicht ist es gar nicht der schlimmste Zustand, dass viele dieser Akteure sich in einem Zwischenbereich aufhalten. Alternative Plattformen sind noch nicht das Darknet. Es ist nicht völlig unzugänglich. Aber es ist auch nicht mehr der Mainstream." Es handelt sich vielmehr um beobachtbare Orte mit begrenztem Einfluss. Zumindest derzeit. (Mickey Manakas, 9.2.2021)