In sozialen Medien wird Stimmungsmache sogar belohnt.

Foto: APA/dpa/Lukas Schulze

Hass im Netz kann reale Auswirkungen haben. Das zeigt der Fall der oberösterreichischen Ärztin Lisa-Maria Kellermayr. Sie wurde von radikalen Maßnahmengegnern über Monate im Web attackiert, fürchtete um ihre Sicherheit, musste ihre Praxis schließen. Vergangene Woche beging Kellermayr Suizid.

Prompt folgte wieder eine Debatte um den Umgang mit Hass im Netz und die entscheidende Frage: Was können Betroffene überhaupt tun?

Die massive Zunahme an Hass ist eng mit dem Siegeszug der sozialen Medien verzahnt – auch weil diese lange Zeit wenig taten, um der Stimmungsmache entgegenzuwirken. Ihre Algorithmen sind so designt, dass Beiträge belohnt werden, die viel Aufmerksamkeit schaffen. Postings, die spalten, führen tendenziell zu besonders vielen Reaktionen. Dadurch werden sie im Newsfeed nach oben gespült und somit sichtbarer. Welchen Effekt das im schlimmsten Fall haben kann, zeigt der Genozid an den Rohingya 2017 in Myanmar, bei dem Tausende ermordet wurden. Gegen die muslimische Minderheit wurde auf Facebook brutal Stimmung gemacht, teils mit Fake-Accounts des Militärs. Facebook tat wenig dagegen – auch weil KI-Systeme, die Hass eigentlich automatisiert erkennen sollten, die birmanische Sprache kaum beherrschten.

Hassmaschinerie

Mittlerweile setzt Meta, wie sich der Konzern hinter Facebook seit Oktober letzten Jahres nennt, vor allem in Europa und Nordamerika auf eine Mischung von KI-Systemen und menschlicher Moderation. Zusätzlich verpflichtet das 2020 in Kraft getretene Kommunikationsplattformengesetz die Social-Media-Plattformen, rechtswidrige Inhalte nach Meldung binnen 24 Stunden zu entfernen. Das funktioniert laut einer informierten Person gut – zumindest bei jenen, die sich so wie Meta und Google an die Rechtslage halten.

Andere, allen voran der Messengerdienst Telegram, moderieren kaum – und ignorieren Behördenanfragen mehrheitlich. Zugleich ist Telegrams Erfolg die Antithese zur Behauptung, die Algorithmen der Konzerne seien alleinig für das Aufkommen des Hasses verantwortlich. Die Plattform verzichtet auf sie – und zieht dennoch eine Vielzahl an Agitatoren an.

Das Problem liegt tiefer, nämlich in dem Mechanismus, wie Massen mobilisiert werden: Zunächst ziehen die Betreiber derartiger Gruppen User mit ähnlichen Meinungen an. In ihren Chats werden andere Positionen kompromisslos abgelehnt. Diese Verweigerung eines Diskurses wird von den radikalsten Akteuren Schritt für Schritt immer vehementer praktiziert, auch indem die andere Seite denunziert wird. Gegner werden selbst als intolerant diffamiert, um die eigene Agitation zu rechtfertigen. Jene, die am lautesten schreien, schaffen sich oft die größte Aufmerksamkeit. Von der Wut der Nutzer profitieren die Akteure selbst, sei es politisch oder finanziell. Sie ermöglicht es erst, sie zu mobilisieren. Daher wird immer radikaler kommuniziert – bis die Debatte letztendlich in Hass mündet.

Nicht alleinlassen

Für jene, die in einen solchen Strudel an digitaler Wut geraten, scheint die Lage oft aussichtslos. Für sie empfiehlt sich, Hassrede im Internet auch als solche zu benennen und derartige Beiträge zu melden. Das Ziel der Angriffe ist nämlich meistens, die Gegenseite ganz verstummen zu lassen.

Gegen hasserfüllte Postings zu argumentieren wird zwar meistens nicht dazu führen, dass die Verfasser umgestimmt werden – womöglich aber unbeteiligte Dritte, die mitlesen. Dabei ist auch für Dritte wichtig, Solidarität mit Betroffenen zu zeigen und ihnen Unterstützung anzubieten. Dadurch wird dem Eindruck entgegengewirkt, man müsse sich den Postern allein stellen.

Oft sind die Postings rechtswidrig, weswegen rechtliche Schritte erwogen werden können. Da bietet sich ein Gespräch mit einer Beratungsstelle an. Seit 2021 können Postings auch ohne gerichtliche Verhandlung mithilfe eines Eilverfahrens entfernt werden. (Muzayen Al-Youssef, 6.8.2022)