Auf Hassbotschaften im Netz reagieren bisher noch zu wenige User mit Gegenrede und Zivilcourage.

Foto: Imago Images / Christian Ohde

Sexismus und Hassrede im Netz sind ein altbekanntes Problem. Eine aktuelle Studie des Forsa-Instituts zeigt, dass drei Viertel der Menschen in Deutschland bereits Hasskommentaren im Internet begegnet sind. Bei Frauen lösen Hasskommentare deutlich öfter Angst aus: Sie sind im Netz häufig mit sexistischen Postings und sexualisierter Gewalt konfrontiert. Und die Zürcher Hochschule für angewandte Wissenschaften (ZHAW) zeigt, dass weibliche Jugendliche vor allem Hasskommentare erhalten, die sich auf ihr Äußeres beziehen.

Merkliche Verbesserungen im Kampf gegen Hassrede und Sexismus lassen indessen noch auf sich warten. Die Gesetze hinken oftmals technologischen Entwicklungen hinterher. Und die Moderation von Beiträgen auf diversen Plattformen und in Foren ist schlicht aufgrund der Masse an Content schwer möglich – vorausgesetzt, eine umfassende Moderation ist überhaupt von den jeweiligen Betreibern erwünscht. Mithilfe von künstlicher Intelligenz und Machine-Learning könnte aber eine solide Vorselektion – etwa von sexistischen Kommentaren – automatisch getroffen werden.

Im Rahmen des internationalen Wettbewerbs "EXIST – Sexism Identification in Social Networks" haben sich verschiedene Forschungsteams an Methoden versucht, die Sexismus in einem Sprachdatensatz automatisch erkennen sollen. Die Fachhochschule St. Pölten und das Austrian Institute of Technology (AIT) konnten dabei als drittbestes Team bei der automatisierten Erkennung von Sexismus im Wettbewerb reüssieren.

Ganz offen gesprochen

Bei den analysierten Daten handelte es sich um Beiträge auf Twitter und Gab. Gab ist eine Plattform, für die es kaum inhaltliche Richtlinien gibt. "Das Publikum dort ist sprachlich sehr offensiv, und es finden sich viele sexistische Beiträge und Hasspostings", erklärt Matthias Zeppelzauer, Leiter der Forschungsgruppe Media Computing am Institut für Creative Media Technologies der FH St. Pölten, die Datenauswahl.

Die Daten, die für die Entwicklung der Modelle zur Sexismuserkennung zur Verfügung standen, wurden zuvor von Genderfachleuten händisch klassifiziert. Handelt es sich um sexistische Äußerungen? Enthalten sie also Geschlechterstereotype, objektifizierende Inhalte und sexualisierte Gewalt?

Gleichzeitig stellt sich die Frage: Wenn es schon auseinandergehende Positionen unter Menschen gibt, was Sexismus ist, wie soll dann eine Maschine Sexismus erkennen können? Für diese Aufgabe kommen die Methoden aus der natürlichen Sprachverarbeitung und der künstlichen Intelligenz. Sogenannte Transformernetzwerke können lernen, ein Verständnis für Sprache zu entwickeln – ähnlich wie wenn Menschen sich selbst eine Sprache beibrächten, etwa mithilfe eines Lückentextes, erklärt Matthias Zeppelzauer. Wenn man aus einem Text Wörter entfernt und dann versucht, sie wieder aufzufüllen, kann man im Vergleich zum Ursprungstext lernen, wo man einen Fehler gemacht hat und was richtig war.

Das sei im Grunde auch das Prinzip, wie diese Transformernetzwerke lernen: Das Netzwerk versucht, die Lücken intelligent zu füllen. "Wenn das Ganze mit einem großen Textkorpus immer wieder wiederholt wird, dann bekommt das Netzwerk mit der Zeit ein 'Gefühl' für die Sprache", sagt Zeppelzauer. Auf Basis solcher Methoden funktionieren auch automatische Übersetzungsprogramme wie Google Translate.

Mensch-Maschine-Vergleich

Die unterschiedliche Performance der Teams wurde mithilfe eines eigenen Testdatensatzes eruiert. Für diesen Datensatz bekommen die Teams keine Informationen über die Klassifizierung, was sexistische Äußerungen sind und was nicht. Die entwickelten Methoden wurden somit "blind" auf diese Daten angewendet. Das Ergebnis der automatisierten Klassifizierung in sexistische und nichtsexistische Äußerungen wurde dann mit den menschlichen Einschätzungen verglichen, die nur den Organisatorinnen und Organisatoren des Wettbewerbs vorliegen. Zeppelzauers Team gelang eine Treffsicherheit von rund 78 Prozent für die Erkennung sexistischer Inhalte.

Für automatisierte Tools sind allerdings Kombinationen aus Sexismus, Sarkasmus und Ironie besonders schwer einzuschätzen. "Dafür reicht der Kontext allein nicht aus, sondern es gehört auch ein gewisses Sprach- und Kulturverständnis dazu, um Sarkasmus und Ironie zu erkennen", sagt Zeppelzauer.

Das zeige auch die Grenzen von heutigen Systemen auf – und dass eine menschliche Bewertung noch immer ganz wichtig sei, um einen Inhalt final zu beurteilen. Doch Instrumente zur automatischen Erkennung von Sexismus und Hassrede können für diese abschließende Bewertung eine Menge Vorarbeit leisten. Sie könnten zum Beispiel problematische Beiträge nach oben reihen, damit sie dann von einer menschlichen Forenmoderation rascher und schon vorsortiert gesichtet werden können.

Doch sexistische Postings dann einfach zu löschen ist laut Zeppelzauer nicht immer die beste Lösung. In einem weiteren Projekt der FH St. Pölten, das im Rahmen des WWTF-Calls "Digital Humanism 2020" gefördert und zusammen mit dem Institut für Soziologie der Universität Wien durchgeführt wird, soll eine andere Möglichkeit näher erforscht werden: Gegenrede und Zivilcourage im Netz, die sich Hassrede entgegenstellen.

Löschen oder nicht löschen?

Hasspostings einfach zu löschen habe womöglich auch den Effekt, dass User auf gänzlich unmoderierte Plattformen ausweichen –und sich dort in ihrem Hass womöglich noch zusätzlich befeuern, gibt Zeppelzauer zu bedenken. Statt bestimmte Postings zu löschen, könnte man User auf sozialen Plattformen motivieren, kritisch auf menschenverachtende Hassrede im Netz zu reagieren.

Dieser Ansatz wird auch für das Forum des STANDARD verfolgt, in dem inhaltlich wertvolle und wertschätzende Forumsbeiträge hervorgehoben werden. DER STANDARD sucht in Zusammenarbeit mit dem Österreichischen Forschungsinstitut für Artificial Intelligence (OFAI) mit dem Projekt "FemDwell" auch nach Möglichkeiten, die Forenmoderation durch automatisierte Modelle zu unterstützen. Die Modelle werden ebenfalls mit Machine-Learning trainiert, in diesem Fall mit Daten aus dem STANDARD-Forum. Auch dafür braucht es die Klassifizierung durch menschliche Einschätzungen.

Für "FemDwell" schätzen die Moderatorinnen und Moderatoren des STANDARD-Forums ein, ob ein Posting wenig oder stark sexistisch ist. Dafür nutzen sie eine Skala von null bis vier. Generelles Ziel des Projekts soll ebenso sein, konstruktive Forumsbeiträge zu stärken. Außerdem soll der Anteil von Frauen, die an den Diskussionen teilnehmen, gehoben werden. Denn wie in den meisten Onlineforen von Zeitungen sind Frauen auch im STANDARD-Forum unterrepräsentiert: Laut Umfragen schreiben dort derzeit 63 Prozent Männer.

Weniger Sexismus in den Beiträgen, sei es in Zeitungsforen oder auf anderen Plattformen, könnte mehr Frauen dazu motivieren, zu bleiben – und mitzureden. (Beate Hausbichler, 13.9.2021)