"Wir können nicht aufgrund von Befindlichkeiten alles wegmoderieren. So funktioniert ein offener Diskurs nicht." hält Sophie Achermann, Geschäftsführerin der Public Discourse Foundation, in einem aktuellen "NZZ"-Feuilleton-Artikel fest. In der Schweiz löschen Medien bis zu 60 Prozent aller Postings. In Deutschland löscht der "Spiegel" 15 bis 20 Prozent der Leserkommentare. Der STANDARD hatte 2023 eine Löschquote von unter drei Prozent.

Comic Sprechblasen in verschiedenen Formen und Farben.
Keine leichte Unterscheidung: Welche Kommentare sind unangenehm und welche unannehmbar?
Getty Images

Seit seiner Gründung 1988 ist DER STANDARD überzeugt davon, dass Medien unterschiedlichen Perspektiven in Debatten Raum geben sollen. Online-Diskurse haben heute einen wesentlichen Einfluss auf die Entwicklung von Demokratie und Gesellschaft: Kommentarspalten wie das STANDARD-Forum machen sichtbar, wie Menschen Nachrichten emotional aufnehmen, welche Gedanken sie dazu haben und was sie für ihr Leben daraus ableiten. Der Austausch mit anderen – sowohl durch aktive Teilnahme am Gespräch als auch durch passives Lesen von Dialogen – trägt zur Meinungsbildung bei. Das funktioniert allerdings nur dann gut, wenn ein Austausch möglichst ungestört stattfinden kann und man sich an gemeinsame Regeln hält. Es ist Aufgabe des Community-Managements, dafür adäquate Rahmenbedingungen zu schaffen.

Unangenehme und unannehmbare Postings

Im STANDARD-Forum findet man immer wieder Meinungen, die den eigenen Einstellungen diametral entgegenstehen. Postings, die Personen aus der Berichterstattung oder andere Mitglieder aus der Community einseitig und hart in der Sache kritisieren. Wortmeldungen, die immer nur das Negative sehen. Unangenehme Postings? Ja, sicher. Doch solche Beiträge sind oft der Impuls, den es braucht, um Positionen auszutauschen und zu überdenken. Unannehmbare Postings? Nein, denn sachliche und negative Kritik, auch wenn sie hart ist, sowie andere Meinungen machen einen offenen Diskurs aus. Wird jedoch die Grenze zur persönlichen Abwertung überschritten oder wird unsachlich argumentiert, kommt es zur Störung des Diskurses. Das ist der Punkt, an dem Community-Management gefragt ist.

Aktive Moderation statt Löschen im Akkord

In den STANDARD-Foren lag die Löschquote bis 2010 bei etwa zehn Prozent. Seit 2013 gibt es mit der Abteilung "User Generated Content" ein Team aus Spezialistinnen und Spezialisten für Community-Management. Die Forenmoderation versteht sich nicht als Müllabfuhr, sondern als Unterstützung für die Community. Ziel ist es, konstruktive Diskussionen zu fördern.

Folglich gibt es beim STANDARD kein Löschen im Akkord, es gibt keinen eigenen Löschdienst im Community-Management. Neue Postings werden automatisch mit KI-Unterstützung geprüft und gehen zum Großteil sofort danach online. Nur ein kleiner Teil muss vorab manuell geprüft werden. Damit wird einerseits eine möglichst unmittelbare Teilnahme am Diskurs ermöglicht, andererseits werden einige grobe Fouls verhindert.

Moderation umfasst jedoch sehr viel mehr: Sachliche und gut argumentierte Postings werden dem Forum vorangestellt, um weitere konstruktive Äußerungen anzuregen. Wertvolle Hinweise aus der Community werden in einem täglichen Bericht an die Redaktion weitergeleitet. Moderator:innen nehmen aktiv an den Diskussionen teil, um durch die eigene Präsenz zu einem themenbezogenen, respektvollen und sachlichen Austausch beizutragen. Im Transparenzblog "So sind wir: Wie wir unsere Foren moderieren" finden Sie eine detaillierte Darstellung unserer Arbeitsweise, der Überlegungen dahinter sowie unserer Erfahrungen.

Die Community selbst trägt auch wesentlich dazu bei, das Beste aus den Online-Diskursen herauszuholen. Einerseits gibt es seit knapp drei Jahren Community-Guides, die ebenfalls konstruktive Diskussionsbeiträge voranstellen können, Gegenrede betreiben oder durch Wortmeldungen Wogen glätten können. Eine weitere Gruppe ehrenamtlicher Mitglieder der Community sind die Web@ngels, die virtuelle Zivilcourage zeigen. Schließlich kann auch jede Leserin und jeder User durch Melden von Postings, die die Forenregeln verletzen, zu einem besseren Diskussionsklima beitragen.

Utopie und Dystopie

Die ÖVP träumt wieder einmal von einer Klarnamenpflicht. Hundert Prozent Kontrolle über Internetdiskurse ist jedoch nicht nur eine Utopie, es ist gleichzeitig eine Dystopie. Eine Utopie ist die Klarnamenpflicht, weil sie schlicht nicht zu zivilisierterem Verhalten führt und durch Identitätsdiebstahl umgangen werden kann, das zeigt ein Beispiel aus Südkorea. Eine Dystopie ist ein Ausweiszwang, weil er die Meinungsfreiheit potenziell einschränkt und Menschen davon abhält, an Online-Dialogen teilzuhaben. Bei diesen immer wieder neu aufgekochten Verhinderungsfantasien wird leider darauf vergessen, dass es deutlich vielversprechendere Ansätze gibt: eine aktive Moderation sowie eine gut ausgestaltete Dialoginfrastruktur mit einem digitalen Ich, das für soziale Selbstkontrolle im Netz sorgt.

Transparenz im Userprofil

DER STANDARD baut das Userprofil, also das digitale Ich der Posterinnen und Poster, kontinuierlich aus. Dort sind nicht bloß die eigenen gelöschten Postings abrufbar, sondern es wird auch darüber informiert, ob Postings nur mit einem übergeordneten Posting mitgelöscht wurden, oder ob man selbst gegen die Forenregeln verstoßen hat. Ab sofort wird man auch zusätzlich darüber in Kenntnis gesetzt, ob die Moderationsmaßnahme durch eine Meldung aus der Community ausgelöst wurde oder auf Eigeninitiative der Moderation beruht. Weitere Elemente zur Stärkung der Identifikation mit dem virtuellen Selbst sind geplant und für einen offenen und fairen Diskurs deutlich wirksamer als ein Ausweiszwang. (Christian Burger, 20.2.2024)