Bild nicht mehr verfügbar.

Einige Ex-Mitarbeiter zweifeln die Reformfähigkeit von Facebook an.

Foto: Reuters

Schon vor der US-Wahl ging es auf sozialen Medien turbulent her, streuten doch US-Präsident Donald Trump und viele seiner Sympathisanten Behauptungen über die angebliche Betrugsanfälligkeit der US-Wahl durch Briefwahlkarten. Und seit Trumps Konkurrent Joe Biden die Wahl für sich entschieden hat, versucht man dessen Sieg als Folge eines solchen Betrugs darzustellen. Bislang ohne Erfolg, in über 50 Gerichtsverfahren in verschiedenen Bundesstaaten wie auch vor dem US-Höchstgericht scheiterte man auf ganzer Linie daran, Belege dafür zu erbringen.

Facebook agiert mittlerweile aktiver, wenn es um die Verbreitung von Unwahrheiten in Bezug auf die Wahl geht, und ergänzt entsprechende Postings mit Hinweisen und Faktenchecks. Doch einige Mitarbeiter sehen immer noch grobe Verfehlung in der Handhabe von problematischen Inhalten. Mangels Aussicht auf Besserung kehren sie dem Konzern nun den Rücken, schreibt "Buzzfeed".

Sisyphosaufgabe

So etwa ein wichtiger Datenforscher, der seit zwei Jahren im Unternehmen war, wo er für das Team zur Bekämpfung von "Gewalt und Hassrede" arbeitete. Er hinterließ seinen Kollegen gemäß den Gepflogenheiten einen Abschiedsbrief, in dem er über die Gründe für seine Entscheidung berichtet. Er ist enttäuscht von seinem nun ehemaligen Arbeitgeber.

"Mit so vielen internen Kräften, die das Entstehen von hasserfüllten Inhalten stärken, fühlt sich die Aufgabe, Hass und Gewalt auf Facebook zu stoppen, immer mehr nach einer Sisyphosaufgabe an, als es ohnehin schon ist." Mittlerweile sei es "beschämend, hier zu arbeiten", zitiert "Buzzfeed" aus dem Schreiben des Ex-Mitarbeiters, der aus Angst vor etwaigen Vergeltungsmaßnahmen anonym bleiben wollte.

Rund ein Promille der täglich etwa fünf Milliarden Postings auf der Plattform – also circa fünf Millionen – verstoße klar gegen Facebooks Bestimmungen zu Hassrede. Aber selbst trotz des Einsatzes von künstlicher Intelligenz und Moderatoren verpartnerten Firmen würden nur weniger als fünf Prozent davon entfernt.

Eine Darstellung, die Facebook nach der Veröffentlichung des "Buzzfeed"-Artikels zurückwies und angab, dass hier die Anzahl der Postings mit der Anzahl der Aufrufe verwechselt worden sei. Dieser Punkt wurde im Schreiben des Wissenschafters allerdings angesprochen: Dieser gibt an, dass seine Berechnung dennoch zutreffend sei.

Civic-Integrity-Team aufgelöst

Er ist nicht der erste Mitarbeiter, der Facebook verlassen hat, weil der Konzern nicht genug gegen problematische Postings unternimmt. Schon vor der Wahl waren mehrere Mitarbeiter deswegen von Bord gegangen. Und einen Angestellten setzte Facebook selbst vor die Tür. Dieser hatte intern Daten gesammelt, um aufzuzeigen, dass das Netzwerk teilweise rechten Seiten eine bevorzugte Behandlung zukommen lasse und auf deren Beschwerde hin sogar bei Factchecks interveniere. Facebook allerdings bestreitet auch diese Vorwürfe.

Der Konzern erklärt, dass er "stolz" auf seine Bemühungen rund um die Wahl sei und in den vergangenen Jahren massive Investitionen getätigt und große Fortschritte bei der Bekämpfung von Hass und Desinformation gemacht habe. Das "Civic-Integrity-Team", das speziell für Maßnahmen rund um die Wahl zuständig war, wurde mittlerweile allerdings als eigenständige Einheit aufgelöst. Laut Berichten wurde ein Vorstoß dieser Mitarbeiter, der darauf abzielte, die Verbreitung von Falschmeldungen durch populäre Accounts der politischen Sphäre – etwa jenem von Donald Trump – einzudämmen, von der Konzernführung abgeschmettert. Die Mitarbeiter, so Facebook, würden nun in anderen Bereichen im Unternehmen weiter an Integritätsbemühungen arbeiten.

Ex-Mitarbeiter zweifeln an Reformfähigkeit

Doch einige Mitarbeiter und Ex-Angestellte haben die Hoffnung aufgegeben, dass Facebook es schafft, seine Probleme zu lösen. "KI wird uns nicht retten", schreibt etwa Nick Inzucchi, der Produktdesigner für Civic Integrity war, ehe er vergangene Woche kündigte. Facebooks Vision sei es, dass der menschliche Diskurs auf der Plattform von "gerechten, allwissenden Robotern von Mark Zuckerberg" überwacht werde. "Das ist ganz klar eine Dystopie, aber eine die uns so eingefleischt wurde, dass wir es kaum noch merken."

Eine Einschätzung, die sich auch im Abschiedsbrief des Datenwissenschaftlers findet. "Automatisierung wird nicht alle unsere Probleme lösen", heißt es darin. Er geht zudem weiter und wirft Facebook vor, Interesse daran zu haben, Akteure zu stärken, die Öl ins gesellschaftliche Feuer gießen, um viele aktive Nutzer anzulocken, an die Werbung ausgespielt wird. So schreibt er: "Wie sollen Außenstehende uns glauben, dass wir wirklich Hassrede loswerden wollen, wenn jedem klar ist, dass wir sie begünstigen?"

Breitbart als Hasstreiber

Zur Untermauerung seiner Argumente liefert er Daten aus einem internen "Hate Bait Dashboard", die zeigen, welche Seiten besonders die Entstehung von Hasspostings befeuern. Vorne liegt dort das Rechts-außen-Medium "Breitbart", das aber auch ein Newspartner von Facebook ist. Dahinter finden sich der konservative Sender Fox News und das am rechten Rand angesiedelte Portal "Daily Calle", gefolgt von zwei Pro-Trump-Auftritten und dem Konto des US-Präsidenten selber. Er verweist außerdem auf die Kommentare, die Nutzer auf diesen Seiten hinterlassen. Der Aufruf, Transmenschen zu ermorden, gehöre dort etwa zum üblichen Ton.

Ebenso verweist er auf eine Untersuchung, wonach "konservative" oder "sehr konservative" User auf Facebook mehr als siebenmal so viele Falschinformationen teilen wie politisch moderate, linke oder sehr linke Nutzer.

Dass Facebook zur Verwahrlosung des politischen Diskurses beiträgt, findet auch ein weiterer Datenwissenschafter, der kürzlich gekündigt hat. Diesem zufolge hat das Unternehmen immer wieder die Einführung von Maßnahmen, mit denen problematische Postings besser identifiziert und eingeschränkt hätten werden können, verhindert. Alleine Trumps "When the looting starts, the shooting starts"-Sager habe um ein Vielfaches mehr Aufrufe bekommen, als man in der gleichen Zeit bei anderen Postings verhindert habe. (gpi, 13.12.2020)

Update, 14.12., 12:10 Uhr: Breitbart ist Newspartner von Facebook in den USA, aber nicht Teil des Factchecker-Programms. Dies wurde korrigiert.