Sarah Katz sichtete nach eigenen Angaben bis zu 8.000 gemeldete Inhalte pro Tag.

Foto: Reuters

Antisemitismus, Fotos von Sodomie und Aufnahmen, in denen offenbar ein Erwachsener zwei Kinder dirigierte, miteinander sexuelle Akte zu vollziehen – Sarah Katz hat als Facebook-Moderatorin schon nach den ersten zwei Arbeitstagen eine größere Bandbreite menschlicher Abgründe gesehen, als viele Menschen in ihrem ganzen Leben zu Gesicht bekommen.

Sie war Teil einer der am schnellsten wachsenden Berufsgruppen in der IT-Welt: jene, die in sozialen Netzwerken nach problematischen Inhalten fahndet, die Meldungen der Nutzer überprüft und entscheidet, was online bleiben kann und was nicht. Es ist, so schreibt das "Wall Street Journal", wohl der schlimmste Job der Branche.

Bedarf offenkundig

Dass es Bedarf an Leuten gibt, die auf dem weltgrößten sozialen Netzwerk "patrouillieren", gilt als offensichtlich. Zu bedeutend ist die Plattform in vielerlei Hinsicht geworden. Sie soll im US-Wahlkampf von mutmaßlich russischen Akteuren als Werkzeug missbraucht worden sein, um Stimmung für Donald Trump und gegen seine Konkurrentin Hillary Clinton zu machen.

In Europa sorgte die "Hassposting-Debatte" rund um eskalierende Debatten über die Flüchtlingssituation regelmäßig für Schlagzeilen. Immer wieder kommt es auch zu kontroversen Entscheidungen, zuletzt etwa, als gleich mehrere FPÖ-kritische Auftritte auf Facebook gesperrt wurden.

Bis zu 8.000 Postings pro Tag

Katz, die heute als IT-Sicherheitsberaterin bei ServiceNow arbeitet, sah freilich noch ganz andere Inhalte als Trump-Belobigungen oder ausländerfeindliche Tiraden. Sie sichtete nach eigenen Angaben bis zu 8.000 Postings am Tag, ohne aber direkt Facebook-Mitarbeiterin zu sein. Sie verdiente 24 Dollar pro Stunde und konnte gratis in der Cafeteria im Firmenhauptquartier in Menlo Park essen. Vor ihrem Arbeitsantritt hatte sie einen Warnhinweis unterschrieben und wurde dann, psychologisch kaum vorbereitet, auf die Untiefen des Netzwerks losgelassen.

Mehr als eine Million Inhalte werden täglich auf Facebook gemeldet. Tendenz steigend, denn die Anzahl der Nutzer, die sich täglich auf der Seite oder dem Messenger einloggen, liegt mittlerweile bei knapp 1,4 Milliarden. Während sich die von einer Personalfirma angestellten Moderatoren mit den verstörenden Inhalten auseinandersetzen mussten, gaben direkt bei Facebook arbeitende Mitarbeiter hauptsächlich Ziele und Richtlinien vor.

Hohe Fluktuation, wenig Unterstützung

Mit Ende des Jahres wird Facebook insgesamt 7.500 Menschen im "Content Reviewing" beschäftigen. 2018 will man den Gesamtstand in diesem Bereich auf 20.000 Mitarbeiter heben. Für die Arbeitsbedingungen sollte dies positive Folgen haben. Mehrere ehemalige Moderatoren geben an, oft nur ein paar Sekunden Zeit gehabt zu haben, um zu entscheiden, ob ein Inhalt den "Gemeinschaftsstandards" entspricht, oder nicht. Facebook selbst bestreitet dies und gibt an, die Moderatoren würden ohne spezifischen Zeitlimits arbeiten.

In der Bay Area soll der Stundensatz für diese Art von Job zwischen 13 und 28 Dollar liegen. Die Fluktuation ist hoch. Die meisten arbeiten maximal ein paar Monate oder ein Jahr bei der gleichen Firma, ehe sie freiwillig gehen oder ihr Arbeitsauftrag endet. Manche werfen in den ersten Tagen bereits hin oder verschwinden schon während der ersten Mittagspause. Andere fühlen sich auch nach Ende ihres Dienstverhältnisses noch lange belastet von den Dingen, die sie gesehen haben und das von ihnen beklagte Fehlen emotionaler Unterstützung.

Er habe kaum Zeit gehabt, seine Eindrücke zu verarbeiten, da er schon nach wenigen Minuten Inaktivität am Rechner stets von einem Vorgesetzten angeschrieben wurde, der wissen wollte, warum er nicht arbeite, klagt ein ehemaliger Contentprüfer. Ähnliche Berichte gibt es auch von Moderatoren, die für andere Unternehmen tätig sind. Zwei einstige Microsoft-Mitarbeiter haben ihren Arbeitgeber nunmehr wegen mangelnder Unterstützung geklagt. Sie mussten nach eigenen Angaben regelmäßig Aufnahmen sichten, die auch sexuellen Missbrauch von Kindern und Erwachsenen zeigten. Sie klagen über posttraumatische Belastungsstörungen und Schlafprobleme.

Moderatoren-KI ist noch Zukunftsmusik

Bei Facebook stehen Moderatoren laut internen Dokumenten pro Jahr bis zu drei Gesprächstermine mit professioneller Beratung zu. Man mache auch den Vertragspartnern klar, dass das Wohlergehen der Moderatoren "sehr wichtig" sei, meint User-Research-Manager Mark Handel. Unterstützung in diesem Bereich werde "immer bedeutender." Weiters, so eine Sprecherin, biete man auch Trainings und "andere Formen psychologischer Unterstützung" an. Bei Microsoft erklärt man, dass Mitarbeiter in diesem Bereich sogar verpflichtend an psychologischen Beratungsterminen teilnehmen müssen.

Trotz aller technischen Fortschritte sind nach wie vor Menschen die wichtigste Waffe gegen problematische Inhalte auf solchen Plattformen, sagt Computerwissenschafter Eric Gilbert von der University of Michigan. Facebook und Co würden sich zwar einen Wettkampf um die Entwicklung künstlicher Intelligenz liefern, die in diesen Bereichen aushelfen soll. Doch seiner Einschätzung nach sind die smarten Algorithmen noch einige Jahre davon entfernt, ehe sie für Helfer aus Fleisch und Blut in die Bresche springen können.

Schlechte Karriereaussichten

Die beruflichen Perspektiven für die Moderatoren sind überschaubar. Kaum eine Firma, die Moderatoren über Personalleasingdienste anheuert, übernimmt diese später in ihr Team. Auch jene nicht, die die belastende Arbeit langfristig durchhalten. Dementsprechend gibt es einige Leute, die sich so einer Aufgabe nur kurzfristig stellen und mangels Aussicht, bei Facebook, Google und Co unterzukommen, dann wieder einen anderen Karrierepfad einschlagen. (gpi, 28.12.2017)