Die ehemalige Moderatorin kämpft nach eigenen Angaben aufgrund ihrer Arbeit bei Youtube mit schwerwiegenden psychischen Problemen.

Foto: Reuters

Sie arbeitete etwas mehr als anderthalb Jahre, von Jänner 2018 bis August 2019, bei Youtube. Dann schmiss sie hin, weil ihr der Beruf psychisch zu sehr zugesetzt hatte. Nun zieht eine ehemalige Content-Moderatorin gegen ihren einstigen Arbeitgeber deswegen vor Gericht, berichtet "Cnet". Der Sammelklage können sich auch andere Betroffene anschließen.

Diverse verstörende Clips bekam sie laut ihrer Klageschrift im Rahmen ihrer Arbeit immer wieder zu sehen. Das habe bei ihr Depressionen und Symptome verursacht, die mit einer posttraumatischen Belastungsstörung assoziiert werden. Sie fühle sich mittlerweile unwohl in Menschenmassen – aus Angst vor einem Amoklauf. Albträume und Panikattacken plagten sie regelmäßig, und die Nähe von Kindern bereite ihr Unbehagen. Sie gibt an, zahlreiche Freunde verloren zu haben. Nun fordert sie Entschädigung für ihr Leid und will Youtube dazu verpflichten, seinen Mitarbeitern mehr Unterstützung zukommen zu lassen.

Häutungen, Enthauptungen, Kindesmissbrauch

Pro Tag müssen Moderatoren aufgrund des niedrigen Personalstandes laut ihrer Darstellung zwischen 100 und 300 "Inhalte" ansehen und darüber entscheiden, ob sie den Youtube-Richtlinien entsprechen oder nicht. Dabei tauchen auch immer wieder grausame Aufnahmen auf, etwa von Tieren, die lebendig gehäutet werden, Enthauptungen, Kindesmissbrauch und andere Arten von Gewalt.

Diese Aufnahmen hätten sie nachhaltig traumatisiert. Die notwendigen Therapiestunden habe sie selbst finanzieren müssen. Vertreten wird sie von der Kanzlei John Saveri, die 2018 bereits im Namen von Facebook-Moderatoren auftreten war, die Ähnliches zu berichten gehabt hatten. Der Prozess endete mit einer Vergleichszahlung von 52 Millionen Dollar durch das Netzwerk.

Youtube soll nachlässig agieren

Man wirft Youtube vor, die Moderatoren nicht adäquat darüber informiert zu haben, welchen Belastungen sie im Rahmen ihrer Arbeit ausgesetzt sein werden und mit welchen Risiken dies verbunden sei. Es gebe keine Hilfestellung dazu, wie man mit den eigenen Reaktionen auf verstörende Videos umgehen sollte, und neue Moderatoren werden auch nicht von erfahrenen Mitarbeitern langsam mit solchen Inhalten vertraut gemacht. Zwar könnten Mitarbeiter im Training den Raum verlassen, wenn solches Material gezeigt wird, jedoch würden viele dies aus Angst um ihren Job nicht tun.

Youtube biete zwar Gespräche mit "Wellness-Coaches" an, doch diese hätten oft keinen medizinischen Hintergrund und seien für Mitarbeiter in Nachtschichten nicht verfügbar. Ihr Berater hätte ihr vorgeschlagen, illegale Substanzen zu konsumieren, statt ihr zu zeigen, wie sie sich psychisch besser abhärten könne. Ein anderer Coach hätte einem Moderator geraten, einfach "auf Gott zu vertrauen". Die Personalabteilung habe es auch verabsäumt, sich helfend einzuschalten. Hinzu kommt, dass Mitarbeiter strenge Verschwiegenheitserklärungen unterzeichnen müssen.

Beklagt wird zudem auch das Fehlen technischer Hilfsmittel, die die Arbeit erleichtern können, etwa das automatische Abschalten der Audiowiedergabe bei oder das Verwaschen von Szenen, die bereits vom Algorithmus als potenziell problematisch erkannt worden seien.

Anbieter soll Screening-Programm einrichten

Da die Arbeit in Youtubes Moderatorenteam "abnormal gefährlich" sei, habe das Unternehmen die alleinige Verantwortung für die Folgen zu tragen, lautet die Schlussfolgerung der Klageschrift.

Die Moderatorin fordert, dass Youtube für ihre bisherigen und künftigen Behandlungskosten, die eine Folge ihrer Arbeit sind, aufkommt. Zudem soll das Netzwerk ein Screening-Programm einrichten, das Mitarbeiter auf ihr Wohlbefinden prüft und bei Problemen für die Therapie aufkommt.

Youtube will mehr Menschen anstellen

Zumindest der Personalmangel könnte bald etwas gemildert werden, denn Youtube will sein Team um menschliche Moderatoren aufstocken, schreibt "The Verge". Aufgrund der Pandemie konnten zahlreiche Mitarbeiter dieser Tätigkeit nicht mehr nachgehen, und man verließ sich stärker auf selbstlernende Systeme, die automatisch problematische Inhalte selektieren sollten.

Doch wie man eingestehen musste, erwies sich dieser Zugang als problematisch. Man stellte fest, dass deutlich mehr Clips und Kommentare fälschlicherweise gelöscht wurden. Dazu kam es zu Pannen, etwa in Form der Entfernung von Postings, die Begriffe enthielten, die als Kritik an der Kommunistischen Partei Chinas aufzufassen waren. Youtube entschuldigte sich dafür und betonte, dass es sich um einen Fehler seitens des KI-Systems gehandelt hatte.

Die KI soll aber weiterhin unterstützend tätig sein und zumindest die offensichtlichsten Verstöße selbstständig aufspüren und sperren. Viele solcher Videos werden entfernt, noch bevor sie ein einziger Nutzer sieht, sagt ein verantwortlicher Manager. 80 Prozent sind zum Zeitpunkt der Löschung von weniger als zehn Menschen angeklickt worden. (gpi, 22.9.2020)