Bild nicht mehr verfügbar.

Zahlreiche aktuelle und ehemalige Mitarbeiter üben scharfe Kritik am Unternehmen.

Foto: Reuters

Die Mondlandung war inszeniert, Masernimpfungen verursachen Autismus, die Erde ist eine Scheibe und Hillary Clinton steht an der Spitze eines Kinderpornorings, dessen geheime Basis sich in einer Washingtoner Pizzeria befindet. Es gibt kaum ein Thema, aus dem sich nicht eine Verschwörungstheorie stricken lässt. Und es gibt kaum eine Verschwörungstheorie, die nicht ihren Weg auf die Videoplattform Youtube findet.

Und diese steht nun in der Kritik. Obwohl selbst zahlreiche eigene Mitarbeiter wiederholt vor der Entwicklung gewarnt haben, soll die Führung des Unternehmens es verabsäumt haben, mehr gegen problematische Inhalte zu unternehmen. Für mehr Verweilzeit und Nutzerinteraktionen sollen sie es in Kauf genommen haben, dass "toxische Videos" auf der Seite florieren konnten, berichtet Bloomberg.

Devise: Bloß kein Aufsehen erregen

Dass eine massenhaft besuchte Plattform, die primär von den Nutzern mit Inhalten befüllt wird, auch zur Verbreitung kruder Theorien genutzt wird, dürfte unvermeidlich sein. Problematisch wird es allerdings dann, wenn die Masse solcher Inhalte größere Ausmaße annimmt und die eigenen Empfehlungsalgorithmen auch noch zu ihrer Verbreitung beitragen.

Zahlreiche Mitarbeiter hätten in den vergangenen Jahren Alarm geschlagen. Sie schlugen vor, auch einige Videos zu entfernen, die knapp nicht in die Kategorie "Hassrede" fielen und wollten auch die Verbreitung solcher Inhalte umfassend analysieren. Doch vom Management kam als Reaktion nur die Aufforderung, bloß kein Aufsehen zu erregen. Der Führung sei es nur um "Engagement", also möglichst hohe Aktivität auf Youtube, gegangen, berichte 20 ehemalige und aktuelle Angestellte.

Diese kritisieren auch Firmenchefin Susan Wojcicki. Sie habe in dieser Diskussion nie Stellung bezogen, sondern sei auf dem Standpunkt verharrt, dass ihre Aufgabe die Leitung der Firma sei und nicht, sich mit solchen Angelegenheiten zu beschäftigen.

Youtube weist Vorwürfe zurück

Eine Darstellung, die von einer Firmensprecherin zurückgewiesen wird. Wojcicki involviere sich sehr wohl und das Unternehmen betreibe seit zwei Jahren große Anstrengungen, um mit derlei Problemen umzugehen. Man habe "signifikante Schritte" gesetzt, darunter auch eine Erneuerung des Empfehlungssystems, um die Verbreitung von "schädlicher Falschinformation" einzuschränken. Zudem seien die Nutzungsrichtlinien alleine 2018 mehr als 30 Mal angepasst worden.

Es ist nicht das erste Mal, das solche Vorwürfe gegen Youtube erhoben werden. Auch mehrere ehemalige Manager berichteten bereits von der "Unfähigkeit" des Konzerns, bei der Einschränkung von problematischen Inhalten.

Zuletzt stand Youtube nach einem Masernausbruch mit Todesopfern im Fokus. Das britische Unternehmen Moonshot hatte dazu Daten analysiert und festgestellt, dass ein Großteil der populären Anti-Impfungsvideos von weniger als 20 Kanälen verbreitet worden waren, die insgesamt mehr als 170 Millionen Zuseher erreichen konnten. Hinzu kam, dass diesen Nutzern automatisiert weitere Videos mit Verschwörungsinhalten empfohlen wurden.

Zugriffe vor Ethos

Der Umgang mit solchen Videos sei aber nicht immer so lax gewesen, bemängelt Micah Schaffner, der ab 2006 für einige Jahre bei Youtube gearbeitet hatte. Damals seien plötzlich vermehrt Videos aufgetaucht, die Magersucht glorifizierten. Damals hätten die Moderatoren begonnen, "wie wild" den Bestand nach solchen Clips zu durchforsten, Altersbeschränkungen vorzuschalten, sie aus den Empfehlungsmechanismen zu entfernen oder gleich ganz zu löschen, da sie "die Gesundheit unserer Nutzer bedrohten".

Damals, so denkt er, wäre man auch mit Verschwörungsvideos zu Impfungen so verfahren. Doch irgendwann hätte man begonnen, Sicherheit zugunsten von Profiten aufzugeben. Google hatte Youtube im Herbst 2016 übernommen. 2009 begannen die neuen Eigentümer, mehr Kontrolle auszuüben, eigene Manager zu installieren und den Empfehlungsalgorithmus für die Maximierung der Zugriffszahlen umzuschreiben. Eine Milliarde Stunden angesehener Videos täglich war das ausgegebene Ziel, das man 2014 schon zu einem Drittel erreicht hatte.

Meist keine Löschung

Die Folge war auch eine stetig höhere Verbreitung verschwörerischer und extremer Inhalte, aber auch verstörend gestaltete Videos für Kinder, die später ebenfalls zu einiger Kritik an Youtube führten. Schon bevor Youtube Ende 2017 begann, größere Maßnahmen zu setzen, hatte ein Entwickler empfohlen, Inhalte im Grenzbereich der Nutzungsrichtlinien zumindest nicht automatisch empfehlen zu lassen.

Doch sein Anliegen wurde abgelehnt. Erst im letzten Jänner hat sich Youtube letztlich zu diesem Schritt durchgerungen. Gelöscht werden viele Verschwörungsclips und andere Probleminhalte aber dennoch nicht. Stattdessen sperrt man sie für Monetarisierung und blendet Informationsboxen ein, die "Fake News" aufklären sollen.