Bild nicht mehr verfügbar.

Tiktok ist vor allem bei jungen Menschen beliebt.

Foto: AP

Eine Milliarde Menschen nutzen Tiktok inzwischen regelmäßig. 60 Prozent von ihnen sind zwischen 16 und 24 Jahren alt, die Kurzvideoplattform ist also besonders attraktiv für ein junges Publikum. Um dieses zu schützen, präsentierte das Unternehmen 2019 stolz eine "Digital Wellbeing"-Option, damit "sich niemand auf dem Weg durch die Inhalte" verirre. Unter anderem kann seither die eigene Bildschirmzeit begrenzt werden.

Der Öffentlichkeit vermittelt das Unternehmen damit, sich um das Wohlbefinden der eigenen User zu sorgen – und sich der Risiken der eigenen Plattform bewusst zu sein. In Wirklichkeit scheint die Plattform allerdings darauf ausgelegt zu sein, Nutzerinnen und Nutzer möglichst lange an den Bildschirm zu fesseln. Das zeigen interne Dokumente, die dem "Spiegel" vorliegen.

Ein präziser Algorithmus

Technisch möglich macht das der Empfehlungsalgorithmus, dessen Funktionsweisen im Großen und Ganzen bisher ziemlich undurchschaubar waren. Bekannt war nur, dass er im Vergleich zu jenen von Social-Media-Plattformen wie Instagram, Facebook und Co als besonders präzise und aggressiv gilt.

Oberstes Ziel sei laut den Unterlagen, immer mehr Nutzer zu sammeln, also die Zahl der "Daily Active User" zu steigern. Außerdem soll eine höhere "Retention", also Bindung und Loyalität, erreicht werden. Einfacher soll es jedoch sein, zu beeinflussen, wie viel Zeit User mit der App verbringen – was wiederum bei der Erreichung der anderen Ziele helfen soll: "Alle Verbesserungen bei der Verweildauer verbesserten auch die Kundenbindung."

Maßnahmen zur Eindämmung der Bildschirmzeit sollen hingegen keine Rolle spielen. In den Dokumenten wird stattdessen erklärt, wie man gegen das "Langeweileproblem" vorgehen könne. Dieses trete dann auf, wenn einem Nutzer nur Videos angezeigt werden, die ihm gefallen. "Dann wird ihm langweilig und er schließt die App." Der Absprung soll verhindert werden, indem die Themen breiter gestreut werden.

"Wie bei Tabakkonzernen"

Auch Nicolas Kayser-Bril von der Berliner Forschungsorganisation Algorithm Watch sagt gegenüber den Berichterstattern, dass das Ziel eindeutig sei, die Verweildauer zu erhöhen: "Tiktok müsste den 'Für-dich-Feed' eigentlich in 'Für-uns-Feed' umbenennen." Laut Kayser-Bril schlägt der Algorithmus außerdem nicht unbedingt solche Videos vor, die die Zufriedenheit der User erhöhen, sondern solche, die sie bei der Stange halten: "Es ist wie bei Tabakkonzernen: Die wissen auch, was sie tun müssten, damit ihre Produkte weniger süchtig machen. Aber sie gestalten sie trotzdem anders", sagt Kayser-Bril.

In einer Stellungnahme gegenüber dem "Spiegel" hält Tiktok daran fest, dass der Einsatz für "Digital Wellbeing" wichtig sei und auch bleibe. Neben der Möglichkeit, die eigene Bildschirmzeit auf 40, 60, 90 oder 120 Minuten zu begrenzen, wird Nutzern nach zwei Stunden eine Warnung angezeigt, dass man vielleicht eine Pause machen sollte.

Die Unterlagen sollen bereits 2019 verfasst worden sein, allerdings gibt es Anzeichen dafür, dass sie erst kürzlich aktualisiert wurden. An einer Stelle soll es demnach um eine Funktion gehen, die im Dezember 2020 erstmals getestet und im September dieses Jahres offiziell zur Verfügung gestellt wurde.

Datensammlung

Gefüttert wird der Algorithmus mit allerlei Userdaten. Dazu gehören Informationen darüber, welche Videos eine Person wie lange geschaut hat und wo sie einen Kommentar hinterlassen hat. Auf Grundlage dessen wird berechnet, welche Inhalte als Nächstes angezeigt werden und wie hoch die Wahrscheinlichkeit ist, dass auch dort kommentiert wird.

Von anderen Plattformen unterscheide sich Tiktok dabei insofern, als das Nutzungsverhalten von Freunden und Bekannten keine große Rolle spiele.

Gefahren

Dass die Kurzvideoplattform vor allem junge Nutzerinnen und Nutzer anzieht, birgt allerdings noch weitere Gefahren, fallen 60 Prozent von ihnen doch in die Altersgruppe, auf die Extremisten abzielen, berichtete der STANDARD. Dem Algorithmus ist nämlich egal, warum man ein bestimmtes Video anschaut. Wer bestimmte Dinge anschaut, kriegt mehr vom selben zu sehen – wodurch sich rechtsextremer oder islamistischer Content unter lustige Koch- und Tanzvideos mischen kann. (mick, 6.12.2021)