Das Unternehmen reagiert auf Vorwürfe, die Ende vergangenen Jahres erhoben wurden.

Foto: Pornhub

Pornhub erlaubt es neuen Nutzern, Videos hochzuladen. Das Unternehmen hatte die Funktion zeitweise ausgesetzt. Nun kehrt sie parallel zu einer neuen Upload-Identifikationspflicht zurück. Der Schritt erfolgt, nachdem Pornhub Ende vergangenen Jahres aufgrund seines Umgangs mit Inhalten, die Missbrauch zeigen, in Kritik geraten war. So kritisierte die "New York Times" in einer Kolumne, dass die Pornografieplattform nicht genug tue, um gegen die Verbreitung missbräuchlicher Inhalte vorzugehen.

User, die Inhalte hochladen wollen, müssen sich nun verifizieren – dabei greift die Plattform auf die Lösung eines Drittanbieters, nämlich des Londoner Unternehmens Yoti, zurück. User müssen ein aktuelles Foto und einen amtlichen Lichtbildausweis hochladen sowie ein Video oder eine Sprachaufnahme von sich. Yoti würde dann überprüfen, ob es sich um ein echtes Dokument handelt – und dieses mit den anderen Daten abgleichen. Pornhub selbst sieht diese Informationen nie. Dokumentiert werde laut Yoti, das seine Softwarelösung seit 2014 anbietet, nur, ob die Verifizierung stimmte oder nicht, ansonsten würden keine Daten gespeichert.

Missbrauchsinhalte blieben stehen

Die Vorwürfe gegen Pornhub hatten zur Folge, dass die die Zahlungsdienstleister Visa und Mastercard ihre Kooperation mit der Plattform für beendet erklärten. Pornhub reagierte damit, dass die Firma sämtliche Inhalte, die von nichtverifizierten Usern stammen, entfernte. Das waren über zehn Millionen Videos – mit dem neuen Verifizierungsprozess sollen bisher anonyme Nutzer, die Inhalte hochladen wollen, verpflichtet werden, sich zu registrieren. Anhand des Lichtbildausweises soll sichergestellt werden, dass die Darsteller tatsächlich volljährig sind. Die "New York Times" hatte kritisiert, dass es für Moderatoren gar nicht möglich sei, festzustellen, ob eine dargestellte Person 16, 17 oder bereits 18 ist.

Moderation wird ausgebaut

Die Firma kündigte außerdem einen umfassenden Ausbau seiner Moderation an. Einerseits würden softwareseitig mehrere Systeme von Unternehmen wie Google und Microsoft eingesetzt werden, um illegale Inhalte – speziell jene, die Kindesmissbrauch zeigen – zu finden und zu entfernen. Andererseits soll auch ein Re-Upload verhindert werden. Um eine Verbreitung derartiger Videos im Netz zu verhindern, können sie nicht mehr heruntergeladen werden. Auch soll ein eigenes Team Inhalte proaktiv prüfen, um Verstöße zu identifizieren. Weiters sollen Meldungen von "Trusted Flaggers", die vorab nominiert werden, prioritär geprüft werden. (muz, 4.2.2021)