Bild nicht mehr verfügbar.

Über Apps, die eine Art "Gruppenverzeichnis" bieten, sind die einschlägigen Chats recht schnell zu entdecken.

Foto: Reuters

Mit 1,5 Milliarden Usern ist Whatsapp der größte Messenger der Welt. Die zum Facebook-Konzern gehörende App ermöglicht den schnellen und einfachen Austausch von Nachrichten und steht symbolhaft auch für das zunehmende Verschwinden der klassischen SMS.

Die Plattform dient aber nicht nur für Festtagsgrüße, Smalltalk und organisatorische Besprechungen. Sie ist auch Umschlagplatz für sehr problematische Inhalte. Zwei israelische NGOs schlagen nun Alarm. Denn sie haben zahlreiche Gruppen auf Whatsapp entdeckt, deren Mitglieder kinderpornografische Inhalte austauschen. Der Messengerbetreiber scheint jedoch mit der Moderation seiner Plattform überfordert zu sein.

Auffindbar über Empfehlungsapps

Die NGOs Screen Savers und Netivei Reshe haben im Oktober 20 Tage lang auf Whatsapp gefahndet und mehr als zehn einschlägige Gruppen überwacht. Im Juli war ein Mann an sie herangetreten, nachdem er Bilder von Kindesmissbrauch auf Whatsapp gesehen hatte, und brachte so den Stein ins Rollen.

Zugänglich sind die Gruppen nicht nur für Eingeweihte, die sich untereinander kennen, sondern sie tauchen auch in einer App auf, die eine Art Verzeichnis für Whatsapp-Chats bietet. Die Namen der Gruppen sind teilweise uneindeutig, teilweise lassen sie aber keinen Zweifel darüber, welche Inhalte zu finden sind. Sie tragen etwa Namen wie "child pron videos", "child sex" oder "video cp". In die Chats kann man per Klick einsteigen und muss nicht von einem Mitglied hinzugefügt werden, da für sie ein Einladungslink erstellt wurde. Das Feature existiert in Whatsapp seit Ende 2016.

Ein Ausschnitt aus dem Report (Links und Gruppenbilder mit Personen wurden zensiert).
Foto: Screen Savers/Netivei Reshe

Techcrunch konnte die Untersuchung nachprüfen und stieß auch selbst schnell auf entsprechende Chats. Auch das Start-up Antitoxin Technologies unterstützt den Report. Bei eigenen Nachforschungen konnte man in solchen Chats mehr als 1.300 Bilder und Videos identifizieren, die Minderjährige bei sexuellen Handlungen zeigten.

Facebook verwies auf Behörden

Schon seit September stehen die NGOs in Kontakt mit Facebook. Die Bitte nach einem Treffen lehnte Policy-Chefin Jordana Cutler allerdings ab und riet stattdessen dazu, die israelischen Behörden zu kontaktieren. Man habe der Polizei angeboten, bei der Untersuchung zusammenzuarbeiten, erklärte ein Sprecher des Unternehmens gegenüber Techcrunch.

Bei Whatsapp verweist man auf den Einsatz von "fortgeschrittenen Technologien" wie KI, um Profilbilder und gemeldete Inhalte zu scannen. Zuletzt habe man 130.000 Accounts wegen Verstößen gegen das Verbot von Inhalten in Bezug auf Kindesmissbrauch gesperrt. Entdeckte Fälle würden zudem dem National Center for Missing and Exploited Children in den USA gemeldet und man arbeite weltweit mit Behörden zusammen.

Auf Basis des Reports von Techcrunch will Whatsapp nun auch die entdeckten Gruppen untersuchen. Dass man erst jetzt reagiert, liegt auch daran, dass die NGOs ihre eigene Untersuchung nur der Polizei, aber nicht dem Unternehmen zur Verfügung gestellt hatten. Das wirft allerdings die Frage auf, inwiefern man in den letzten Wochen nun mit den israelischen Behörden kooperiert hat.

Verschlüsselung als Fluch und Segen

Es bringt aber auch ein anderes Problem aufs Tapet. Für automatisierte Checks scannt Whatsapp nach eigenen Angaben unverschlüsselten Informationen. Das sind etwa die Profilbilder von Nutzern sowie die Titelbilder von Gruppen und ihre Beschreibung. Auf die Nachrichten und Inhalte in den Gruppen selbst hat man keinen Zugriff, da diese Ende-zu-Ende-verschlüsselt sind. Technologie, die etwa die freie Meinungsäußerung in Staaten mit repressiver Regierung schützt, wird hier für den Austausch von Kinderpornos missbraucht.

Sofern eindeutige Verstöße nicht schon aus den öffentlichen Informationen hervorgehen, was bei den entdeckten Gruppen öfter der Fall war, ist eine Untersuchung nur auf manuellem Wege möglich, da ein Moderator dafür selbst einer solchen Gruppe beitreten müsste.

Zuwenig Personal

Whatsapp verlässt sich jedoch viel zu sehr auf automatisierte Kontrollen, kritisiert man bei Antitoxin Technologies. Für "händische" Überprüfung dürften aber schlicht die Personalressourcen nicht vorhanden sein.

Der Messenger läuft als großteils eigenständige Firma unter dem Dach von Facebook und ist selbst für die Moderation zuständig. Während das bekannte Social Network sein Team an Kontrolleuren heuer auf 20.000 Personen verdoppelt hat, arbeiten bei Whatsapp insgesamt nur 300 Leute. Das Unternehmen erklärt, dass man an starker Verschlüsselung festhalte. Die Hersteller von Mobilgeräten könnten aber einen Scan von Inhalten am Gerät selber ermöglichen. Dies würde Überprüfungen zulassen, ohne die Verschlüsselung zu unterlaufen.

Whatsapp braucht dringend neue Mitarbeiter, die sich mit solchen Fällen befassen, schlussfolgert man bei Techcrunch. Das mag zwar teuer sein, doch wer seine riesige Nutzerbasis von 1,5 Milliarden Menschen künftig mit Werbung monetarisieren möchte, muss bereit sein, dieses Geld in die Hand zu nehmen, um nicht versehentlich zu einem Zufluchtsort für Kinderpornoringe zu werden. (red, 22.12.2018)