Für Miriam al-Adib war es ein Schock, als sie nach einem langen Arbeitstag von ihrer 14-jährigen Tochter angesprochen wurde. "Ich möchte dir etwas zeigen", sagte der Teenager und hielt seiner Mutter das Smartphone entgegen. Zu sehen war ein Bild aus dem Netz, das ihre Tochter angeblich nackt zeigt. Die Darstellung ist laut Al-Adib extrem realistisch, und sie weiß nicht, ob sich diese Bilder nun auf diversen zwielichtigen Plattformen wiederfinden.

Dies ist kein Einzelfall, im spanischen Ort Almendralejo wurden mehrere Mädchen Opfer derartiger Deepfakes, die mit KI-Tools generiert wurden. Geteilt wurden die Bilder unter anderem in Whatsapp-Gruppen, die von Mitschülern erstellt wurden. Gegen die Ersteller der Bilder wurden Anzeigen erstattet. Am anderen Ende der Welt, in New Jersey, wurde wenige Wochen später ein ähnlicher Fall bekannt.

Bekannt wurden derartige diffamierende Fakes vor allem durch prominente Fälle wie Taylor Swift. Allerdings dürften auch nichtprominente Menschen in aller Welt Opfer derartiger Fälschungen sein. Bei den Opfern kann dies schwere emotionale Schäden hinterlassen.

Clothoff: Eine App im Zentrum der Vorwürfe

In beiden Fällen soll eine KI-App namens Clothoff verwendet worden sein. Sie ermöglicht es, mit wenigen Klicks und für geringe Geldbeträge Menschen virtuell zu "entkleiden". Technisch funktioniert das, indem die Kleidung automatisch wegretuschiert wird und durch Bildelemente ersetzt wird, die sich mit großer Wahrscheinlichkeit an dieser Stelle des Fotos befinden. Das heißt nicht, dass die Person nackt tatsächlich so aussieht, wie es auf dem Fake-Bild dargestellt wird, aber die Darstellung ist realistisch genug, um Mitschüler zu täuschen.

Ewan Liam Torres
Ein vermutlich via KI generiertes Bild von Ewan Liam Torres, dem angeblichen CEO von Clothoff.
Screenshot

Eine kurze Stichprobe des STANDARD hat ergeben, dass die App per se nicht in den hiesigen Versionen der App-Stores von Google und Apple verfügbar ist, sehr wohl aber über die Website als Web-App zugänglich ist. Von dort dürfte sie auch auf mobilen Geräten nutzbar sein. In anderen Ländern, wie etwa Großbritannien, wurde der Zugang zu der Plattform gänzlich gesperrt, wie es in einem Artikel des "Guardian" heißt.

Während nun gegen die Jugendlichen bereits gerichtlich vorgegangen wird, hatte man gegen die Urheber des KI-Tools wenig in der Hand. Denn diese haben ihre Spuren verwischt, der angebliche CEO wurde vermutlich mithilfe eines KI-Bildgenerators gefälscht, diverse Websitedaten anonymisiert. Der "Guardian" möchte in einer exklusiven Recherche nun die Drahtzieher gefunden haben.

Spuren nach Belarus, Ukraine und London

So hat das Medium Zugriff auf Screenshots bekommen, laut denen eine Belarussin namens Dasha Babicheva Geschäfte im Namen von Clothoff getätigt hat, darunter Verkehr mit Banken und Änderungen bei diversen Geschäftspartnerschaften. In Social Media wird außerdem ein gewisser Alaiksandr Babichau als Babichevas Bruder gelistet, er wird vom Medium ebenfalls als mutmaßlicher Drahtzieher hinter dem Tool geführt.

Babicheva hatte auf Anfragen des Mediums jedoch nicht geantwortet und ihr Instagram-Profil anschließend auf "Privat" gestellt. Die Journalisten konnten Babichau telefonisch erreichen. Dieser wiederum verneinte jegliche Verbindung mit der App und bestritt, dass er eine Schwester namens Dasha habe. Zudem bestritt er, dass ein mit der Website verbundener Telegram-Account ihm gehöre, obwohl dort seine Telefonnummer gelistet war. Kurz nach dem Telefonat wurde der "Guardian" vom besagten Telegram-Account geblockt.

Eine Geldspur führt hingegen nach London. Dort wurde ein Unternehmen namens Texture Oasis registriert, welches angeblich Produkte für die Architektur- und Industriedesignbranche verkauft. Im Medienbericht wird jedoch vermutet, dass es sich um ein Fake-Business handelt, mit dem Geldtransfers an Clothoff verschleiert werden sollen.

Diese Vermutung wird unter anderem dadurch bekräftigt, dass ganze Texte der Website von einem anderen, rechtschaffenen Unternehmen kopiert wurden, darunter sogar die Namen der Beschäftigten: Als der "Guardian" einen der auf der Website von Texture Oasis gelisteten Mitarbeiter kontaktierte, hatte dieser noch nie etwas von der Firma gehört.

Allerdings gibt es noch eine weitere Spur: ein Videospielmarktplatz namens GGSel, mit dem russische Gamer westliche Sanktionen umgehen sollen. Beide Websites hatten die GG Technology Ltd als Eigentümer geführt, welche wiederum auf einen Ukrainer namens Yevhen Bondarenko registriert ist. Beide Websites haben diese Referenzen jedoch inzwischen entfernt.

In der Zwischenzeit hatte ein Mensch namens Alexander German, der auf Linkedin als Mitarbeiter von GGSel geführt wird, den Website-Code von Clothoff auf die Developer-Plattform Guithub geladen. Kurz danach wurde der Code wieder gelöscht. Unter der auf Linkedin gelisteten Telefonnummer antwortete im Rahmen der "Guardian"-Recherchen ein Mensch, der sich als Alexander German identifizierte. Er betonte jedoch, kein Web-Developer zu sein und keine Verbindung zu Clothoff zu haben.

Auch das Unternehmen GGSel bestritt auf Anfrage der Journalisten eine Verbindung zu Clothoff: Weder Babichau noch German hätten jemals für das Unternehmen gearbeitet. Bondarenko hatte in der Zwischenzeit seine Social Media-Accounts gelöscht, das Medium konnte ihn nicht für eine Stellungnahme erreichen.

Ab 18

Und auch seitens Clothoff wird bestritten, dass eine Verbindung zu den genannten Personen und Unternehmen besteht. Für alle genannten Personen und Unternehmen gilt die Unschuldsvermutung.

Auch heißt es auf Anfrage des Mediums seitens Clothoff, dass es "unmöglich" sei, Bilder von minderjährigen Menschen zu "verarbeiten". Wie das technisch verhindert werden soll, konnte nicht beantwortet werden. Ebenso wenig wie die Frage, wie dann etliche Deepfake-Pornos von Schülerinnen in Spanien generiert werden konnten.

Bezüglich der in New Jersey generierten Bilder vermutet man seitens Clothoff, dass diese mit der Software eines Konkurrenten erstellt werden. Denn auch das ist eine traurige Realität: Clothoff ist nicht der einzige Anbieter dieser Art. Derartige Tools sind oft nur eine Google-Suche entfernt, die Nutzung ist einfach und in vielen Fällen sogar gratis. Die Problematik der pornografischen Deepfakes wird sich in den kommenden Monaten somit noch verschlimmern. (red, 1.3.2024)