Immer wieder tauchen Onlinedienste auf, mit denen Gesichter in Pornos eingefügt werden können.

Foto: imago images/PhotoAlto

Gesichter mit nur wenigen Mausklicks in Nacktbilder oder sogar Pornofilme einbauen: Immer wieder sorgen Onlineservices für Aufregung und Besorgnis, weil sie genau diese Funktion versprechen. Über eine dieser Plattformen berichtete die "Technology Review" des MIT im September. Um dem Service keine indirekten Besucher zu bescheren, nennen die Berichterstatter ihn schlicht "Y".

Vergleichbare Technologien sind nicht neu. Sie werden schon länger dafür genutzt, um andere Personen in explizite Bilder und Videos einzubauen. Sie werden jedoch immer gefährlicher – und zwar aus dem einfachen Grund, dass die Umsetzung einer Fälschung für technisch wenig versierte Menschen immer simpler wird. Derzeit ist zwar meist noch erkennbar, dass das Gesicht nachträglich eingefügt wurde. Der Anteil schwierig erkennbarer Fälschungen dürfte in den kommenden Jahren aber rasant steigen.

Millionen Zugriffe

Eine Website soll allein in den ersten sieben Monaten des Jahres 2021 38 Millionen Zugriffe verzeichnet haben, berichtet das britische Magazin "Glamour". Die Plattform beschreibt den eigenen Service folgendermaßen: "Ziehe jedes Mädchen mit jedem Kleid aus. Überlegener als Deepnude. Die Bedrohung für Mädchen."

Das Tool Deepnude gibt es bereits seit 2019 – und es sorgte damals für einen massiven Shitstorm. Ursprünglich für Linux und Windows entwickelt, nahmen die Entwickler die Software nur wenige Tage nach der Veröffentlichung wieder offline. Ein Verantwortlicher, der unter dem Pseudonym "Alberto" auftrat, betonte, dass er das Interesse an seinem Programm unterschätzt habe und ihm mittlerweile klar geworden sei, dass die Gefahr eines Missbrauchs zu groß sei.

Das Programm nutzt Machine-Learning, um aus Bildern bekleideter Frauen Nacktbilder zu machen. Die dahinterstehende Technik ähnelt damit Deepfake-Technologien, die auch zur Fälschung von Videos verwendet werden.

"Es hat die Macht, dein Leben zu ruinieren, und ist ein absoluter Albtraum", sagt eine Betroffene gegenüber "Glamour". Man fühle sich nicht nur durch den Täter verletzt, sondern auch dadurch, dass die Gesellschaft den Schaden nicht anerkenne, sagt sie. "Es ist eine sehr isolierende, entwürdigende und erniedrigende Erfahrung – es ist lebenszerstörend."

Rechtliche Grauzone

In Großbritannien fallen entsprechende Praktiken in eine rechtliche Grauzone. Die ehemalige britische Kulturministerin und derzeitige Abgeordnete Maria Miller fordert die Regierung deshalb auf, sie zu kriminalisieren. "Für mich ist das ein klares Zeichen dafür, dass Frauen heute mit sehr schwierigen Formen des Missbrauchs konfrontiert sind, die so konstruiert sind, dass sie unter dem Radar fliegen und über dem Gesetz stehen", sagt sie gegenüber den Berichterstattern.

Deepfake-Software sei laut ihr nur ein Teil des Problems. Anhand dieser wolle sie allerdings zeigen, dass es neue Gesetze brauche, "um zu verhindern, dass Bilder von Frauen genutzt werden, um sie zu demütigen, zu erniedrigen und um ihnen Angst zu machen".

"Zutiefst beunruhigend"

Die britische Revenge Porn Helpline reagierte auf das wachsende Problem mit der Einrichtung einer neuen Plattform. Diese soll Betroffenen dabei helfen, die Kontrolle über ihre Bilder zurückzugewinnen. Die Leiterin, Sophie Mortimer, sagt gegenüber den Berichterstattern, dass man zwar wisse, dass es Apps gibt, die Frauen "ausziehen", sich aber noch keine Betroffenen bei der Helpline gemeldet hätten.

"Das könnte daran liegen, dass sich Opfer nicht dessen bewusst sind, dass solche Bilder erstellt wurden", sagt sie. "Ich finde es zutiefst beunruhigend, dass diese Technologie genutzt wird, um Frauen zu erniedrigen und zu entmenschlichen, indem sie einfach auf Körperteile reduziert werden."

Hauptsächlich Frauen betroffen

Senity AI, ein Unternehmen, das Entwicklungen in diesem Bereich beobachtet, schätzt, dass 90 bis 95 Prozent aller Deepfakes im Internet nicht konsensual umgesetzte Pornoclips sind. In 90 Prozent der Fälle wurde demnach eine Frau ungefragt in Videos eingebaut. Das gilt auch für die eingangs erwähnte Webseite "Y".

Dort können Nutzer ein Foto einer beliebigen Person hochladen und haben anschließend die Möglichkeit, aus verschiedenen Pornoszenen zu wählen. Das System generiert in der Folge eine Vorschau. Wer die vollständige Version herunterladen will, muss bezahlen.

Die Auswirkungen solcher Deepfakes gleichen sogenannten "Rachepornos". Die "Technology Review" berichtet diesbezüglich unter anderem von der australischen Aktivistin Noelle Martin, der britischen Autorin Helen Mort und der indischen Journalistin Rana Ayyub. Alle drei waren Hasskampagnen ausgesetzt, in deren Rahmen auch Deepfakes erstellt wurden.

Weitreichende Folgen

"Diese Art von Missbrauch, bei der Leute deine Identität, Namen und Reputation auf so eine verletzende Weise verwenden, erschüttert einen bis ins Mark", erzählt Martin. Bei jedem Bewerbungsgespräch oder Date müsse man fürchten, dass diese Bilder oder Videos thematisiert würden. Es sei ihr außerdem noch kein einziges Mal gelungen, eine Plattform zur Löschung der Beiträge zu bewegen.

Der Betreiber von Y bleibt anonym. Anfragen der Berichterstatter bleiben unbeantwortet. Kurz vor Veröffentlichung des erwähnten Artikels tauchte auf der Website jedoch eine Meldung auf, dass man sich derzeit nicht mehr registrieren könne. Ob Neuanmeldungen noch immer gesperrt sind, ist unklar. (mick, 9.12.2021)