In diesem Deepfake-Video wurde das Gesicht von Schauspielerin Daisy Ridley auf einen fremden Körper montiert.

Screenshot

Deepfakes sind das neue Schreckgespenst im Netz. Dabei handelt es sich um Videos, die es etwa so aussehen lassen, als würde Facebook-Chef Mark Zuckerberg über seine "totale Kontrolle über Milliarden von gestohlenen Daten" reden. Das tat er natürlich nicht. Aber mit Hilfe von Künstlicher Intelligenz kann man Personen beliebige Dinge sagen und in jede denkbare Situation hineinkopieren. Beobachter fürchten, dass die US-Präsidentschaftswahlen 2020 mit manipulierten Videos beeinflusst werden könnten. Eine Studie zeigt nun, womit sich der Großteil der Deepfakes derzeit beschäftigt: Pornografie.

Seit 2017

Mit Pornografie fing auch alles an. 2017 wurden auf einem Reddit-Account namens Deepfakes Videos veröffentlicht, die bekannte Schauspielerinnen in Pornoszenen zeigten. Diese hatten sie nie gedreht, ihre Gesichter wurden vielmehr mit Hilfe von Software in bestehende Pornofilme hineinmanipuliert.

Ein Unternehmen, das es sich nun zur Aufgabe gemacht hat, Deepfakes zu analysieren, um bei der Erkennung helfen, ist Deeptrace. Das Start-up hat herausgefunden, dass die Zahl der Deepfake-Videos in den vergangenen Monaten rasant angestiegen ist. In den vergangenen sieben Monaten habe sich die Anzahl verdoppelt. Bei 96 Prozent der kursierenden Deepfake-Videos handelt es sich demnach um Pornografie.

Gezielte Belästigung

Die Aufnahmen der Personen werden ohne deren Einverständnis verwendet. Die Fake-Videos haben eine zutiefst misogyne Komponente. Denn fast ausschließlich handelt es sich dabei um Frauen. Neben Schauspielerinnen werden auch Politikerinnen oder Aktivistinnen in Deepfakes gezeigt – um sie zu demütigend und zu belästigen. Aber auch Privatpersonen trifft es. In einschlägigen Foren findet man nicht selten Einträge von Männern, die sich Deepfakes mit einer Ex-Freundin oder einer Bekannten wünschen. Inzwischen gibt es bereits Firmen, die rund um die Fake-Pornos aktiv Werbung schalten.

Zum Erstellen eines Deepfakes sind keine tiefgehenden Videoeditierkenntnisse notwendig. Laut Deeptrace werden die Programme immer besser und immer einfacher verfügbar. In den USA setzt man sich mit Deepfakes inzwischen auf rechtlicher Ebene auseinander. In Kalifornien wurde nun ein Gesetz verabschiedet, mit dem Opfer von pornografischen Deepfakes auf Schadenersatz klagen können, wie "Wired" berichtet. (red, 8.10.2019)