"Ich fühle mich verletzt. Die eklige Art von Verletzung." So zitiert die "Washington Post" eine Frau in ihren Vierzigern, während sie ein Pornovideo schaut. Allerdings nicht irgendeinen Sex-Clip, sondern einen, in dem ihr Gesicht mithilfe einer spezialisierten und trainierten künstlichen Intelligenz auf beeindruckende Weise auf den Körper einer jungen Darstellerin montiert wurde. Der manipulierte Film wurde von Unbekannten online verbreitet.

Sogenannte Deepfakes, in denen etwa Personen etwas sagen, was ihnen digital in den Mund gelegt wurde oder eben plötzlich Teil einer Sexszene sind, werden längst als Waffe eingesetzt – mehrheitlich gegen Frauen. Wo Schauspieler Nicolas Cage auf diese Weise etwa mit Donald Trump "verschnitten" wird, landen bekannte Frauen meist in Pornos.

Immer schwerer erkennbar

Die dahinter liegende Technologie, die im Prinzip für jeden frei verfügbar ist, stellt auch einschlägige Plattformen vor Probleme. Pornhub und Konsorten haben offiziell ein Verbot für Deepfakes ausgesprochen. Jedoch werden die Fälschungen immer besser und immer schwerer zu erkennen.

Bei Google, dessen freie KI-Technologie Tensorflow oft für solche Manipulationen genutzt wird, hat man mittlerweile eine Möglichkeit geschaffen, solche Videos zu melden, damit sie zumindest aus Suchergebnissen gelöscht werden können und somit weniger Publikum erhalten. Reddit hat mehrere Foren entfernt, in denen derlei Clips geteilt wurden.

Eine Bloomberg-Reportage zum Thema Deepfakes.
Bloomberg

Nicht nur für Promis ein Problem

Derzeit trifft es vor allem Frauen, die einer breiten Öffentlichkeit bekannt sind. Jedoch könnte es künftig, etwa als Racheakt, auch zunehmend Privatpersonen treffen. Das fürchtet auch Scarlett Johansson. Die Schauspielerin ist selbst Ziel zahlreicher Manipulationen, oftmals in Pornos. Sie sieht den Kampf gegen Deepfakes mittlerweile als verloren an.

In entsprechenden Onlineforen wird mittlerweile die Produktion solcher Clips als Service angeboten. Für niedrige zweistellige Beträge und Bereitstellung von Bildmaterial für das Training der KI übernehmen die Anbieter solcher Dienste den Rest.

Fake-News 2.0

Neue Herausforderungen stellen die Fake-Clips auch für Gesetzgeber dar. In den USA ist noch nicht geklärt, ob und wann Deepfakes als freie Meinungsäußerung und wann als üble Nachrede oder gar Identitätsdiebstahl und Betrug einzustufen wären. Obwohl zunehmend mehr Menschen Opfer dieser neuen Waffe werden, wurden noch kaum Fälle verhandelt.

Hier sieht man veranschaulicht, wie die KI lernt, ein Gesicht auf einen anderen Körper zu legen.
Foto: HerCampus

Auch an anderer Front sorgt die Entwicklung für Sorgenfalten. Denn sie birgt auch großes Schadenspotenzial auf politischer Ebene und könnte das Phänomen der sogenannten Fake-News auf ein neues Level heben. Auch die EU-Kommission warnte vor kurzem vor gefälschten Politikervideos.

Doch es gibt Hoffnung. Letztlich sind jene Leute, die der Technologie mit Neugier begegnen auch jene, die künftig Wege dafür finden werden, sich gegen ihren Missbrauch zu wehren, argumentiert Tech-Experte Ben Kreimer gegenüber Her Campus. (red, 2.1.2019)