Seit das Deepfake Tool ins Netz gestellt wurde, tauchen neben Pornos vermehrt teils bizarre Videos auf: aus Merkel wird Trump, aus Supermans Freundin der Schauspieler Nicholas Cage.

Foto: NICHOLAS KAMM

Barack Obama sitzt mit Anzug in einem Büro, blickt in die Kamera und sagt: "Präsident Donald Trump ist ein kompletter Vollidiot."

Der kurze Videoclip sieht nach einem politischen Skandal aus. Ist er aber nicht. Denn es handelt sich um einen sogenannten Deepfake: ein Video, das täuschend echt wirkt, in Wahrheit aber mittels künstlicher Intelligenz (KI) erstellt wurde. Das US-Portal Buzzfeed hat die gefälschte Obama-Rede mit dem Synchronsprecher Jordan Peele produziert, um aufzuzeigen, wie gefährlich Deepfakes in Zukunft werden könnten.

Deepfake-News

Treibender Faktor hinter den manipulierten Clips waren Pornoseiten. "Face swaps", die Montage eines Gesichts auf das Gesicht einer anderen Person, oft mit bekannten Filmstars, sind dort seit Jahren beliebt. Lange waren nur Profis mit entsprechender Photoshop-Software in der Lage, solche Videos herzustellen. Bis ein anonymer Nutzer, der sich selbst "deepfake" nennt (eine Kombination aus "Deep Learning" und "Fake"), ein Programm in einem Reddit-Forum teilte, das es auch Usern ohne umfassende Programmierkenntnisse ermöglichte, solche Fälschungen zu erstellen. Vereinfacht erklärt speisen Nutzer das Programm mit existierenden Fotos einer Person – je mehr, desto besser. Mittels Machine-Learning ersetzt das Tool daraufhin das alte Gesicht in dem Video durch ein neues. Seit das Tool ins Netz gestellt wurde, tauchen neben Pornos vermehrt teils bizarre Videos auf: aus Merkel wird Trump, aus Supermans Freundin der Schauspieler Nicholas Cage.

Die mit derart wenig Aufwand erstaunlich gut funktionierende Technologie bringt eine Frage mit sich, die in den letzten Monaten US-Experten umtreibt: Sieht so die Zukunft der Fake-News aus?

Deepfakes wird gefährliches Potenzial nachgesagt: Sie könnten etwa Politiker bei skandalösen Handlungen zeigen, die diese so nie durchgeführt haben. Auf diese Weise könnten Wahlen beeinflusst oder politische Agenden durchgesetzt werden. Die Motive wären letztlich dieselben wie bei herkömmlichen Fake-News. Das zeigten die US-Wahlen 2016, als politische Gegner durch falsche Behauptungen diffamiert und Positionen angegriffen wurden, um Kandidaten zu stärken.

Doch während die bisher bekannten Fake-News anhand eines Faktenchecks auch von einem Menschen als solche identifiziert werden können, besteht bei Deepfakes die Gefahr, dass sie in Zukunft kaum mehr von echten Inhalten zu unterscheiden sind.

Der Technologieforscher Aviv Ovadya etwa warnte in diesem Zusammenhang vor einer möglicherweise bevorstehenden "Informationsapokalypse", bei der es nicht mehr möglich wäre, zu ermitteln, was echt ist und was nicht. Das könnte weitreichende Konsequenzen haben, würde es doch bedeuten, dass nicht nur gefälschte Inhalte für real gehalten werden, sondern auch umgekehrt.

Zeigt ein Video eine bekannte Person bei einer Straftat, könnte diese im Nachhinein behaupten, dass es sich um einen Deepfake handle. Bei gezielten Kampagnen im Netz wird es zudem schwieriger als heute sein, die Täter ausfindig zu machen.

Dazu kommt, dass visuelle Deepfakes künftig vermutlich nicht die einzige täuschend echt wirkende Fälschung sein werden. Das Softwareunternehmen Adobe arbeitet an einem Tool namens Voco, das Stimmen nachahmt und bei ersten Vorstellungen verblüffend gut funktionierte. Aufgrund der rapiden Entwicklung von Sprachassistenten, die so natürlich wie möglich klingen sollen, wird in dem Bereich massiv geforscht.

Noch nicht ganz ausgereift

Gänzlich dystopisch ist die Zukunft der Fake-News nicht. Adobe betont, zeitgleich mit Voco auch an Mitteln zu arbeiten, um solche Fakes zuverlässig erkennen zu können.

Aktuelle Deepfakes wirken zwar auf den ersten Blick verblüffend echt, trotzdem ist die Technologie noch nicht gänzlich ausgereift: Die ausgetauschten Gesichter blinzeln etwa kaum oder bewegen den Kopf unnatürlich – Sachen, die mit dem freien Auge erkennbar sind.

Das US-Verteidigungsministerium hat bereits erste Projekte initiiert, um gegen Deepfakes vorzugehen. Ein Tool, das ebenfalls mithilfe von bestehenden Daten und maschinellem Lernen arbeitet, soll gefälschte Inhalte zuverlässig erkennen. Es nutzt derzeitige Schwächen von Deepfakes aus. Da die Deepfake-App mit Trainingsdaten arbeiten, verbessern sich die Fälschungen jedoch immens schnell. Daher ist zu erwarten, dass allzu offensichtliche Fehldarstellungen bald ausgemerzt sind. Somit müssten Erkennungstools mindestens genauso effizient weiterentwickelt werden, um die gefälschten Inhalte weiterhin zu identifizieren. (Muzayen Al-Youssef, 20.10.2018)