Die computergesteuerte Erkennung von Deep Fakes wird besser – die Deepfakes auch.

Foto: APA/AFP/ALEXANDRA ROBINSON

Die gute Nachricht: Auch bei den neuesten Deep Fakes, also Fotos, Tonaufnahmen und Videos, die mithilfe künstlicher Intelligenz manipuliert wurden, fällt uns auf, dass irgendetwas nicht stimmt – auch wenn wir nicht immer ganz genau sagen können, was genau es ist, das uns irritiert. Das kann ein kleiner, verwackelter Bildausschnitt sein. Oder die Augenpartie wirkt ein wenig verzerrt, die Stimme hat einen leichten Hall. Vielleicht ist es auch dieses Blinzeln, das eine Spur zu hektisch wirkt. Und nach wie vor sind es ausschließlich absolute Profis, die mithilfe künstlicher neuronaler Netzwerke die Grenze zwischen Wahrheit und Fiktion verwischen.

Das war es aber auch schon mit guten News. Denn es wird nicht mehr lange dauern, bis uns gefälschte Videos in großer Zahl täuschen werden. Schon heute ist die Technologie dafür über Apps frei erhältlich – und die Möglichkeiten zur Manipulation werden mit jeder Anwendung besser. Die Entwickler und Entwicklerinnen tauschen sich in Foren aus und öffnen ihre Codes zur Verbesserung durch die Community. Dank der Schwarmintelligenz in Verbindung mit selbstlernenden Algorithmen und steigender Rechenpower großer Firmen werden Deep Fakes von Tag zu Tag realer. "Das lässt sich nur über eine eindeutige Signatur lösen, die bereits beim Erstellen des Fotos eingebettet wird", sagt Deep-Fake-Experte Clemens Wasner dem STANDARD. Schon bald reiche das menschliche Auge nicht mehr aus, um die Bearbeitung der Clips zu registrieren.

Manche Deepfakes wie dieser hier – der John Travolta anstelle von Tom Hanks als Forrest Gump zeigt – sind einfach nur unterhaltsam. Gefährlich und verletztend wird, es sobald damit politische Ansprachen oder pornografisches Material gefaket werden.
Shamook

Umso wichtiger also, dass die computergesteuerte Erkennung von Deep Fakes besser wird. Wie hoch hier der Aufholbedarf ist, zeigte kürzlich ein von Facebook, Amazon und Microsoft organisierter Wettbewerb. Bei diesem sollten die mehr als 2000 Bewerber mithilfe ihrer über 35.000 eingereichten Software-Anwendungen 100.000 bekannte Videos in einer Datenbank scannen und die Deep Fakes entlarven. Die Gewinnersoftware des Weißrussen Selim Seferbekov erkannte gerade einmal 82 Prozent der Fakes. Ausgeweitet auf bislang unbekannte Kurzvideos sank die Erfolgsrate seines Programms rapide auf knapp zwei Drittel. Die bislang entwickelte Enttarnungssoftware von Lügenbildern taugt also gerade einmal als Unterstützung, keinesfalls als vertrauenswürdiges Schiedsgericht.

Ein weiteres Problem: Die Algorithmen der Deep Fakes lernen teilweise relativ schnell, wie man die Schnüffelsoftware umgeht und austrickst.

Die schnelle Verbreitung potenzieller Deepfakes in den Sozialen Medien bereitet vielen Menschen große Sorge.
BuzzFeedVideo

Pornos dominieren

Noch handelt es sich bei rund 96 Prozent aller Deep Fakes um pornografisches Material: Fotos oder auch Videos von Schauspielerinnen, Popstars, Ex-Freundinnen oder beliebigen Frauen aus dem Netz werden per Computer in entwürdigende Posen hineinmontiert. Es geht um Macht und Rache. Die Clips zerstören die Leben tausender Frauen, ihre Persönlichkeitsrechte werden missachtet und sie durch die täuschend echten Lügenbilder öffentlich bloßgestellt. Dass realistisch wirkende, aber gefälschte Darstellungen in Zukunft nicht nur das Privatleben unzähliger Menschen durcheinanderbringen, sondern auch die demokratische Debatte verzerren können, zeigt das Beispiel der indischen Investigativjournalistin Rana Ayub. Sie wurde im Jahr 2018 Opfer einer Hasskampagne, die darin mündete, dass ein gefälschtes Pornovideo, bei dem ihr Gesicht mittels Deep-Fake-Software auf den Körper einer Darstellerin montiert worden war, in sozialen Medien verbreitet wurde.

Im konservativen Indien, wo Frauen in jeder gesellschaftlichen Position Anfeindungen und massiver sexueller Gewalt ausgesetzt sind, war das klarer Rufmord. Man wollte sie fertigmachen, ihre Person und ihre Recherchen – Ayub befasste sich mit religiös motivierter Gewalt – diskreditieren.

Das ist Joseph Labba. Er existiert nicht wirklich, auch wenn ihn sein Online-Auftritt als Politberater für NGOs im Nahen Osten auswies. Die Fälle scheinbar konstruierter Experten, die vor allem in rechtspopulistischen Zeitschriften "ihre" Meinung kundtaten, häufte sich in den vergangenen Jahren. Fällt Ihnen auf, was mit Labba nicht stimmt?
Foto: Tungstène / ExoMakina / Sam Meyer

Rufmordkampagnen, die sich Deep Fakes bedienen, können nicht nur die Integrität einzelner Journalistinnen und Journalisten untergraben, sondern Medien generell schwächen. Hinzu kommt, dass die Fälschungen die Glaubwürdigkeit von Fakten beschädigen. Wenn sich Konsumenten nicht mehr auf die Authentizität des ausgespielten Audio- und Videomaterials verlassen können, verschärft dies die Debatte um Fake-News nur weiter.

Gefährlich unglaubwürdig

Auch für Politik und Wirtschaft haben Deep Fakes ein hohes Gefahrenpotenzial. Bilder politischer Gegner oder Bewerber für Funktionen könnten mit täuschend echt wirkendem, manipuliertem Material, das sie in verhängnisvollen Situationen zeigt, gefälscht werden: bei Treffen mit Lobbyisten, beim Drogenmissbrauch oder in anderen brisanten Situationen, die letztlich Amt oder Wahlsieg kosten könnten.

Der Sicherheitsanalyst Sam Meyer untersuchte gemeinsam mit "The Daily Beast" Labbas Bild forensisch. Die Software erkannte Störpixel bei seinem Ohr und seinem Mund.
Foto: Tungstène / ExoMakina / Sam Meyer

Das Szenario klingt bedrohlich: Manipulierte Videos fluten das Netz, wo sie auf Massenmedien und soziale Netzwerke treffen, die auf Emotionen, Reichweite und schnelle Verbreitung getrimmt sind. Fakes könnten künftig soziale Spaltungen verschärfen oder die öffentliche Sicherheit untergraben. Ein virales Video, das eine renommierte Wissenschafterin zeigt, die eine nahende Naturkatastrophe ankündigt, könnte zur gefährlichen Massenpanik führen. Ein Deep Fake von Donald Trump , wie er den Einsatz der US-Streitkräfte gegen Nordkorea anordnet, könnte – aufgrund schneller Verbreitung in sozialen Medien – einen Atomkrieg auslösen.

Tatsächlich unterlief dem Algorithmus bei der automatischen Erstellung dieses künstlichen Gesichts ein relativ grober Fehler. Joseph Labba hat drei Schneidezähne!
Foto: Tungstène / ExoMakina / Sam Meyer

Für Medien wäre eine kollektive kognitive Verzerrung besonders verhängnisvoll: Schließlich reicht das bloße Wissen, dass visuelle Quellen gefälscht sein könnten, schon aus, um ihre Echtheit anzuzweifeln. Der breiten Masse der Internetnutzer dient Dokumentation längst nicht mehr als Beweis. Wenn alles gefälscht werden kann, was ist dann noch wahr? Was bis vor kurzem noch die Fake-News waren, sind morgen möglicherweise die Deep Fakes. (Fabian Sommavilla, Olivera Stajić, 12.7.2020)