Das Verteidigungsministerium der USA hat im Rahmen eines Projekts erste Tools entwickelt, um Deepfakes zu erkennen. Dabei handelt es sich um täuschend echt aussehende Bilder und Videos, die mithilfe künstlicher Intelligenz erstellt wurden und das Gesicht einer Person mit jenem einer anderen austauschen.

Hierfür sind kaum Programmierkenntnisse notwendig, da vereinfachte Tools im Netz kursieren. Im Grund genommen analysiert es mithilfe von Machine Learning das Gesicht einer Person – je mehr Trainingsfotos vorhanden sind, desto akkurater – und platziert dieses dann auf ein anderes. Eine populäre Nutzung war zunächst, Pornovideos von bekannten Schauspielern zu erstellen.

Mr Piggloc

Schwächen werden instrumentalisiert

Die Gefahr, die Kritiker sehen, ist, dass solche Fälschungen erstellt werden könnten, um etwa hochrangige Regierungsmitglieder oder Oppositionspolitiker zu diffamieren. Nun sollen die Tools solche Fakes selbst durch Trainingsdaten von echten und gefälschten Inhalten erkennen. Dabei wird zu einer Reihe an Methoden gegriffen, die die aktuellen Schwächen von Deepfakes ausnutzen.

So blinzeln gefälschte Personen aktuell noch kaum – wobei aber in Zukunft zu erwarten ist, dass sich die Fakes anpassen werden. Andere Eigenschaften, die analysiert werden, sind etwa unnatürliche Augenfarben und Kopfbewegungen. Das Problem ist jedoch, dass sowohl Deepfakes wie auch Erkennungstools mittels KI arbeiten – dementsprechend müsste letzteres durchgehend weiterentwickelt werden, um zuverlässig zu funktionieren. (red, 8.8.2018)