Wie eine "Röntgenbrille" – so bewarb der Deepnude-Entwickler zunächst seine App.

Foto: DeepNude

Eine App, die harmlose Fotos von Frauen in realistische aussehende Nacktbilder verwandelt: Genau das "verspricht" ein neues Tool namens "Deepnude" – und sorgt damit umgehend für einen Sturm der Empörung. Dies bringt nun sogar den Entwickler des Programms zu einem Rückzieher.

Rückzug

Nur wenige Tage nach der ersten Veröffentlichung von Deepnude wurde die für Linux und Windows entwickelte Software wieder offline genommen. Der dahinter stehende Entwickler, der unter dem Pseudonym "Alberto" agiert, betont, dass er das Interesse an seinem Programm unterschätzt habe, und dass ihm mittlerweile auch klar geworden sei, dass die Möglichkeiten zum Missbrauch zu hoch seien. Zuvor waren die zur Berechnung genutzten Server aufgrund des starken Interesses zusammengebrochen.

Die Ansicht von "Alberto" kommt reichlich spät – und klingt auch nicht sonderlich aufrichtig. Immerhin ist die Erzeugung von gefälschten Nacktfotos kein unabsichtlicher Nebeneffekt der Software, sondern der Kern der Entwicklung, mit dem sie auch beworben wurde. Zudem hat der Entwickler die Software zum Verkauf angeboten, wollte also mit dem Versprechen Geld machen. Und auch die Stellungnahme zum Rückzug klingt nicht nach echter Einsicht in die Problematik: Die Welt "sei noch nicht reif für Deepnude", betont der Entwickler.

Ablauf

Deepnude verwendet neuronale Netzwerke – also Maschinenlernen –, um aus Bildern von bekleideten Frauen Nacktbilder zu machen. Die Technik ähnelt dabei jenen Methoden, mit denen zuletzt immer realistischer wirkende gefälschte Videos produziert wurden – die sogenannten Deepfakes. In diesem Fall sind die Erzeugnisse aber offenbar erheblich realistischer, da solche Manipulationen bei Standbildern einfacher sind. Dabei bedient sich das Programm kurzerhand des zahllosen pornografischen Materials, das im Internet verfügbar ist, um die von Kleidung verdeckten Stellen mit Nacktaufnahmen zu ersetzen.

Einer weiteren Öffentlichkeit wurde Deepnude über einen Artikel von Motherboard bekannt. In diesem zeigte sich der Entwickler zunächst noch davon überzeugt, dass seine App harmlos sei. Immerhin könne jeder mit entsprechenden Photoshop-Fähigkeiten so etwas selbst nachbauen. Eine Sichtweise, die viele andere aber nicht teilen können. Auch wenn es sich um gefälschte Bilder handle, sei das ein massiver Eingriff in die sexuelle Privatsphäre der betroffenen Personen. Sobald andere denken, diese Bilder seien echt, habe das auch negative Auswirkungen auf die Abgebildeten, betonte etwa Danielle Citron, Rechtsexpertin, die erst unlängst zum Thema Deepfake vor dem US-Kongress ausgesagt hat.

Es gibt kein zurück

Dass die Software mit dem aktuellen Rückzug komplett verschwindet, ist nicht zu erwarten. Zwar betont der Entwickler, dass er gegen die illegitime Weiterverbreitung im Internet vorgehen wolle, es ist aber davon auszugehen, dass schon bald ähnliche Programme die Runde machen werden. Immerhin sind die dahinterstehenden Technologien bekannt und relativ einfach zugänglich. (red, 28.6.2019)