Apple soll mit der Beschreibung als "sexiest App ever" nicht einverstanden sein.

Foto: Nude

Dass Menschen, die sich nahe stehen, sich gegenseitig mitunter auch Nacktbilder per Smartphone schicken, dürfte mittlerweile eine etablierte Erscheinung sein. Die digitale Freizügigkeit birgt aber auch Gefahrenpotenzial. Gelangen solche Aufnahmen in falsche Hände, drohen etwa Bloßstellung und Erpressung.

Eine iPhone-App namens "Nude" (eine Android-Version ist in Entwicklung) soll hier für mehr Sicherheit sorgen. Per intelligenter Bilderkennung soll sie freizügige Fotos automatisch erkennen und verschlüsseln. Erst mit dem richtigen Pincode ist dann der Zugriff möglich. Wird ein falscher PIN eingegeben, aktiviert sich zudem die Frontkamera und schießt ein Foto des mutmaßlichen Einbrechers. Nutzer zahlen monatlich für die Verwendung der App, die dafür ohne Werbung auskommt.

Soweit, so interessant. Lange hat die App im iTunes-Angebot jedoch nicht überlebt. Vor kurzem hat Apple sie entfernt. Bei der Begründung gibt es allerdings etwas Unklarheit.

Widersprüche

Laut den Entwicklern von Nude hieß es in der ersten, schriftlichen Begründung bei Vollzug der Sperre, dass man es nicht dulde, dass eine App Fotos "wegsperre". Als man danach Kontakt zu Apple aufnahm, änderte sich diese Angabe jedoch, berichtete man gegenüber Inverse.

Statt Kritik an der (vom Nutzer erwünschten) Verschlüsselung der Bilder, wurde nun die Beschreibung des Programms im Store bemängelt. Dort wurde Nude als die "sexiest App ever" betitelt, was Apple jedoch als Richtlinienverstoß erachte. Nach Entfernung dieser Passage solle das Programm wieder verfügbar gemacht werden – was allerdings bisher noch nicht geschehen ist. Der Konzern selbst hat sich bis dato noch nicht zu Wort gemeldet und kommentiert seine Kommunikation mit Entwicklern in der Regel auch nicht.

App soll Fotos unter iOS 10 an Amazon schicken

Derweil hat sich rund um Nude eine Kontroverse entsponnen, schreibt Heise. Denn die Entwickler versprechen, dass keinerlei Bilder in die Cloud übermittelt würden. Dies trifft offenbar aber nicht zu, wenn man mit iOS 10 unterwegs ist.

Unter iOS 11 bedient sich Nude der über "CoreML" in das System integrierte Maschinenlern-Funktionen, um Nacktfotos zu identifizieren. Unter iOS 10 existierte dieses Framework allerdings nicht. Hier schickt die App laut einem Sicherheitsexperten die Aufnahmen an Server von Amazon, wo sie von einem Algorithmus zur Identifikation analysiert werden. Auch die E-Mail-Adresse des Users soll dabei mitgeschickt werden. (red, 08.11.2017)