Apple verzichtet doch darauf, Fotos vor dem iCloud-Upload auf Missbrauchsinhalte zu scannen.

Foto: DER STANDARD/Pichler

Gut gemeint und gut gemacht sind bekanntlich manchmal zwei unterschiedliche Dinge. Auch dem IT-Riesen Apple bleibt eine solche Erfahrung nicht verwehrt. Im vergangenen Jahr kündigte man dort verschiedene Neuerungen an, die Kindesmissbrauch und der Verbreitung von entsprechenden Aufnahmen vorbeugen sollten.

Eingeführt wurden etwa neue Einstellungen von Eltern, die nun für ihren Nachwuchs einen Filter in der Message-App aktivieren können. Dieser soll den Versand und Empfang von Fotos sexueller Natur unterbinden. Zudem liefern Sprachassistentin Siri und die Websuche zusätzliche Informationen, wenn die Anfrage vermuten lässt, dass sie von einem gefährdeten Kind stammt.

CSAM-Scanner

Ebenfalls angekündigt war ein Scanner für Foto-Uploads in die iCloud. Dieser sollte – beginnend in den USA – Bilder direkt auf dem Gerät analysieren und anschließend seinen "digitalen Fingerabdruck" mit der Datenbank des National Center for Missing and Exploited Children abgleichen. In dieser befinden sich behördlich archivierte Missbrauchsaufnahmen (Child Sexual Abuse Material, CSAM). Das Zentrum arbeitet eng mit US-Strafverfolgungsbehörden zusammen.

Das sorgte insbesondere aufseiten von Datenschützern weltweit für Kritik ob möglicher Erkennungsfehler und des Missbrauchspotenzials eines solchen Systems für Massenüberwachung. Apple versuchte zu beschwichtigen und erklärte unter anderem, dass die Erkennungsschwellenwerte so gelegt seien, dass die Fehlerwahrscheinlichkeit bei eins zu einer Billion jährlich liege und rein lokal gespeicherte Bilder nicht betroffen seien.

Verschiebung nach Protest

Intern zirkulierte bei Apple zudem ein Memo, in dem jene, die die Einführung des Scans skeptisch kommentierten, als "kreischende Stimmen der Minderheit" tituliert wurden. Der NSA-Whistleblower Edward Snowden bezeichnete das Schreiben in einem Tweet als "Propaganda-Pamphlet".

Entgegen der eigenen Wahrnehmung als Mehrheit verzichtete der Konzern schließlich auf die Einführung zum geplanten Termin. Stattdessen wolle man das System weiterentwickeln, um die geäußerten Sorgen auszuräumen.

Still und leise begraben

Das ist offenbar nicht gelungen. Auf die Pläne angesprochen, erklärte Software-Chef Craig Federighi gegenüber dem "Wall Street Journal", dass die Entwicklung des CSAM-Scanners eingestellt wurde. Man habe sich für einen anderen Ansatz im Umgang mit dem Thema Kindesmissbrauch entschieden. Das Unternehmen fokussiere seine Ressourcen auf Funktionen, die zur Prävention beitragen, wie etwa den bereits erwähnten Filter für iMessage.

An anderer Stelle sorgt Apple derweil für Freude bei Datenschützern. Unter dem Begriff "Advanced Data Protection" rüstet man beim immer wieder als mangelhaft kritisierten Schutz von iCloud-Backups auf und führt eine neue Verschlüsselung ein – sehr zum Ärger der Strafverfolgungsbehörden. (gpi, 12.12.22)