Kritiker beklagen, dass Apple damit die Türe für Massenüberwachung öffne.

Foto: Reuters/Mike Segar

Die Ankündigung, künftig die Geräte aller iPhone-User – wenn die iCloud aktiviert ist – auf Darstellungen von Kindesmissbrauch zu scannen, sorgt seit Anfang des Monats für Kritik an Apple. Immerhin stellt sich das Unternehmen seit geraumer Zeit als Vorreiter in Sachen Privatsphäre dar. Allerdings scannt der iPhone-Hersteller schon seit 2019 seinen E-Mail-Service iCloud Mail auf entsprechende Inhalte, wie "9to5Mac" berichtet. iCloud Photos und iCloud Backups waren hingegen nicht betroffen.

Diese Klarstellung folgt einer veröffentlichten Aussage von Apples Antibetrugschef Eric Friedman, dass iMessage die "beste Plattform für Kinderpornografie" sei. Ohne Untersuchungen ist eine solche Einschätzung kaum möglich. Laut den Berichterstattern ist dies aber nicht der einzige Hinweis auf ein solches Vorgehen. In einer archivierten Version der Child-Safety-Seite Apples liest man nämlich Folgendes:

"Im Rahmen dieses Engagements [Kinder zu schützen] setzt Apple eine Technologie zum Abgleich von Bildern ein, um die Ausbeutung von Kindern zu erkennen und zu melden. Ähnlich wie bei Spam-Filtern im E-Mail-Verkehr verwenden unsere Systeme elektronische Signaturen, um mutmaßliche Kindesausbeutung zu erkennen." Apples Chief Privacy Officer, Jane Horvath, erklärte außerdem letztes Jahr, dass Screening-Technologie zum Einsatz komme, um nach illegalen Fotos zu suchen. Wenn Beweise für Kindesmissbrauchsmaterial gefunden würden, würden Accounts gesperrt werden, berichtete der "Telegraph".

Kein Scan von Backups

Auf Nachfrage von "9to5Mac" teilte Apple mit, dass iCloud Photos nie gescannt worden sei – anders als iCloud Mail. Schon seit 2019 werden demnach ein- und ausgehende E-Mails auf Anhänge mit Kindesmissbrauchsinhalten gescannt. Außerdem teilte das Unternehmen mit, dass auch andere Daten limitiert gescannt würden, sagte aber nicht, worum es sich handelt. Es soll sich jedoch nicht um iCloud Backups handeln. Friedmans Aussage dürfte entsprechend auf der Tatsache beruhen, dass Apple im Vergleich zu konkurrierenden Unternehmen wie Google, Facebook und Microsoft bisher kaum Missbrauchsinhalte gemeldet hat.

Doch was soll sich mit iOS 15 genau ändern? Die Erkennung von Kindesmissbrauchsdarstellungen, also sogenanntem Child Sexual Abuse Material (CSAM), soll künftig mittels lokalem Scan des Geräts umgesetzt werden. Vor dem Upload in die iCloud werden Fotos dann mit einer Datenbank bekannter Hashes – also der Content-ID von Bilddateien – abgeglichen. Übereinstimmungen werden an das National Center for Missing and Exploited Children (NCMEC) gemeldet, dieses arbeitet eng mit den US-Strafverfolgungsbehörden zusammen.

Eine Meldung – und somit auch die Sperre eines Nutzerkontos – soll erst bei Überschreiten eines bestimmten Schwellenwerts stattfinden. Wird ein Account gekennzeichnet, gibt es eine händische Überprüfung, um eine etwaige Übereinstimmung von Inhalten zu bestätigen. Erst danach wird ein Bericht an das NCMEC gesendet.

Laute Kritik

Kritiker beklagen, dass Apple damit die Türe für Massenüberwachung öffne. Der US-amerikanische Kryptografie-Professor Matthew Green sieht darin unter anderem die Gefahr einer Untergrabung der Ende-zu-Ende-Verschlüsselung von Messenger-Diensten. Immerhin wird von Regierungen auf der ganzen Welt die Möglichkeit der Überwachung ebendieser angestrebt. (mick, 24.8.2021)