Apple wirbt gerne mit Privatsphäre.

Foto: AFP/Brooks Kraft

Als Apple vergangenen Sommer ein Maßnahmenpaket im Kampf gegen die Verbreitung von Darstellungen des sexuellen Missbrauchs von Kindern (CSAM) verkündete, hatte man mit der Reaktion darauf offenbar nicht gerechnet. Hagelte es doch scharfe Kritik von unterschiedlichsten Seiten. So warnten etwa Sicherheitsexperten, dass Apple damit die "Büchse der Pandora" öffne und eine Art Hintertür für staatliche Behörden schaffe. NSA-Whistleblower Edward Snowden sprach gar davon, dass Apple der "Privatsphäre den Krieg erklärt" habe.

Aus dem Eiskasten geholt

Das Ergebnis war eines, das man von Apple sonst so gar nicht kennt: Das Unternehmen legte die Pläne zunächst auf Eis. "Verschieben" und "einstellen", das sind aber nun mal zwei sehr unterschiedliche Dinge. Und so gibt ein Teil der anvisierten Maßnahmen nun ein Comeback. iPhones suchen künftig gezielt nach Nacktbildern in an Kinder verschickten iMessage-Nachrichten, das berichtete zunächst der "Guardian", Apple hat dies mittlerweile gegenüber dem STANDARD bestätigt.

Für dieses System kommt eine am Gerät selbst laufende künstliche Intelligenz zum Einsatz, die auf Nacktaufnahmen trainiert wurde. Erkennt diese in an unter 13-Jährige verschickte Mitteilungen entsprechende Inhalte, werden diese unkenntlich gemacht. Zudem wird dem Kind eine Warnung angezeigt und der Tipp gegeben, Erwachsene zu kontaktieren. Einen ähnlichen Schutz gibt es auch, wenn die Kinder selbst solche Bilder verschicken wollen. In solch einem Fall wird vor dem Versenden noch einmal gewarnt.

Lokale KI

Apple betont, dass die dafür notwendige Inhaltsanalyse direkt am Smartphone ablaufe, also keinerlei Fotos an Dritte weitergereicht würden, womit auch Apple selbst keinen Einblick habe. Die ursprünglichen Pläne hatten zudem automatische Warnnachrichten an Eltern vorgesehen, diese wird es infolge der öffentlichen Kritik nun nicht geben.

Zudem lässt sich das Feature auch deaktivieren, wie dem zugehörigen Support-Eintrag zu entnehmen ist. Die Entscheidung darüber können die Eltern über die Kindersicherungsfunktionen treffen.

Vorerst nicht in Österreich

In Österreich kommen die iMessage-Filter derzeit übrigens noch nicht zum Einsatz. Vorerst sei dieses Feature nur in Großbritannien, Kanada und Australien aktiviert, betont Apple auf Nachfrage. Weitere Länder dürften aber wohl folgen, auch wenn das Unternehmen noch keinen Zeitplan nennen will.

Parallel dazu wird auch noch ein weiterer Teil des ursprünglichen Maßnahmenpakets gestartet. Wird bei Searchlight, Siri oder Safari nach entsprechenden Materialien gesucht, interveniert Apple und stellt stattdessen Informationen zu passenden Selbsthilfegruppen dar.

Kritik

All diese Maßnahmen sind nicht zuletzt eine Reaktion darauf, dass Apple von Kinderschutzorganisationen über die Jahre immer schärfer kritisiert wurde, da man gegen die Verbreitung solcher Inhalte vergleichsweise wenig tue, während Facebook oder auch Gmail schon länger nach solchen Bildern suchen.

In internen Konversationen bezeichnet ein Apple-Manager iMessage gar pointiert als die "beste Plattform für Kinderpornografie". Man habe mit iMessage ein System aufgebaut, das zwar dank Ende-zu-Ende-Verschlüsselung für die Privatsphäre hervorragend sei, dafür aber bei solchen Schutzmaßnahmen versage – also exakt umgekehrt wie bei Facebook.

Chatkontrolle

Das noch stärker umstrittene "Client Side Scanning", das ursprünglich ebenfalls Teil der Apple-Pläne war, kommt hingegen vorerst nicht. Ein ähnliches System, bei dem am Gerät gespeicherte Fotos mit digitalen Fingerabdrücken von Darstellungen des sexuellen Missbrauchs von Kindern verglichen werden sollten, ist aber ohnehin unter dem Begriff "Chatkontrolle" derzeit in der EU in Diskussion. Insofern wartet hier Apple wohl zu, bis die Politik eine Entscheidung trifft, um sich weiter negative Schlagzeilen zu ersparen. (Andreas Proschofsky, 22.4.2022)