Es gibt wenige Unternehmen, die einen größeren Wert auf die Kontrolle ihres Außenbilds legen als Apple. Bei der Firmenkommunikation ist man üblicherweise äußerst zurückhaltend, bei dem, was dann gesagt wird, zieht man meist eine Linie ohne Umschweife und Nachfragen durch. Und jede Form der unautorisierten Nachrichtenverbreitung – etwa Leaks – wird intern mit voller Härte verfolgt. Angesichts dessen ist es schon etwas überraschend, was dem iPhone-Hersteller da in der Vorwoche passiert ist. Ausgerechnet mit der Ankündigung eines Maßnahmenpakets zur Bekämpfung von Kinderpornografie hat man sich gehörig in die Nesseln gesetzt. Denn so unumstritten die Relevanz dieses Themas auch bei allen Diskutanten ist, so kontrovers ist die Frage, was all das für die Privatsphäre von iPhone-Nutzern bedeutet.

Zwei Systeme

Im Kern geht es dabei um zwei unterschiedliche Systeme: Einerseits sollen künftig sämtliche auf einem iPhone abgelagerten Bilder – so sie mit der iCloud synchronisiert werden – direkt am Gerät mit einer Liste an digitalen Fingerabdrücken von kinderpornografischen Materialien abgeglichen und im Fall des Falles an Apple gemeldet werden. Zudem sollen bei minderjährigen Nutzern künftig aber auch iMessage-Nachrichten auf explizite Darstellungen in Bildern durchsucht werden. Ist das der Fall, werden die Eltern gewarnt. Genau in diesen Maßnahmen sehen Kritiker aber das sprichwörtliche Öffnen der Büchse der Pandora. Sei so eine Infrastruktur einmal da, würden bald schon die Begehrlichkeiten von allerlei Behörden folgen, die dies noch für ganz andere Zwecke nutzen wollen, ist dabei eine oftmals zu hörende Warnung.

Reaktion

Angesichts dieser Situation bemüht sich Apple derzeit eilig um Schadensbegrenzung. Mit einem neuen Frage-und-Antwort-Dokument geht man auf einige der Kritikpunkte ein, und versucht gleichzeitig eine Reihe von Missverständnissen auszuräumen, die man in der bisherigen Berichterstattung zu diesem Thema ausgemacht haben will.

Einfach mal Apple vertrauen

Hinsichtlich der von vielen geäußerten Befürchtung, Staaten könnten Apple dazu zwingen, die für den Kampf gegen Kinderpornografie aufgebaute Technik auch für andere Zwecke zum Einsatz zu bringen, hat man eine recht simple Antwort: Man werde sämtliche dieser Ansuchen ablehnen. Apple habe sich schon in den vergangenen Jahren konsequent gegen jegliche Unterwanderung der eigenen Software und entsprechende Wünsche von Regierungen gewehrt, und das werde sich auch nicht ändern, versichert der iPhone-Hersteller. Zudem sei das gesamte System so gebaut, dass es überhaupt nur mit Daten, die vom National Center for Missing and Exploited Children (NCMEC) geliefert werden, funktioniere.

Für Kritiker ist Letzteres ein wenig beruhigender Hinweis, immerhin könnte eine solche Beschränkung recht einfach wieder aufgehoben werden. Zudem betonen viele, dass die Ablehnung von staatlichen Wünschen bei Apple nicht gar so strikt ist, wie man es gern öffentlich darstellt. Gerade in China hat man sich in vielerlei Hinsicht den Wünschen der Machthaber gebeugt, zensiert dort nicht nur den App Store auf Zuruf, sondern speichert auch die iCloud-Daten so, dass der Staat indirekt Zugriff darauf hat.

Vorerst nur in den USA

Auf Nachfrage hat Apple auf diesen Punkt aber zumindest eine Antwort parat: Es gebe einen guten Grund, warum dieses System zunächst nur in den USA starte. Ob und wenn ja wann es in andere Länder ausgedehnt werde, sei derzeit noch komplett offen. Indirekt stellt man damit in den Raum, dass die Funktionalität in China nicht angeboten werden soll. Dass dies die Kritiker beruhigen wird, erscheint aber wenig realistisch. Immerhin ändert die offizielle Verfügbarkeit in einem Land wenig daran, dass die technische Machbarkeit damit vorhanden ist.

Lokal statt Cloud

Doch parallel dazu gibt es noch andere umstrittene Punkte, einer davon ist die technische Umsetzung, und hier vor allem die Frage, warum das Ganze lokal am Smartphone statt direkt in der Cloud erfolgt. Immerhin wird die Überprüfung nach kinderpornografischen Materialien ohnehin nur dann vorgenommen, wenn die Backup-Funktion für iCloud aktiviert ist. Technisch wäre ein Online-Scan auch kein Problem, Apple betont nun aber, dass man sich bewusst dagegen entschieden hat, die Lösung am Smartphone sei die privatsphärenfreundlichste. Damit wolle man sich auch von anderen Anbietern wie Google oder Microsoft abheben, die bei manchen Diensten schon jetzt automatisiert nach entsprechenden Inhalten suchen. Nähere Angaben dazu, wieso die Lösung am Gerät per se datenschutzfreundlicher sein soll, bleibt Apple allerdings schuldig.

Auf die Kritik reagiert Apple aber auch mit Hinweisen auf den größeren Kontext. Es gehe hier nicht um irgendein Thema, sondern eben um Kinderpornografie. Apple wolle verhindern, dass die eigenen Services dazu genutzt werden, um solche Materialien zu verbreiten. Das wirft wiederum eine ganz andere Frage auf: Wenn man das so sieht und schon so ein System aufbaut, warum ist es dann auf iMessage sowie mittels iCloud gesicherte Fotos beschränkt? Immerhin könnte man dann ja auch argumentieren, dass es genauso wichtig sei, die Aufnahme solcher Materialien mit der iPhone-Kamera zu verhindern oder auch die Verbreitung mithilfe anderer Apps zu unterbinden. Darauf hingewiesen, bleibt Apple vage, man habe starke Privacy-Versprechen rund um das iPhone abgegeben, insofern müsse man in diesem Fall eine Grenze ziehen.

Einfach auszutricksen

Genau dieser Ansatz gibt den Kritikern aber erst recht neue Nahrung. Denn immerhin heißt das auch: Wer unentdeckt kinderpornografisches Material am iPhone teilen will, muss sich künftig einfach nur von iMessage fernhalten und das iCloud-Backup deaktivieren. Damit sei es für Kriminelle ein Leichtes, das System zu umschiffen, während die Privatsphäre der breiten Masse beeinträchtigt werde – mit potenziell gefährlicher Vorbildwirkung für die Zukunft.

Ende-zu-Ende am Ende?

Die Frage, ob mit all dem nicht die Ende-zu-Ende-Verschlüsselung von iMessage unterwandert werde, verneint Apple strikt. Gerade bei der Schutzmaßnahme für iMessage erhalte Apple keinerlei Einblick in die beanstandeten Bilder, da sie nie weitergeleitet werden. Die Eltern würden von solchen Vorfällen auch nur bei Kindern bis zum zwölften Lebensjahr automatisch informiert. 13- bis 17-Jährige könnten hingegen selbst bestimmen, wie mit den Warnungen verfahren werden soll.

Was die Überprüfung der iCloud-Fotos anbelangt, betont Apple wiederum, dass hier keine automatische Meldung an Behörden erfolge. Werde beim Abgleich ein Hash gefunden, der mit einem bekannten, kinderpornografischen Bild übereinstimme, werde dieses zunächst hochgeladen, um dann von Apple-Mitarbeitern noch manuell kontrolliert zu werden. Erst wenn hier bestätigt würde, dass es sich um entsprechendes Material handelte, würden dann weitere Schritte gesetzt. Damit seien auch fehlerhafte Meldungen an die Behörden ausgeschlossen.

Abwarten

Unklar ist derzeit offenbar noch, ab wann das System wirklich zum Einsatz kommt. Auf Nachfrage betont Apple, dass es noch nicht in der ersten Version iOS 15 enthalten sein soll, sondern erst mit einem späteren Update folgen wird.

Unterdessen versuchen Gegner Apple von seinem Tun abzubringen. Mit einem offenen Brief wenden sich eine Reihe von Sicherheits- und Privacy-Experten gegen die neuen Maßnahmen von Apple. Mittlerweile haben auf Github mehr als 6.000 Personen und diverse Organisationen diesen unterschrieben. (Andreas Proschofsky, 10.8.2021)