Bild nicht mehr verfügbar.

Siri ist die Sprachasisstentin bei Apple-Produkten.

Foto: AP Photo/Marcio Jose Sanchez

Das Schäferstündchen mit der Freundin, Gespräche mit dem Arzt oder ein Drogendeal auf der Straße. Was haben die drei Sachen gemeinsam? Die Beteiligten wollen dabei nicht gestört werden, geschweige denn abgehört. Laut "Guardian" gibt es dabei aber ein Problem: Siri. Denn ein Teil der Kommunikation mit Apples Sprachassistentin wird demnach an Menschen weitergeleitet. Diese werten dann die sekundenlangen Gesprächsfetzen aus, um die Spracherkennung zu bewerten und weiterhin zu verbessern.

Damit wurde auch Apple der Lauschfalle überführt: Bereits im April wurde bekannt, dass Amazon mit Alexa-Aufzeichnungen ebenso umgeht wie Google mit seinem Assistenten. Der Unterschied: Bei letzteren beiden kann der Nutzer einstellen, dass seine Aufzeichnungen für bestimmte Zwecke nicht gespeichert werden. Zudem kann man die Aufnahmen auch löschen. Bei Siri ist dies keine Option, hier müsste man die Sprachassistenz schon komplett ausschalten. Wenn nicht, unterwirft man sich eben der angesprochenen Kontrolle.

Apple beteuert

Apple hat bereits bestätigt, dass weniger als ein Prozent der täglichen Siri-Aufzeichnungen an Vertragspartner weitergeleitet werden, um die Sprachassistenz zu verbessern. Die Arbeiter sollen Siris Antworten nach verschiedenen Kriterien bewerten, etwa ob Siri beabsichtigt oder nicht aktiviert wurde oder ob Siris Antwort hilfreich war. Wer solche Inhalte hört, für den gelten strikte Verschwiegenheitsklauseln, heißt es weiter. "Die User-Fragen sind nicht mit der Apple-ID verbunden". Auch können einzelne Aufzeichnungen nicht mit anderen desselben Nutzers in Verbindung gebracht werden.

Unbeabsichtigt aktiviert

Ein Insider meint aber, dass es trotzdem möglich wäre, den jeweiligen Nutzer zu identifizieren. "Mit den Aufzeichnungen werden auch Standort, Kontaktdetails und App-Daten weitergeleitet", sagt er. Zudem komme vor, dass in Gesprächen unabsichtlich Adressen oder Namen genannt werden.

Der Whistleblower sieht vor allem eine Gefahr in Fällen, wenn Siri unbeabsichtigt aktiviert wurde. Und das geht schneller als man denkt. So soll das Geräusch eines sich öffnenden Reißverschlusses Siri mitunter aktivieren. Den Mitarbeitern wurde eingeimpft, solche unbeabsichtigten Aktivierungen nur als technisches Problem zu melden, aber nicht, wie sie mit solchen sensiblen Inhalten umgehen sollen.

Fehlende Transparenz

Apples Datenschutzerklärungen geben nur an, dass Daten gesammelt werden, um Siri laufend zu verbessern. Dass diese aber von Menschen ausgewertet werden, verschweigt das US-Unternehmen. Der Insider fordert daher, dass Apple mit offenen Karten spielt. Einstudierte Siri-Witze hält er angesichts der Überwachung für fehl am Platz. Wenn man Siri fragt: "Hörst du immer zu?", antwortet die Sprachassistentin nämlich wie folgt: "Nur wenn du mit mir sprichst". (red, 29.7.2019)