Die Kritik an der geplanten Chatkontrolle reißt nicht ab.

Foto: AP / Jenny Kane

Um die Verbreitung von Darstellungen des Kindesmissbrauchs im Internet zu unterbinden, arbeitet die Europäische Union an einem neuen Gesetz. Im Mai legte die EU-Kommission ihren Entwurf für die sogenannte Chatkontrolle vor. Laut diesem sollen beliebte Messenger-Dienste zur Suche nach entsprechenden Inhalten verpflichtet werden. Es gibt jedoch scharfe Kritik, weil Datenschützer eine Unterwanderung verschlüsselter Kommunikation befürchten. Auch der deutsche Justizminister Marco Buschmann äußerte sich skeptisch. Offenbar zu Recht.

Laut einem internen Bericht der EU-Kommission, in dem Fragen der Mitgliedsstaaten beantwortet werden – und den Netzpolitik.org vollständig veröffentlicht hat –, ist davon die Rede, dass der aktuelle Stand der Technik zu zahlreichen falsch positiven Treffern führen werde. Das bedeutet im Umkehrschluss, dass die Behörden auch solche Chats händisch auswerten müssten, die gar nicht strafrechtlich relevant sind.

Automatische Erkennung

Aber worum geht es eigentlich? Einerseits sollen Unternehmen wie Facebook, Whatsapp und Telegram zur Einführung neuer Sicherheitsmaßnahmen verpflichtet werden. Zum Beispiel könnte der Funktionsumfang von Konten Minderjähriger eingeschränkt werden, damit sie bestimmte Fotos nicht mehr veröffentlich können. Um sicherzustellen, dass es sich tatsächlich um ein Kind handelt, soll eine Altersverifikation eingeführt werden. Dabei ist unklar, wie diese gestaltet werden könnte. Laut dem geleakten Bericht sei aber durchaus auch ein verpflichtender "Nachweis von Ausweisen" möglich.

Zentraler Kritikpunkt sind jedoch die automatisierten Systeme zur Erkennung von Child Sexual Abuse Material (CSAM), also Darstellungen des Kindesmissbrauchs. Im Falle eines Anfangsverdachts sollen die oben genannten Unternehmen nämlich verpflichtet sein, anhand vorgegebener Parameter sowohl nach bekanntem Material als auch nach Cybergrooming-Aktivitäten zu suchen.

Das Problem: Laut EU-Kommission würde die Genauigkeit von Grooming-Erkennungstechnologien bei nur 90 Prozent liegen, wonach es sich bei neun von zehn erkannten Inhalten tatsächlich um Grooming handelt. Wie die Berichterstatter hervorheben, würde das bei einer Million abgefangener Nachrichten jedoch 100.000 falsch positive Fälle bedeuten, die allesamt an Mitarbeitende des neu einzurichtenden EU Centre for Child Sexual Abuse (EUCSA) geschickt würden. Dieses ist für die händische Filterung und anschließende Weiterleitung an nationale Strafverfolgungsbehörden verantwortlich.

Verschlüsselung in Gefahr

Auch auf den Vorwurf bzw. die Sorge, dass das Vorhaben die Ende-zu-Ende-Verschlüsselung digitaler Kommunikation unterwandere, geht die Kommission im Bericht ein. Nachrichten sind während des Transportwegs verschlüsselt, Einblick werden die Behörden deshalb aller Voraussicht nach nur am Endgerät erhalten können. Datenschützer warnen, dass ein solches System nach erster Einrichtung in Zukunft für andere Zwecke missbrauch werden könne.

Die EU-Kommission betont hingegen, dass sie nicht auf den Bruch von Verschlüsselung abziele. Allerdings diene diese nicht nur dem Schutz privater Unterhaltungen, sondern würde auch Tätern helfen. Was genau das bedeutet, wird nicht erläutert. Es bleibt also weiterhin unklar, wie das Vorhaben mit verschlüsselter Kommunikation im Einklang stehen soll.

Langer Weg

Das Gesetzgebungsverfahren befindet sich noch am Anfang, wann die erwarteten Maßnahmen tatsächlich wirksam werden, ist also unklar. Falls es überhaupt so weit kommen sollte. Eva Galperin, Cybersicherheitsdirektorin der Grundrechtsorganisation Electronic Frontiers Foundation, glaubt nicht, dass das Gesetz jemals verabschiedet wird. Ihr zufolge würden vergleichbare Ideen immer wieder auftauchen. Dabei seien sie höchst gefährlich, erklärte sie im STANDARD-Interview. (mick, 30.6.2022)