Gesichtserkennungssoftware ist umstritten.

Foto: apa

Die New Yorker Polizei nutzte Gesichtserkennungssoftware, um einen Black-Lives-Matter-Aktivisten aufzuspüren. Dieser wird der Körperverletzung beschuldigt, da er einen Polizisten mit einem Megafon ins Ohr geschrien haben soll. Nachdem die Identität des 28-jährigen Aktivisten Derrick Ingram festgestellt worden war, fuhren dutzende Polizisten, teilweise mit Schutzausrüstung, zu dessen Wohnsitz. Ingram streamte den Event auf Instagram und verlangte einen Durchsuchungsbefehl, den die Polizisten jedoch verweigerten. Nachdem zahlreiche Demonstranten die Straße füllten, gingen die Beamten wieder. Ingram stellte sich am nächsten Tag.

Verwendung wird evaluiert

Die Verwendung von Gesichtserkennungssoftware zum Aufspüren von Demonstranten führt nun zu Kritik. Das New York City Police Department (NYPD) bestätigte die Nutzung der Software – dabei wird ein Standbild mit einer Gesichter-Datenbank abgeglichen. Unklar ist, ob ein Social-Media-Foto des Aktivisten, der auf Instagram Beiträge veröffentlicht, verwendet wurde. Wie "The Verge" berichtet, würde das einen Verstoß gegen die eigenen Regeln der Polizeibehörde bedeuten.

Bill de Blasio, der Bürgermeister von New York, erklärte, dass die Standards für die Verwendung von Gesichtserkennungssoftware bei der New Yorker Polizei evaluiert werden sollen. Eigentlich nutze die NYPD sie nie dazu, öffentliche Meinungsäußerungen oder Proteste zu behindern. Im Fall von Ingram soll dieser aber laut Angaben der Polizeibehörde einem Beamten so laut ins Ohr geschrien haben, dass dieser Schmerzen verspürt und einen Hörschaden erlitten habe.

Verwendungsverbot in manchen US-Städten

Andere US-Städte haben dagegen ihren Behörden die Verwendung von Gesichtserkennung verboten. So zum Beispiel in San Francisco: Aus Sicht des dortigen Stadtrats bestehe in diesem Zusammenhang die Gefahr rassistischer Ungerechtigkeit.

Eine Studie der US-Behörde National Institute for Standards and Technology kam dementsprechend im Dezember des vergangenen Jahres zu einem vernichtenden Fazit: Menschen mit asiatischem und afroamerikanischem Aussehen würden bis zu 100-mal öfter falsch identifiziert werden als weiße Personen. Zudem handle es sich um einen Eingriff in die Bürgerrechte. Befürworter halten dem entgegen, Gesichtserkennung helfe der Polizei im Kampf gegen die Kriminalität und bringe mehr Sicherheit.

Das Bundeskriminalamt testet hierzulande seit Ende 2019 Gesichtserkennungssoftware. Dafür wird eine polizeiliche Datenbank verwendet, die rund 604.200 Fotos von Personen, die von der Polizei erkennungsdienstlich erfasst wurden, beinhaltet. (red, 19.8.2020)