Die automatisierte Erkennung von Gesichtern gerät regelmäßig in die Kritik.

Foto: APA

Über 1.000 Wissenschafter und Tech-Experten sprechen sich gegen Algorithmen aus, die rein anhand des Gesichts einer Person strafbare Handlungen vorhersagen wollen. In einem offenen Brief, dem sich zahlreiche namhafte KI-Experten von Unternehmen wie Google und Microsoft sowie Universitäten wie Harvard und MIT angeschlossen haben, fordern die Unterzeichner vom Verlag Springer, ein Papier nicht zu publizieren.

Die Autoren der Studie behaupten, mit "80 Prozent Wahrscheinlichkeit" und ohne "rassistische Vorurteile" vorhersagen zu können, ob jemand ein Verbrechen begeht – rein durch eine Analyse eines Fotos, bei dem das Gesicht zu sehen ist. Die Unterzeichnenden wollen, dass Springer das Papier nicht in "Springer Nature" veröffentlicht, sondern zurückzieht und auch künftig keine solchen Studien mehr publiziert.

Gegenüber dem STANDARD gibt eine Springer-Nature-Sprecherin an, dass die Arbeit für eine bevorstehende Konferenz eingereicht worden war, man sich aber nach einem Peer-Review-Prozess entschieden habe, den Artikel nicht im Konferenzband anzunehmen. Die Autoren seien am 22. Juni darüber informiert worden.

Daten spiegeln nicht Realität wider

Audrey Beard, eine der Initiatorinnen des Briefes, sagt zu "Motherboard" in diesem Zusammenhang, dass es gar nicht möglich sei, ein solches System zu entwickeln, da Daten zu Kriminalität grundsätzlich rassistische Vorurteile aufweisen. Es handelt sich nicht um das erste Mal, dass Wissenschafter so etwas behaupteten: Bereits 2017 war ein ähnliches Papier aufgetaucht, bei dem Forscher angaben, anhand von Bildern von Personen, die eine Straftat begangen hatten, mögliche Verbrecher aussortieren zu können.

Das Problem dabei, wie die kritisierenden Forscher in ihrem Brief schildern: Historische Gerichts- und Festnahmedaten würden nicht grundsätzlich Kriminalität, sondern das Handeln der Strafjustiz und der Polizei darstellen. Man sieht, wen Polizisten festnehmen und welche Personen von Richtern verurteilt werden – und welche nicht.

Vorurteile werden wiederholt

Bei systematischem Rassismus würde ein Algorithmus, der sich auf diese Informationen verlässt, selbst problematische Entscheidungen treffen. Beim Maschinenlernen werden Systeme nämlich mit Trainingsdaten "ausgebildet" – somit ist die Qualität dieser gravierend. Datensätze, die mit Vorurteilen belastet sind, führen dazu, dass auch die Ergebnisse durch das System diese widerspiegeln.

Die Proteste gegen Rasssismus und Polizeigewalt, die nach dem Tod des Afroamerikaners George Floyd durch die Polizei entbrannt sind, haben Algorithmen in der Polizeiarbeit grundsätzlich in die Kritik gebracht. So kündigten Unternehmen wie Amazon und Microsoft an, ihre Gesichtserkennungssoftware nicht mehr für die US-Polizei zur Verfügung zu stellen. IBM gab sogar an, gänzlich aus dem Geschäft auszusteigen, da das Unternehmen keine Massenüberwachung, Rassismus oder die Verletzung der grundlegenden Menschenrechte verantworten möchte. (muz, 24.6.2020)