Gesichtserkennung ist jene Technologie, die sich derzeit am schnellsten weiterentwickelt und immer öfter angewendet wird.

Foto: Getty Images / iStock / metamorworks

Dublin – Wer sich fragt, wo er oder sie als Erstes mit künstlicher Intelligenz in Berührung kommen wird, der muss nur in einen Spiegel schauen: Gesichtserkennung ist jene Technologie, die sich derzeit am schnellsten weiterentwickelt und immer öfter angewendet wird – ob im eigenen Smartphone, von Unternehmen oder im öffentlichen Raum.

Sie bietet der Justiz ungeahnte Möglichkeiten, Verdächtige aufzuspüren und Verbrechen zu ahnden. In Österreich etwa will die Polizei im Dezember mit der biometrischen Gesichtsfeldanalyse als Beweismethode für schwere Straftaten beginnen.

Gleichzeitig aber nehmen tiefsitzende Ängste und konkrete Befürchtungen rasch zu. In Großbritannien setzen immer mehr private Sicherheitsfirmen Gesichtserkennnungssoftware ein, in Frankreich wollen sich Schulen auf diese Weise vor Eindringlingen schützen.

Beides ruft Datenschützer und andere Kritiker auf den Plan. Und über allem schwebt das abschreckende Beispiel China, wo der Staat mithilfe von Gesichtserkennung die Unterdrückungsmaschinerie vorantreibt.

Der US-Technologiekonzern Microsoft beschäftigt sich intensiv mit dieser Technologie und ihren Herausforderungen, sagt John Frank, Vizepräsident für EU-Politik und Leiter des Brüsseler Büros. Im STANDARD-Gespräch lehnt Frank generelle Verbote zwar ab, fordert aber rasch eine dichte Regulierung auf EU-Ebene, die über die Datenschutz-Grundverordnung hinausgeht.

Was erlaubt ist und was nicht

"Die DSGVO bietet eine gute Grundlage, aber das reicht nicht aus", sagt Frank. "Es braucht klare Regeln, welche Anwendungen erlaubt sind, wer Zugang zu den Daten erhalten darf und wie lange sie aufbewahrt werden können. Die Anwendungen müssen transparent und überprüfbar sein – in manchen Fällen auch von einem Gericht."

In europäischen Demokratien müsse man sich vor dem Überwachungsstaat nicht unbedingt fürchten. Hier sei das Hauptproblem, dass die Software bei gewissen Gruppen zu viele falsche positive Ergebnisse liefert und Menschen daher unberechtigterweise verdächtigt oder diskriminiert werden.

Dies sei in den USA etwa bei schwarzen Frauen der Fall, in Europa bei Migranten. Bei größeren Datenmengen werde dieses Problem weniger akut, und es lasse sich auch in jedem System kalibrieren. Aber umso wichtiger seien externe Kontrollen privater Anwendungen.

Die Polizei brauche hingegen bei der Suche nach Verdächtigen eher mehr als weniger positive Ergebnisse, die dann aber von Menschen überprüft werden müssten.

"Kriminaltechnische Gesichtserkennung ist ein wertvolles Instrument, aber keine perfekte Wissenschaft", sagt Frank. "Die Polizei muss sich der Grenzen der Technologie bewusst sein." (Eric Frey, 6.11.2019)