Gesichtserkennungssoftware scheint in vielen Fällen unausgereift zu sein.

Foto: Reuters/Thomas White

Ein Algorithmus des Social-Media-Netzwerks Facebook hat schwarze Menschen mit Affen verwechselt. Zuseher eines Videos mit dem Titel "Weißer Mann ruft Polizei wegen schwarzen Männern im Hafen" wurden gefragt, ob sie "weiterhin Videos über Primaten sehen" möchten. Das Unternehmen entschuldigte sich in einem Statement für den "eindeutig inakzeptablen Fehler" und deaktivierte die Vorschlagfunktion, wegen der die problematische Nachricht angezeigt wurde, berichtet die "New York Times".

"Wie wir bereits gesagt haben, haben wir unsere KI zwar verbessert, aber wir wissen, dass sie nicht perfekt ist und wir noch weitere Fortschritte machen müssen. Wir entschuldigen uns bei allen, die diese beleidigenden Empfehlungen gesehen haben könnten", sagte Facebook-Sprecherin Dani Lever in einer Stellungnahme.

Unausgereifte Technologien

Facebook setzt auf verschiedene Formen von künstlicher Intelligenz, um die den Nutzern angezeigten Inhalte zu personalisieren. Dabei kommt auch Gesichtserkennungssoftware zum Einsatz. Bürgerrechtlern weisen jedoch schon länger auf Probleme mit der Genauigkeit hin. Künstliche Intelligenz kommt bei Facebook auch bei der Moderation von Inhalten zum Einsatz, etwa um problematische Nachrichten und Bilder zu erkennen und zu blockieren.

Die Probleme betreffen keinesfalls nur Facebook. Erst letztes Jahr führten falsche Übereinstimmungen einer Gesichtserkennungssoftware zur Verhaftung zweier schwarzer Männer, berichtet "Engadget". Google Fotos markierte hingegen Bilder schwarzer Menschen mit dem Wort "Gorilla". Das Problem löste Google, indem es das Wort "Gorilla" aus Suchen und Bildmarkierungen strich. (red, APA, 4.9.2021)