Bereits im Vorjahr untersuchte Facebook Probleme in Bezug auf Rassismus und ihrer KI.

Foto: Reuters, Thomas White

Nach einem rassistischen Vorfall, bei dem die Facebook-KI nach einem Video von schwarzen Männern, auf weitere Videos mit "Primaten" verweist, entschuldigt sich der US-Konzern und deaktiviert kurzfristig das verantwortliche Feature.

Rassistische KI

"Wollen sie weitere Videos von Primaten sehen?" So reagierte die künstliche Intelligenz von Facebook, nachdem man das Video der Männer zu Ende gesehen hat. Wie die "New York Times" berichtet, wurde diese Nachricht am 27. Juni Nutzern angezeigt. Facebook reagierte schnell und entfernte das gesamte "Vorschläge"-Feature, für das die angesprochene KI verantwortlich ist.

Facebook ermittelt aktuell, wie man solche Vorfälle künftig vermeiden kann. Gegenüber "The Verge" gibt ein Sprecher des Konzerns einen Ausblick: "Wie wir bereits gesagt haben, wurde unsere KI laufend verbessert, doch wir wissen, dass sie nicht perfekt ist. Deshalb müssen wir uns weiter verstärkt mit dieser Thematik beschäftigen. Wir entschuldigen uns bei allen, die diese beleidigende Einblendung gesehen haben."

Der Fall ist nur einer von vielen, die in den letzten Jahren immer wieder für Aufregung in Zusammenhang mit KI und rassistischen Vorurteilen gesorgt haben. 2015 entschuldigte sich Google, nachdem deren KI Fotos mit schwarzen Menschen als "Gorillas" markiert hatte. Erst im vergangenen Jahr gab Facebook zu, ihre KI auf rassistische Vorurteile zu prüfen, da dies offenbar bei internen Tests bereits aufgefallen war.

Die US-Behörde FTC (Federal Trade Commission) hatte sich daraufhin bereits mit einer Warnung gemeldet, dass solche Vorfälle durch künstliche Intelligenzen genauso angezeigt werden könnten, wie jene der Firma selbst. (red, 5.9.2021)