Meta muss sich für Fehler in der automatischen Übersetzung von Instagram-Biografien überzeugen.
IMAGO/Revierfoto

Ein Fehler in der automatischen Übersetzung von Instagram bereitet Mutterkonzern Meta Ärger. Die Software hatte in die Biografien von Nutzerinnen und Nutzern das Wort "Terrorist" eingefügt – unabsichtlich, wie man bei Meta betont.

Das Problem betraf Nutzende mit dem Wort "Palestinian" auf Englisch in ihrem Profil, dem Emoji mit der palästinensischen Flagge und dem Wort "alhamdulillah" auf Arabisch, wie "404media" berichtet. Die automatische Übersetzung ins Englische machte daraus d en Satz: "Gelobt sei Gott, die palästinensischen Terroristen kämpfen für ihre Freiheit". Der Fehler dürfte in Zusammenhang mit der palästinensischen Flagge stehen. Denn gibt man nur das Wort "alhamdulillah" (gepriesen sei Gott) erschien nur: "Danke Gott".

Kritik aus der arabischen Welt

Aufgefallen war der Fehler dem Instagram- und Tiktok-Nutzer YtKingKhan, der mehrere Kombinationen aus der arabischen Phrase und der Flagge ausprobierte – mit ähnlichen Ergebnissen. Die automatische Übersetzung fügte immer wieder das Wort "Terrorist" hinzu.

Meta reagierte: Ein Unternehmenssprecher gab an, dass es sich um einen Fehler gehandelt habe. "Wir entschuldigen uns aufrichtig dafür, dass dies passiert ist", sagte der Sprecher. Fahad Ali, Sekretär von Electronic Frontiers Australia und Palästinenser mit Wohnsitz in Sydney, kritisierte Meta in gegenüber "The Guardian" dennoch scharf. Der Konzern sei nicht transparent genug gewesen, wie es zu diesem Problem kommen konnte. "Wir sind wirklich besorgt über die digitalen Vorurteile, die sich einschleicht, und wir müssen wissen, woher sie kommt". Ali forderte Klarheit darüber, ob das Problem durch die Automatisierung, Fehler im Trainingssatz oder menschliches Versagen handelte.

In dem Bericht wird ein ehemaliger Facebook-Mitarbeiter zitiert. Dieser berichtet von interner wie externer Überforderung im Umgang mit dem Krieg in Nahost.

Meta spricht von Fehlern

In einem Blog-Beitrag am Mittwoch erklärte Meta, dass seit Beginn des Krieges zwischen Israel und der Hamas neue Maßnahmen eingeführt wurden, um "der Zunahme schädlicher und potenziell schädlicher Inhalte auf unseren Plattformen entgegenzuwirken". Außerdem betonte man, dass die Behauptung, das Unternehmen unterdrücke die Stimme anderer, nicht stimme. Vor allem aus der arabischen Welt wird Meta vorgeworfen, Beiträge weniger prominent auszuspielen.

Das Unternehmen erklärte die damit, dass es im Lauf der Woche einen Fehler gab, der dazu führte, dass Reels und Posts, die erneut geteilt wurden, nicht in den Instagram-Stories der Nutzer auftauchten, was zu einer deutlich geringeren Reichweite führte. Dies war aber nicht auf Posts über Israel und Gaza beschränkt, wie der Facebook-Konzern betonte.

Verfahren gegen Meta

In der EU droht Meta ein Verfahren nach dem Digital Services Act. Die EU-Kommission wirft dem Konzern vor, nicht ausreichend gegen Gewaltaufrufe und Hassnachrichten vorzugehen und ortet systematische Verstöße gegen geltendes EU-Recht. Auch gegen X, vormals Twitter, und Tiktok wurden ähnliche Schritte eingeleitet. (pez, 22.10.2023)