Bei Facebook werden die Brüche zunehmend sichtbarer.

Foto: APA/AFP/JOEL SAGET

Die Sprachenvielfalt seiner rund 2,3 Milliarden Nutzer macht Facebook im Kampf gegen Hassbotschaften zu schaffen. Dem Konzern gelingt es bisher nicht, mit der Vielzahl kleinerer und exotischer Sprachen seiner Mitglieder mitzuhalten und Posts darin ausreichend zu kontrollieren. Offiziell bietet Facebook seinen Dienst in 111 Sprachen weltweit an, weitere 31 Sprachen werden in dem Portal stark genutzt.

Die 15.000 Facebook-Mitarbeiter, die unliebsame Inhalte aufspüren sollen, kommen jedoch nur in etwa 50 Sprachen zum Einsatz – auch wenn Facebook zudem nach eigenen Angaben bei Bedarf Übersetzer anheuert. Die Programme, die der Konzern hauptsächlich bei der automatisierten Jagd auf Hassbotschaften einsetzt, arbeiten sogar nur in etwa 30 Sprachen.

Verschärfung

Länder wie Australien, Singapur und Großbritannien drohen Facebook nun mit einer Verschärfung der Vorschriften, hohen Bußgeldern und sogar Gefängnisstrafen für Manager, falls das Unternehmen unerwünschte Inhalte künftig nicht rasch löscht. Bis Anfang März hatte Facebook allerdings selbst die Regeln, die Hassbotschaften und die Verherrlichung von Gewalt in dem Dienst verbieten, nach Erkenntnissen von Reuters erst in 41 der offiziell 111 unterstützten Sprachen übersetzt. Andere soziale Medien wie Instagram und WhatsApp, die beide ebenfalls zu Facebook gehören, oder Twitter und YouTube stehen vor ähnlichen Problemen.

Die Regeln würden von Fall zu Fall in neue Sprachen übersetzt, sagte eine Facebook-Sprecherin diese Woche. Dies geschehe in Abhängigkeit davon, ob der Gebrauch einer Sprache eine kritische Masse erreiche und ob Facebook eine führende Informationsquelle für deren Sprecher sei. Zu den Prioritäten zählten derzeit Khmer, die Amtssprache in Kambodscha, und Sinhala, die wichtigste Sprache in Sri Lanka. Die Regierung in Colombo hatte Facebook nach der Anschlagsserie am Ostersonntag gesperrt, um die Ausbreitung von Gerüchten über den Dienst zu verhindern.

Hass

In der Vergangenheit waren Hassbotschaften auf Facebook, die etwa zu den Vertreibungen in Myanmar beitrugen, nach Erkenntnissen von Reuters unter anderem deshalb nicht gelöscht worden, weil die Firma nur langsam Mitarbeiter mit Kenntnissen der Landessprache einstellte. Heute beschäftigt Facebook nach eigenen Angaben mehr als hundert Mitarbeiter, die der Sprache mächtig sind.

Menschenrechtler befürchten jedoch, dass sich die Probleme aus Myanmar in anderen Krisenregionen wiederholen könnten, wo die Sprachfertigkeiten der Facebook-Mitarbeiter nicht mit der Ausbreitung der sozialen Medien Schritt halten. Die Staaten müssten darauf bestehen, dass Plattformen wie Facebook ihre Regeln bekannt machten und deren Einhaltung auch überwachten, forderte Phil Robertson von Human Rights Watch. "Wenn dies nicht geschieht, öffnet es Verstößen Tür und Tor."

Mohammed Saneem, Wahlleiter bei den Wahlen in Fidschi im vergangenen November, bekam die Auswirkungen der Sprachkluft nach eigenen Worten damals zu spüren. Auf Facebook seien zahlreiche rassistische Posts in der Landessprache Fidschi aufgetaucht, die der Dienst nicht unterstützt. Er habe dann einen Mitarbeiter dafür abgestellt, die Äußerungen mitsamt Übersetzung an Facebook zu mailen, damit sie gelöscht würden. "Wenn sie es den Nutzern gestatten, in ihrer eigenen Sprache zu posten, dann müssen die Regeln auch in dieser Sprache verfügbar sein", forderte Saneem.

Ähnliche Probleme existieren in afrikanischen Staaten wie Äthiopien, wo tödliche Zusammenstöße zwischen den Volksgruppen von Hassbotschaften auf Facebook begleitet wurden. Ein Großteil der Posts war auf Amharisch, einer von Facebook unterstützten Sprache. Wenn amharische Nutzer allerdings die Facebook-Regeln nachlesen wollen, erhalten sie diese lediglich auf Englisch.

Nutzer-Input

Abseits der offiziellen Faktenchecker und der Programme zum Aufspüren von Hassbotschaften verlässt sich Facebook darauf, dass Nutzer problematische Inhalte dem Konzern anzeigen. Afrika hat allerdings die weltweit niedrigste Quote an solchen Nutzer-Anzeigen, wie Ebele Okobi von Facebook Afrika der Nachrichtenagentur Reuters im März sagte. "Viele Leute wissen nicht einmal, dass es Regeln für ihre Posts gibt."

Im Februar kündigte Facebook an, der Konzern werde in Nairobi bald die ersten hundert Mitarbeiter vor Ort im südlichen Afrika beschäftigen, um gegen Hass-Postings vorzugehen. Gemeinsam mit bereits existierenden Teams sollten sie Inhalte auf Somali, Oromo und in anderen Sprachen unter die Lupe nehmen. Die Facebook-Regeln selbst wurden in diese Sprachen bisher allerdings noch nicht übersetzt. Posts auf Somali, die die radikalislamische Al-Shabaab-Miliz verherrlichten, waren monatelang im Dienst sichtbar. Nach einer Reuters-Anfrage löschte der Konzern das Facebook-Konto des Autoren. Ebenfalls nach einer Reuters-Anfrage entfernte das Unternehmen zwei Posts auf Amharisch, die die Volksgruppen der Oromo und Tigre angriffen.

Beamten wie dem Wahlleiter Saneem in Fidschi gehen die Bemühungen von Facebook indes viel zu langsam voran. Er habe den Konzern schon Monate vor der Wahl in dem Archipel mit 900.000 Einwohnern auf das Problem aufmerksam gemacht, kritisierte er. Die meisten Fidschianer nutzten Facebook, etwa die Hälfte von ihnen auf Englisch, die andere Hälfte in der Landessprache. "Die sozialen Medien haben die Fähigkeit, eine Wahl komplett entgleisen zu lassen", warnte Saneem. "Es wird viel Desinformation verbreitet. Das Problem sind die Betreiber der Plattformen, die das viel zu zögerlich angehen, obwohl es Teil ihrer Sorgfaltspflicht ist." (APA, 24.4.2019)