Bild nicht mehr verfügbar.

Bei Meta (vormals Facebook Inc.) geht man schon vor dem Auftritt von Haugen im EU-Parlament in die Offensive.

Foto: Reuters/Dado Ruvic

Immer wieder stand Facebook in den vergangenen Jahren in der Kritik. Etwa wegen des Missbrauchs der Plattform für politische Manipulation im Rahmen der Cambridge-Analytica-Affäre, Fake-News in Bezug auf Klimawandel oder das Coronavirus und immer wieder auch wegen zu lax und ineffektiv erscheinenden Maßnahmen gegen Hassrede.

Bestärkt sehen sich die Kritiker des weltgrößten sozialen Netzwerks seit einiger Zeit durch eine Whistleblowerin. Frances Haugen, die von 2018 bis 2021 als leitende Produktmanagerin beim Mutterkonzern Meta (vormals Facebook Inc.) tätig war, hat zahlreiche Dokumente an die US-Börsenaufsicht sowie Medien übergeben und erhebt schwere Anschuldigungen.

Nach einer Anhörung im US-Senat wird sie Montag, ab 16.45 Uhr, auch dem Komitee für den innereuropäischen Markt und Konsumentenschutz im EU-Parlament Rede und Antwort stehen. Ihre Aussagen sollen in die Ausgestaltung des Digital Services Act einfließen, mit dem zahlreiche Regelungen im digitalen Bereich unionsweit vereinheitlicht werden sollen, eine gemeinsame Vorgehensweise gegen illegale Webinhalte und ihre Anbieter definiert und mehr Aufsicht und Kontrolle über "systemische Plattformen" geschaffen werden soll. Dabei geht es auch explizit um den Kampf gegen Desinformation.

"Falsche Prämisse"

Bei Meta steht man Haugens Auftritt offenkundig skeptisch gegenüber. Bereits vor dem Termin hat man einen Blogeintrag veröffentlicht, in dem man Haugen implizit verzerrte Darstellung vorwirft.

Man werde den Vorwurf hören, dass Meta seinen eigenen Profit über die Sicherheit der Nutzer stelle, schreibt das Unternehmen. Doch dieser Vorwurf, der auch auf den geleakten internen Dokumenten fußt, basiere auf einer "falschen Prämisse". "Ja, wir sind ein Unternehmen und wir machen Profit", schreibt Monika Bickert, Vizechefin der Abteilung für inhaltliche Richtlinien, "doch die Idee, dass wir dafür die Sicherheit oder Wohlergehen unserer Nutzer opfern, missversteht unsere eigenen kommerziellen Interessen."

Die Richtlinien für Facebook und andere Plattformen von Meta dienten dazu, einerseits Nutzer vor schädlichen Inhalten zu schützen und andererseits die Meinungsfreiheit zu wahren. Wo man die Grenze ziehe, sei umstritten, jedoch begrüßt man den Digital Services Act als einheitliches Regelwerk für die EU.

Viel Hassrede gelöscht, aber ...

Seit drei Jahren veröffentliche man Statistiken darüber, wie viele den Richtlinien zuwiderlaufende Inhalte man entferne und wie viele Menschen diese erreicht hatten. Die Zahlen würden zudem unabhängig geprüft. Entgegen anderslautender Behauptungen habe man stets großes Interesse daran gehabt, Fake-News, Hasspostings und dergleichen zu beschränken. Denn weder wollen die Nutzer solche Inhalte sehen, noch seien Werber erfreut, wenn ihre Anzeigen daneben auftauchten.

Alleine heuer werde man wohl fünf Milliarden Dollar für Sicherheitsbelange ausgeben, was auch unter Berücksichtigung der Unternehmensgröße mehr sei, als bei anderen Techkonzernen. 40.000 Mitarbeiter würden sich ausschließlich darum kümmern, die Plattformen von Meta sauber zu halten. In den letzten Jahren habe man dabei auch große Erfolge erzielt. Man entdecke 97 Prozent aller Hassrede-Inhalte noch bevor sie durch Nutzer gemeldet werde. Zudem mache Hassrede nur noch 0,05 Prozent der angesehenen Inhalte aus. Was Bickert allerdings nicht erwähnt, ist, dass es sich dabei wohl um die Statistiken für englische Sprache handelt und die Definition von Hassrede seitens Meta nicht unbedingt ident ist mit jener seiner Kritiker.

In anderen Sprachen und Regionen sollen Facebooks Systeme teilweise massiv versagen. So würden etwa die allermeisten Hasspostings auf Arabisch unentdeckt bleiben und entsprechende Postings etwa in Afghanistan ungehindert zirkulieren. In Bezug auf Myanmar wurde Meta in der Vergangenheit vorgeworfen, systematisch für Gewaltaufrufe missbraucht worden zu sein, die unter anderem in Massakern an der Volksgruppe der Rohingya mündeten. Sowohl im Umgang mit arabischsprachigen Inhalten als auch in Sachen Myanmar gestand man schließlich Verfehlungen ein.

Die mangelnde Kompetenz mit anderen Sprachen soll zudem auch immer wieder zur Löschung legitimer Botschaften führen. Als im letzten Mai der Gaza-Konflikt wieder einmal aufflammte, sperrte Instagram den Hashtag "Al-Aqsa", weil der Algorithmus die bekannte und im örtlichen Kontext ebenfalls wichtige Moschee in Jerusalem kurzerhand mit den in vielen Ländern als Terrororganisation eingestuften Al-Aqsa-Brigaden, dem militanten Arm der Fatah, verwechselt hatte.

Kampf gegen Hassrede wichtig für das Geschäft

Dass auf einer Plattform wie Facebook, die für das Teilen von Inhalten gemacht wurde, jene Dinge sich schneller verbreiten, die starke Emotionen hervorrufen, sei nicht verwunderlich, so Bickert. Doch das Argument, dass man selbst absichtlich Content stärke, der Menschen wütend macht, sei "tief unlogisch". Für das langfristige Geschäft sei es viel besser, "positive Erfahrungen" durch das Anzeigen relevanter und wertvoller Inhalte zu bestärken.

"Unsere Systeme wurden nicht gemacht, um provokante Inhalte zu belohnen. Tatsächlich sind wesentliche Teile dieser Systeme dafür gemacht, das Gegenteil zu tun", schreibt die Managerin. Man reduziere die Verbreitung von Inhalten, wenn diese sensationalistisch, irreführend oder laut den mit dem Unternehmen verpartnerten Faktencheckern falsch seien. Zudem gibt es einen chronologischen Newsfeed, der die algorithmische Reihung abschaltet und User können sich auch anzeigen lassen, warum ihnen ein bestimmter Beitrag überhaupt angezeigt wird.

Weitere Forschung nötig

Weiters weist Bickert im Namen von Meta auch den Vorwurf zurück, dass Facebook und Co verantwortlich seien für wachsende politische Polarisierung. In der Forschung gebe es zu dieser Position kaum Konsens. Dies ist eine akkurate Darstellung des aktuellen Wissensstands. Stark vereinfacht – und nicht abschließend – umschreiben lässt sich dieser damit, dass Facebook zwar zu Polarisierung beitragen kann, andere, individuelle Faktoren auf Seiten des Users aber wesentlich einflussreicher sein dürften.

Bickert verweist auf jüngere Wahlergebnisse, etwa in Deutschland oder den Niederlanden, wo Facebook häufig verwendet werde. Zentristische Parteien haben hier dazugewonnen, während "spaltende" Parteien stagnierten oder an Zuspruch verloren. Dies sieht sie als Beleg dafür, dass die Plattform keine Gefahr für Demokratien darstelle.

Sie schließt ihren Blogeintrag mit Worten, die man von Meta in den vergangenen Jahren immer wieder gehört hat. "Wir wissen, dass es noch mehr zu tun gibt, und wir werden weiter Verbesserungen vornehmen", so Bickert. Dabei sei aber auch Regulierung wichtig und der Digital Services Act somit Teil der Lösung, um das Internet sicherer zu gestalten und gleichzeitig Meinungsfreiheit, Privatsphäre und andere individuelle Rechte zu wahren. (gpi, 8.11.2021)