Haugens ausdrückliches Plädoyer: Facebook und Konsorten müssen reguliert werden.

Foto: Matt McClain/Pool via REUTERS

Eine Anhörung vor dem Senat, kritische Zeugenaussagen einer Ex-Mitarbeiterin – und auch noch der längste Ausfall in der Unternehmensgeschichte, auf den wenige Tage danach gleich der nächste folgte: Leicht war die Woche für Facebook nicht. Und weniger schwierig wird es auch weiterhin nicht sein, denn spätestens seitdem die Whistleblowerin Frances Haugen an die Öffentlichkeit gegangen ist, scheint auch für die Politik klar: Soziale Medien müssen reguliert werden. Und Facebook ist mit seiner massiven Marktmacht ein Sinnbild für diese.

Fundgrube an Problemfeldern

Aber alles von Anfang an. Haugen, die rund zwei Jahre lang bei dem Konzern tätig war, veröffentlichte gemeinsam mit dem "Wall Street Journal" in den vergangenen Wochen geradezu eine Fundgrube an Dokumenten, die im Grunde belegen: Facebook weiß von seinem negativen Effekt auf unsere Gesellschaft, will das aber öffentlich nicht zugeben. Im Zentrum steht dabei vor allem der Algorithmus des Konzerns. Der Newsfeed von Facebooks Plattformen arbeitet nämlich nicht chronologisch, sondern trifft eine Auswahl aus allen Inhalten, denen man folgt.

Da dieser Entscheidungsprozess aber darauf ausgelegt ist, vor allem Inhalte auszuspielen, die besonders viele Reaktionen auslösen, sehen Nutzerinnen und Nutzer tendenziell eher kontroversen Content. Demnach zeigt die Plattform öfter als gewöhnlich Beiträge, die negativ sind und etwa Wut oder Trauer auslösen. Forscher haben das in der Vergangenheit immer wieder kritisiert. Neu ist nun, dass Facebook sich laut Haugens Leaks dieser Problematik bewusst ist – aber Änderungen intern bremst, um den Verlust von Einnahmen zu verhindern. Aus der Sicht der Whistleblowerin werde aber so die Gesellschaft langfristig polarisiert und unsere Demokratien zerstört.

Diesmal ist alles anders

Haugen ist längt weder die erste Person, die sich negativ über Facebook äußert, noch ist sie die erste Ex-Mitarbeiterin, die ihren ehemaligen Arbeitgeber kritisiert. Und es ist auch nicht so, als ob Facebook in den vergangenen Jahren nicht immer wieder vor den Senat gezerrt worden wäre. Trotzdem scheint diesmal etwas anders zu sein: Erstmals wirkt die US-Politik so, als ob sie dazu bereit wäre, tatsächlich etwas zu tun. Grund dafür dürfte erstens die schiere Zahl an Leaks sein, die Haugen zur Verfügung stellte. Die Abgeordneten des Senats blieben bei ihrer Zeugenaussage auf das Thema fokussiert, anstatt – wie in der Vergangenheit – etwa in parteipolitische Zänkereien abzudriften. Zweitens dürfte es aber auch an der Person Haugen liegen.

Anders als bisherige Whistleblower war Haugen in einer relativ hohen Position bei Facebook. Als ehemals leitende Produktmanagerin weist sie ein tiefgründiges Verständnis darüber auf, wie die Plattform funktioniert. In der Anhörung gab sie konkrete Handlungsempfehlungen, wie Social-Media-Konzerne reguliert werden könnten.

Haugens Vorschläge

  • Eine externe Regulierungsbehörde soll Daten von Facebook beantragen können, etwa, wie die Algorithmen konkret funktionieren. Oder aber, welche Inhalte präferiert werden. Aktuell sei der Umgang des Konzerns mit Nutzerinhalten intransparent. Daher müssten alle Daten zur Forschung offengelegt werden. Anders als das von Facebook selbst eingerichtete Oversight Board würde die jeweilige Institution wissen, was eigentlich mit der Architektur der Plattform los ist, anstatt lediglich von außen zu bewerten.
  • Überhaupt sollte die Regulierung aus Haugens Sicht sich vor allem auf die Thematik der Algorithmen konzentrieren: Der Newsfeed sollte keine Black Box mehr sein, bei der außer Facebook niemand die Funktionalität versteht. Bisher versprach Facebook, dass man negative Inhalte – die die eigenen Algorithmen bewiesenermaßen bewerben – anhand von KI-Systemen erkennen kann. Doch interne Studien, die ebenso von Haugen offengelegt wurden, zeigen, dass das nicht der Fall ist. Laut Recherchen von Facebooks eigenen Forschern erkenne der Konzern nur bis zu fünf Prozent der Hassrede und nur ein Prozent der Gewaltaufrufe auf seiner Plattform. Dennoch glaube man intern, derartige Inhalte im Vergleich zu anderen Plattformen am besten zu erkennen.
  • Weiters empfiehlt Haugen, die "Section 230" des US-amerikanischen Communications Decency Act zu reformieren. Dies ist eigentlich das Gesetz, das dafür gesorgt hat, dass das Internet in seiner jetzigen Form existieren kann. Denn: Es besagt, dass Plattformbetreiber nicht für die Inhalte ihrer Userinnen und User haften müssen. Eine Neuregulierung des Gesetzes ist höchst umstritten, denn Grundrechtsexperten befürchten, dass eine Änderung dafür sorgen könnte, dass gerade die großen Konzerne profitieren. So können sich Facebook und Co eine breite Moderation leisten, kleinere Plattformen aber nicht. Das ist auch der Kern der Kritik an "Hass im Netz"-Gesetzen, die in den vergangenen Jahren in verschiedenen EU-Staaten, darunter auch Österreich, eingeführt wurden. Haugens Vorschlag lautet daher: Reguliert nicht nutzergenerierte Inhalte, sondern die Algorithmen dahinter, die problematische Inhalte erst bewerben. Schließlich hätten die Konzerne keine Kontrolle darüber, was konkret gepostet wird und was nicht – aber sehr wohl darüber, wie ihre Empfehlungsmechanismen funktionieren.

Digital Services Act peilt ähnliche Punkte an

Zu weiteren Problemfeldern der Plattform, etwa dem Datenschutz, hatte Haugen hingegen nicht viel zu sagen – grundsätzlich seien diese wichtig, aber eine Änderung von Regeln zur Privatsphäre von Usern und eine Reform der "Section 230" seien nicht ausreichend, solange keine "volle Transparenz" geschaffen wird, sagte Haugen.

In der EU ist ein breites Gesetzespaket, das vor allem IT-Konzerne zum Ziel hat, mit dem Digital Services Act (DSA) und dem Digital Markets Act (DMA) bereits in Arbeit. Durch Haugens Enthüllungen sieht die EU-Kommission sich in der Notwendigkeit einer Regulierung bestätigt. Zudem hätten die neuen Informationen die Kommission darin bestärkt, Lobbyarbeit für eine Aufweichung der Vorlagen nicht nachzugeben.

Einer der Grundpfeiler des DSA ist, dass Plattformen in Zukunft potenziell rechtswidrige Inhalte so schnell wie möglich nach der Kenntnis dieser prüfen und entfernen müssen. Auch sieht die Regulierung eine Verpflichtung zur Transparenz im Hinblick auf Algorithmen vor, ähnlich wie Haugen empfiehlt. Aktuell wird das Paket im Trilog verhandelt. (Muzayen Al-Youssef, 7.10.2021)