Tagelang konnte das Qniversum unbehelligt vor sich hin existieren.

Foto: Buzzfeed

Das Metaverse, die nächste Generation des Internets, in der Nutzer zunehmend in der Virtual Reality (VR) unterwegs sein sollen, ist Mark Zuckerbergs große Vision. Für diese hat er sogar seinen Konzern, einstmals Facebook Corporation, in Meta umbenannt. Auch marketingtechnisch ein Winkelzug, zumal die Marke "Facebook" nach Jahren voller Kritik einigermaßen angeschlagen ist. Meinungsmanipulation, Desinformation, Hassrede – Problemstellen, mit denen sich das weltgrößte Social Network seit Jahren herumschlägt.

Das soll künftig ganz anders werden. "Privatsphäre und Sicherheit müssen vom ersten Tag ins Metaverse eingebaut sein", erklärte Zuckerberg bei der Vorstellung seiner Pläne. Diese Aspekte müssten beim Design bereits beachtet werden, noch bevor das Produkt überhaupt existiert. Ein Erfahrungsbericht von Buzzfeed zeigt: Es gibt Nachholbedarf.

Viele Fragen, wenig Antworten

Das Medium hatte bei Meta nachgefragt, wie man denn gedenke, die Gemeinschaftsrichtlinien in Virtual-Reality-Welten durchzusetzen. Jedoch verweigerte der Konzern genauere Auskünfte. Dabei ging es um durchaus wichtige Aspekte, etwa mit welchen Mitteln man die Einhaltung der Regeln umsetzen wolle. Geschriebene Postings auf problematische Inhalte zu prüfen ist schließlich das eine, die potenzielle Überwachung von Gesprächen und Aktivitäten in VR noch einmal eine ganz andere Nummer.

Die Reaktion auf eine detaillierte Fragenliste zitiert Buzzfeed so: "Wir konzentrieren uns darauf, Menschen mehr Kontrolle über ihre VR-Erfahrungen durch Werkzeuge wie das Melden und Blocken von anderen Teilnehmern zu geben. Wir stellen Entwicklern weitere Werkzeuge bereit, um die Erfahrungen, die sie gestalten, zu moderieren." Zudem eruiere man auch, wie man hier künstliche Intelligenz zu Moderationszwecken nutzen könnte.

Ein Qniversum voller Desinformation

Enttäuscht von dieser Antwort begann man, eine private Welt in Metas VR-Plattform "Horizon Worlds" aufzubauen. Man nannte sie "The Qniverse", an allen Ecken gespickt mit Desinformations-Slogans wie "Stoppt die Plandemie!" oder "Trump hat die Wahl 2020 gewonnen!". Die Hintergrundbeschallung lieferten in Schleife gespielte Ausschnitte, in denen der Verschwörungserzähler Alex Jones erklärt, dass die Wahl von Reptiloiden manipuliert worden und Joe Biden pädophil sei.

Schriftzüge im Himmel enthielten Botschaften, zu deren Entfernung Meta sich auf Facebook und Instagram verschrieben hatte – egal ob diese öffentlich oder in privaten Gruppen gepostet werden. Etwa die Behauptung, Impfungen würden Autismus verursachen, oder dass das Sars-CoV-2-Virus gar nicht real sei. Vier Leute hatten insgesamt Zutritt.

Nach anderthalb Tagen stand das "Qniversum" immer noch und war, wohl aufgrund der niedrigen Aktivität, der Moderationsabteilung immer noch nicht aufgefallen. Also probierten die Teilnehmer es mit der Meldefunktion. Als auf diese nach zwei weiteren Tagen erneut keine Reaktion erfolgte, wurden zwei weitere Meldungen eingereicht.

Zurückgezogener Freispruch

Auf den dritten Report gab es schließlich eine Antwort. Sie lautete: "Unser geübter Sicherheitsspezialist hat ihre Meldung untersucht und festgestellt, dass die Inhalte im Qniverse nicht gegen unsere VR-Inhaltsrichtlinien verstoßen."

Man vermutete, dass die Person, die die Welt mutmaßlich inspiziert hat, diese womöglich für eine Parodie gehalten haben könnte. Also kontaktierte man Metas Kommunikationsabteilung, um sich zu erkundigen, wie eine Welt, in der offenkundig Desinformation geteilt wird, keinen Richtlinienverstoß darstellen kann.

Einen Tag später war das Qniverse plötzlich verschwunden. "Nach weiterer Begutachtung haben wir diese Welt aus Horizon Worlds entfernt", erklärte ein Sprecher des Konzerns. Die ursprünglich Einschätzung des Moderators aus dem Sicherheitsteam wurde also rückgängig gemacht. Warum, das wollte man allerdings nicht sagen.

Schwierige Problemstellung

Ob es künftig bessere Lösungen gibt als Blockierungen und das Meldesystem, bleibt zweifelhaft. "Wir können nicht alles, das in VR passiert, ständig aufzeichnen – das wäre eine Verletzung der Privatsphäre der Menschen", schreibt Meta in einem Blogeintrag aus dem vergangenen November richtigerweise.

Allerdings gesellt sich in VR eine weitere Problemebene hinzu. Denn es geht nicht nur darum, was Nutzer schreiben oder sagen, sondern auch darum, wie sie sich verhalten. Hier wird Meta möglicherweise technische Ansätze suchen, etwa in Form von KI-gestützter Verhaltensanalyse. Das aber, so fürchtet man bei der Electronic Frontier Foundation, könnte dazu führen, dass letztlich mehr Nutzer zensiert denn geschützt werden.

Meta baut derweil den "Selbstschutz"-Ansatz aus. Neben Blocks und Meldungen gibt es etwa die Option "Safe Zone", die es jemandem ermöglicht, schnell aus einer Umgebung auszusteigen und andere zu blockieren. Seit kurzem gibt es auch ein (optional abschaltbares) "Personal Boundary"-System für virtuelles Abstandhalten.

Eine weitere potenzielle Baustelle ist auch der Empfehlungsalgorithmus in Horizon Worlds. Anderen Nutzern werden öffentlich zugängliche Welten vorgeschlagen. Nach welchen Kriterien, bleibt aber unklar. Das birgt die Gefahr, dass problematische Inhalte auf diese Weise höhere Reichweite erhalten könnten, wie es immer wieder mit Desinformation auf Facebook der Fall war und teilweise auch noch ist. Eine Frage, ob die Empfehlungsrichtlinien und Richtlinien für die Abstufung von Inhalten auf Facebook auch für Horizon Worlds gelten, ließ Meta unbeantwortet. (red, 14.2.2022)