Im Jahr 2024 stehen in Österreich, Europa und den USA wichtige Wahlen an. Alles deutet darauf hin, dass die Wahlauseinandersetzungen von Falschmeldungen, Desinformationskampagnen und KI-generierten Deepfakes dominiert werden. DER STANDARD sprach mit der Technologierechtsexpertin Miriam Buiten darüber, wie wir uns gegen die tägliche Dosis Fake-News-Wahnsinn auf Social Media schützen können, ob mit täuschend echten KI-Videos das Tor zur Desinformations-Hölle aufgestoßen wurde und was Elon Musk damit zu tun hat.

Miriam Buiten ist Expertin für Technologie- und Informationsrecht.
Universität St. Gallen

STANDARD: Sie forschen im Bereich Fake News, Desinformation und KI-generierten Deepfakes. Jetzt haben wir in der EU den AI Act, wird jetzt alles gut?

Buiten: Der AI Act ist ein wirksames Mittel und hat die notwendige Regulierung geschaffen, das ist schon alles sinnvoll. Aber vieles muss noch genauer festgelegt werden. Es fragen sich viele in der Industrie, wie der AI Act umgesetzt wird, da ist so vieles noch nicht ganz klar. Gleichzeitig werden Ersteller von Deepfakes, wenn sie böse Absichten verfolgen, deswegen wohl kaum ihre Videos als KI-generiert markieren.

STANDARD: Sind wir da zu spät dran oder überregulieren wir den Markt schon wieder?

Buiten: Na ja, eine solche Regulierung kommt nie rechtzeitig, und man wird sich immer fragen müssen, ob man schnell genug war. 2021, als die Verhandlungen begannen, wussten wir in vielen Bereichen noch gar nicht, wo die Risiken sind. Große Sprachmodelle waren da noch nicht das große Thema. Aber ja, wir brauchen schon jetzt irgendeine Form der Regulierung. Gleichzeitig hätten wir nicht viel früher starten können, weil sich die Technologie erst entwickelt. Den richtigen Zeitpunkt zu treffen ist da schon schwer.

STANDARD: Deepfakes sind heute einfacher zu generieren als je zuvor. Die Software gibt es kostenlos im Internet, und im nächsten Jahr sind wichtige Wahlen in den USA und Europa. Haben wir da das Tor zur Desinformations-Hölle aufgestoßen?

Buiten: Ich persönlich mache mir schon Sorgen, wohin das führen soll. Wie können wir noch wissen, ob jemand wirklich das gesagt hat, was gezeigt wird? Wir müssen immer kritischer werden und uns fragen, ob das, was wir da gerade schauen wirklich echt ist. Ein entscheidender Aspekt dabei ist die Überprüfung der Quelle: Ist sie vertrauenswürdig?

STANDARD: Aber wie kann man gegen solche Deepfakes vorgehen?

Buiten: Rechtlich ist dies heikel, denn Deepfakes sind ja nicht per se illegal. Geht man da gleich mit einer Regulierung vor, ist man sehr schnell auf dem Weg zur Zensur. Wer entscheidet denn, was ein Fake ist? Bei Fake News ist es sogar noch schwieriger. Wenn eine Fake-News-Meldung genau das bestätigt, was man ohnehin glauben will, dann ist es noch leichter, darauf hineinzufallen. Problematisch wird es auch dann, wenn Leute mit Autoritätspositionen, wie Donald Trump als US-Präsident, verbreiten, dass man Bleiche trinken soll, um sich gegen Covid zu schützen.

STANDARD: Ja, und was machen wir jetzt? KI-Markierung wird nicht funktionieren, der Kampf gegen Fake News scheint aussichtslos, und wenn ich an meine ältere Verwandtschaft denke, weiß ich nicht, ob die genügend Medienkompetenz hat, um Fakes zu erkennen.

Buiten: Wir brauchen Zugang zu Bildung und kritischen Umgang mit Medien. Jedes Schulkind sollte einen Kurs besuchen, wie man mit Informationen aus Medien und vor allem sozialen Medien umgeht. Man muss sich immer vor Augen halten, dass soziale Medien mit Profitziel darauf ausgerichtet sind, dass wir möglichst lange auf der Seite bleiben. Da landet man leicht in einer Ecke und manchmal in gefährlichen Bubbles. Wir müssen der jetzt heranwachsenden Generation sagen, dass es eben nicht die Normalität ist, sich mit Nachrichten nur auf Social Media zu versorgen. Die Verantwortung liegt auch bei Journalisten, wie sie sorgfältig mit Informationen umgehen.

STANDARD: Aber genau dafür gibt es ja den Digital Services Act (DSA), der die Flut an Falschinformationen in Europa eindämmen soll. Sollte der nicht langsam greifen?

Buiten: Der Digital Services Act fokussiert sich nicht auf Einzelinhalte, was sehr gut ist. Der DSA schaut sich die Moderationsprozesse an und wie diese bei den Plattformen laufen. Das ist ein sehr vernünftiger Ansatz. Wir haben es bei Social Media mit privaten Unternehmen zu tun, die eine öffentliche Rolle erfüllen. Natürlich ist Youtube ein profitorientiertes Unternehmen, gleichzeitig holen sich die Leute aber ihre Informationen von dort. Die Plattformen zu zwingen, diese Verantwortungen auch ernst zu nehmen, ist durchaus sinnvoll.

STANDARD: Immer wieder werden US-Plattformen kritisiert, dass sie eben zu wenig gegen Fake News und Hate-Speech vorgehen. Funktioniert der DSA nicht?

Buiten: Wir müssen uns erst anschauen, wie es mit der Implementierung des DSA laufen wird, und nach den ersten Bußgeldern werden die Regeln dann schon ernst genommen. Die bisherige Selbstregulierung auf den Plattformen reicht offensichtlich noch nicht aus. Im Vergleich zu der Zeit vor zehn oder 15 Jahren machen diese Plattformen aber heute deutlich mehr an Moderation. Aber es gibt natürlich immer wieder Beispiele, wo zu spät eingegriffen wird. Das hängt auch davon ab, wer Eigentümer ist und was der will. Das Beispiel X, nachdem Elon Musk es erworben hat, zeigt uns, wie sehr die persönlichen Ansichten des Plattformbetreibers beeinflussen können, welche Inhalte gelöscht werden.

STANDARD: Wie schlimm ist die Bedrohung durch Elons Musks X, vormals Twitter, wirklich?

Buiten: Alle anderen tun schon viel mehr als früher, was den Kampf gegen Falschmeldungen und Hass betrifft. X geht da in eine andere Richtung. Musk hat die sehr amerikanische Idee von Free Speech, hat aber auch Inhalte entfernen lassen, die ihm persönlich nicht gefielen. Genau das zeigt uns aber auch, dass die Frage, was wir von einer solchen Plattform wollen, gar nicht so leicht zu beantworten ist. Eines ist klar: Eine neutrale Social-Media-Plattform kann es nicht geben. Sie spielen ja selbst Inhalte aus und treffen Entscheidungen darüber, was wir zu sehen bekommen.

STANDARD: Und wie sähe dann die perfekte Plattform aus?

Buiten: (lacht) Ich bin gerade dabei, mein Buch fertigzustellen. Nach 600 Seiten kann ich es immer noch nicht sagen. Aber: Social Media ist mehr als eine technische Plattform für von uns erstellte Inhalte. Ihre Rolle hat sich stark verändert: Algorithmen empfehlen uns Inhalte, das ist wie ein riesiges Billboard, und sie zeigen uns einen Quadratzentimeter davon. Die Informationsflut im Internet muss jemand für uns sortieren und einordnen; sonst bringt es uns ja nichts, dass alles Wissen verfügbar ist, wir es aber nicht finden können. Gleichzeitig müssen wir uns bewusst sein, dass die Plattformen entscheiden, wie ihre Algorithmen funktionieren. Sie entscheiden, ob meine Meldung vorne steht oder auf Seite 18 in den Suchergebnissen landet. So weit weg von Medienunternehmen sind diese Plattformen nicht mehr entfernt.

STANDARD: Das klingt sehr nach dem Problem des Tunnnelblicks oder der Blase. Klicke ich auf "gefällt mir", bekomme ich beim nächsten Mal ähnliche Inhalte ausgespielt. Egal ob es sich um eine Falschmeldung handelt oder nicht. Wie kann man das Problem dieses Tunnelblicks oder der Blase lösen?

Buiten: Journalisten haben ethische Standards. Sowas bräuchte man auch für Plattformen. Wie das praktisch aussieht, ist eine andere Frage. Dass ein Chefredakteur Videos von Youtube kuratiert, ist technisch natürlich unvorstellbar. Die Verpflichtungen der Plattformen müssen aber in diese Richtung gehen, auch wenn die Inhalte nicht von der Plattform selbst erstellt wurden. Sie tragen dennoch die Verantwortung, was sie pushen. Und diese kann nicht nur gewinnorientiert sein. Man darf ja etwas Falsches sagen, das ist ja nicht verboten. Aber man hat kein Recht darauf, dass es Millionen sehen. Die Plattformen geben mir das Mikrofon, und wenn die Hauptüberlegung die Klicks oder Werbeeinnahmen sind, dann geht da schon einiges schief.

STANDARD: Dass die Social-Media-Plattformen aber massenweise Redakteure einstellen, die das Gepostete auf ethische Standards überprüfen, ist aber auch eher unwahrscheinlich. Wie kommt man also dorthin, dass sie ihre Verantwortung wahrnehmen?

Buiten: Wir sollten zumindest von Plattformen verlangen, dass ihre Moderationsprozesse verantwortungsbewusst und transparent sind, so wie es der DSA vorschreibt. Und dann kommt es darauf an, welche Informationen in diese Plattformen fließen und wie kritisch die Nutzer sind. Es fängt viel damit an, dass man sich auf Nachrichtenmedien verlassen kann. Medien machen vieles richtig und betreiben viel Fact-Checking. Das ist aber teuer und aufwendig, deshalb braucht es auch öffentliches Geld für die Überprüfung von Meldungen. Die Medien müssen einfach die Mittel haben, Fact-Checking zu betreiben. Gerade in Zeiten von Wahlen ist es enorm wichtig, dabei wachsam und kritisch zu bleiben. Auf der Nutzerseite ist Bildung entscheidend. Jedes Kind lernt Rechtschreibung, warum nicht auch über Technologien, die unser Leben bestimmen? Vielleicht auch Basics in Machine-Learning und künstlicher Intelligenz. Das soll Standard werden in den Schulen. Damit die neue Generation sich kritisch mit den Technologien auseinandersetzen kann. (Peter Zellinger, 17.12.2023)