Eigentlich hat es sie schon immer gegeben: Fehlinformationen, die absichtlich verbreitet werden, um die Öffentlichkeit für einen bestimmten Zweck zu manipulieren. Solche Fake-News wurden in jeder historischen Epoche gestreut, heute grassieren sie vor allem online. Denn mit digitalen Hilfsmitteln sind "gefälschte Fakten" viel einfacher herzustellen und zu verbreiten, während ungeschulte Betrachter sie immer schwieriger als das erkennen können, was sie sind: Täuschungen, Lügen, Unfug.

Um der Verbreitung solcher für eine offene Gesellschaft nicht ungefährliche Fehlinformationen Einhalt zu gebieten, entwickelt das Center for Digital Safety & Security des Austrian Institute of Technology (AIT) in Wien derzeit unter dem Namen "defalsif-AI" eine Software. Sie soll dabei helfen, Fake-News als solche möglichst schnell zu identifizieren, um ihnen damit ihre Wirkung zu nehmen. Das Projekt wird im Rahmen des Sicherheitsforschungs-Förderprogramms Kiras vom Bundesministerium für Landwirtschaft, Regionen und Tourismus (BMLRT) gefördert.

Bild nicht mehr verfügbar.

In den Verfilmungen von "Der Hobbit" und "Der Herr der Ringe" lieh der Schauspieler Andy Serkis der Figur Gollum nicht nur seine Stimme, sondern auch Körpersprache und Mimik, unter anderem per Motion-Capture-Verfahren. Auch bei Deep Fakes wird die Videotechnik immer besser.
Foto: Reuters / Warner Bros

"Wir wollen ein Tool erstellen, mit dem Mediennutzer Falschinformationen erkennen können", sagt Projektleiter Martin Boyer. Die Manipulation von Fotos und Texten ist schließlich längst nicht mehr Sache von Geheimdienstprofis. Das Werkzeug dazu hat jeder auf seinem Rechner, Anleitungen sind im Netz leicht zu finden. Auch die Herstellung von sogenannten Deep Fakes, also Videos, auf denen Personen – vornehmlich Politikern – täuschend echt Aussagen in den Mund gelegt werden, die sie so nie getätigt haben, ist alles andere als Hexenwerk. Und solche Inhalte lassen sich online auch rasend schnell verbreiten.

Virulent und nicht verifiziert

In anderen Medien wie dem Fernsehen, dem Radio, in Büchern oder Zeitungen ist eine Information in der Regel bereits durch einen gewissen Verifikationsprozess gelaufen, bevor sie veröffentlicht wird: Mehrere Augenpaare haben sie auf ihren Wahrheitsgehalt geprüft. Online dagegen lässt sich eine Information auf verschiedenen Plattformen mit einem Klick sofort unter Leute bringen, wo sie sich virulent und mit fatalen Folgen verbreiten kann. Das ist beispielsweise an den zahlreichen Mythen erkennbar, die im Netz zur Corona-Pandemie kursieren und von nicht wenigen Nutzern für bare Münze genommen werden.

Damit man solchen Inhalten nicht auf dem Leim geht, soll das AIT-Tool vor allem Hilfestellung leisten. Auch wenn man darauf bedacht ist, die Handhabung des Programms möglichst einfach zu konzipieren, werde die Software ohne ein gewisses Problembewusstsein und die entsprechende Medienkompetenz keine Ergebnisse liefern, betont Boyer. Das Denken wird einem also nicht abgenommen: "Wenn niemand eine Frage stellt, wird das Programm auch nicht aktiv." Das bedeutet: Das Tool schlägt nicht automatisch Alarm. Erst wenn der User Verdacht schöpft, gibt die Software eine entsprechende Einschätzung ab, nachdem sie auf den jeweiligen Medieninhalt angesetzt wurde.

Kein autonomes Superhirn

Verschiedene Analysemodule und Algorithmen der künstlichen Intelligenz (KI) überprüfen daraufhin den Inhalt. Davon ausgehend schätzt das Tool die Wahrscheinlichkeit ein, ob es sich um Fake-News handelt. Ein definitives Urteil kann aber auch die künstliche Intelligenz nicht fällen. Denn ein digitaler Detektiv mit Superhirn sei die Software nicht, sagt Boyer: "Es gibt keinen einzelnen hochintelligenten Algorithmus, der das allein herausfindet. Daher möchten wir viele Analysemethoden vereinen, deren Ergebnisse das Tool für eine Einschätzung fusioniert."

Das macht der Forscher nicht allein: Während das AIT mit dem auf KI-Technologie spezialisierten Unternehmen EnliteAI für die technische Seite zuständig ist, wird ihnen auch von Kolleginnen und Kollegen aus den Geistes-, Rechts- und Sozialwissenschaften sowie aus dem Journalismus und der Politik zugearbeitet. Neben mehreren Bundesministerien sind auch die Donau-Universität Krems, das Wiener Research Institute, der Österreichische Rundfunk und die Austria Presse Agentur beteiligt.

Katz-und-Maus-Spiel der Manipulation

Das ist auch der Grund dafür, dass Boyer und sein Team schon relativ früh im Projektverlauf eine erste Version des Tools erstellten: So können die Projektpartner bereits im Zuge ihrer Recherchen mit der Benutzeroberfläche arbeiten und sollen aktiv bei der Entwicklungsarbeit helfen: "Wir können so im Projekt früh gegensteuern und einiges ändern, wenn uns die Partner darauf hinweisen, wo etwas noch nicht wie gedacht funktioniert."

Ohnehin will Boyer ein Programm erstellen, das sich nicht nur leicht bedienen lässt, sondern das zudem anpassungsfähig ist und nach der Fertigstellung mit dem technologischen Fortschritt mithalten kann: "Wir können nicht sicher sein, dass unser Tool in dieser Form bis in alle Ewigkeit funktioniert. Das ist ein Katz-und-Maus-Spiel: Wer beim Manipulieren auffliegt, wird versuchen, seine Methoden zu verbessern. Und weil diese Manipulationen immer besser werden, müssen wir ständig nachjustieren." (Johannes Lau, 9.9.2021)