Der Politikwissenschafter Lucas Maximilian Schubert geht im Gastblog Bots, Social Bots und Bot-Netzwerken nach.

Trotz der Corona-Pandemie tauchen das Phänomen der Bot-Netzwerke und die damit behaupteten Möglichkeiten der massiven Meinungsbeeinflussung und Propaganda im Netz immer wieder in den Medien auf. Teilweise werden dabei Schreckensbilder gezeichnet, die verheerende Entwicklungen für demokratische Gesellschaften prophezeien, wissenschaftliche Untersuchungen dieser Vorgänge sprechen aber eine etwas andere Sprache.

Per se nicht schädlich

Etwas Wichtiges erst einmal vorweg: Bots, also automatisierte Programme, die verschiedene, sich wiederholende Aufgaben erledigen und nur geringfügige menschliche Betreuung benötigen, sind nicht per se schädlich. Sie durchsuchen Websites nach benutzerdefinierten Inhalten und sammeln die Ergebnisse. Sie sind in automatisierten Kundenservice-Chaträumen aktiv, sie übernehmen die Rollen von Figuren in Computerspielen, und sie sind auch in den sozialen Netzwerken unterwegs. Meist wird medial relativ undifferenziert von "Bots" gesprochen, wenn in Wirklichkeit die Letztgenannten gemeint sind: die sogenannten Social Bots.

Aber auch bei ihnen muss man differenzieren. Es gibt nützliche, wie etwa ein Bot, der von der kanadischen Initiative "Government of Canada Wikipedia Edits" erdacht wurde. Dieser wurde programmiert zu untersuchen, wo, wie oft und was auf Wikipedia von IP-Adressen, die zur Administration in Ottawa gehören, editiert wurde. Jedes Mal, wenn eine solche Änderung vorgenommen wird, twittert das Programm automatisch die Aktivität. Unspektakulärer sind die automatisierten Twitter-Accounts verschiedener Informationsdienste, die selbstständig Nachrichten senden und damit einigen Arbeitsaufwand einsparen. Allerdings existieren auch solche, die nur zum Scherz programmiert wurden, wie etwa der "B.I.E.R. Bot", der auf jede Erwähnung des Wortes "Bier" in einem Tweet ein "Prost" in einem Retweet antwortet.

Werden mehrere von diesen kleinen Programmen zusammengeschaltet, sodass sie gemeinsam operieren, spricht man von einem "Botnet". Allerdings ist auch dies noch nicht per se etwas Schädliches; es bezeichnet nur, dass verschiedene Rechner mit verschiedenen Programmen gemeinsam aktiv sind. Man muss also schon genau werden, wenn man in die Untiefen des Gebrauchs von Software zu Desinformations- und Propagandazwecken eintauchen möchte.

Wie zwitschern die Roboter?

Die Theorie hinter den Strategien zu solchen Vorhaben klingt relativ simpel: Schaffe eine Vielzahl an Fake-Accounts auf einem sozialen Netzwerk, setze Bots auf gewisse vordefinierte Aufgaben an, und bestimme eine Laufzeit. Die Aufgaben können ganz unterschiedlicher Natur sein, wie etwa unter der Verwendung bestimmter Hashtags gewisse Nachrichten zu verbreiten, gewisse Mitteilungen zu retweeten, um künstlich Reichweite zu erzeugen, oder auch ganz einfach "Likes" für bestimmte Äußerungen zu verteilen und stereotyp "Buttons" in Abstimmungen zu klicken.

So weit die Idee, doch die Umsetzung sieht in der Realität viel komplizierter aus. Entgegen der landläufigen Meinung, sind Social Bots nicht in der Lage, selbstständig und kreativ den Inhalt von Nachrichten zu bestimmen, proaktive Konversation zu betreiben oder menschliches Verhalten exakt zu kopieren. Sie benötigen noch immer intensive Bedienung und Betreuung von ganz realen, physischen Individuen, die ihnen sagen, was sie zu tun haben. Wo Menschen ins Spiel kommen, sind Fehler voraussehbar, dies ist auch der größte Schwachpunkt der Social Bots.

Beispiele für die Anwendung dieser Programme zu missbräuchlichen Zwecken, konkret für Desinformation und Manipulation öffentlicher Kommunikation, gab es in den letzten Jahren zuhauf. Diverse Trollnetzwerke auf Twitter, Accounts mit ominösen Zahlenkombinationen als Namen – die etwa vor Parlamentswahlen auftauchen, wie im Falle der US-Präsidentschaftswahlen 2016; oder zum Beispiel chinesische Diplomaten in Großbritannien, die auf einmal eine Unzahl an Fan-Accounts als Follower haben, die alle Mitteilungen ihrer Idole fleißig weiterverbreiten. Auch die serbische Regierungspartei SNS setzt massiv Social Bots ein, um für sich die Werbetrommel zu rühren oder um unliebsame Diskussionen auf Twitter mit Spamnachrichten zu verstopfen.

Bots benötigen noch immer intensive Bedienung und Betreuung von Menschen.
Foto: Getty Images/iStockphoto/anyaberkut

Wer suchet, der findet! Aber was wird gefunden?

Dies ist die grobe Faktenlage, doch wie steht es um messbare Effekte und Methoden zur Entdeckung der Aktivitäten von Social-Bot-Netzwerken? Nicht optimal, dies sei bereits einmal vorausgeschickt. Es existieren verschiedene Onlinewerkzeuge zur Entdeckung von "bottypischem" Verhalten beziehungsweise zur Überprüfung der Aktivitäten verschiedener Accounts auf den sozialen Plattformen, bezüglich des Grades ihrer Automatisierung.

Gerne wird, vor allem in der medialen Berichterstattung, das Programm "Botometer" erwähnt. Dieses vom Network Science Institute der University of Indiana entwickelte Tool soll in der Lage sein (so seine Entwickelnden), durch eine Analyse des Verhaltens eines ausgewählten Accounts mit einer gewissen Wahrscheinlichkeit bestimmen zu können, ob es sich um automatisiertes oder menschliches Verhalten handelt. Verkürzt ausgedrückt: ob es sich bei einem bestimmten Profil auf Twitter um einen Menschen handelt oder ob in Wahrheit ein Social Bot dahintersteckt.

Das "Botometer" erfreut sich vor allem in journalistischen Kreisen einer großen Beliebtheit, wird es doch in verschiedensten Berichterstattungen bezüglich des Themenkomplexes Onlineplattformen zu Rate gezogen. Es wurden bereits düstere Szenarien gezeichnet, in denen Computerprogrammen das Verhalten von menschlichen Usern und Userinnen so gut imitieren könnten, dass sie von "echten" Personen nicht mehr zu unterscheiden seien. Sie würden so massenhaft eingesetzt, dass sie in der Lage wären, effektiv für simulierte Diskurse zu sorgen und somit das Meinungsbild der Öffentlichkeit maßgeblich zu beeinflussen. Schenkt man dem "Botometer" Glauben, dann ist dem auch so: Die Anzahl an maliziösen Social Bots scheint gigantisch zu sein.

Wie so häufig steckt aber auch hier der Teufel im Detail, in einem Umstand, der nur den wenigsten bislang bekannt ist: Das "Botometer" ist extrem fehleranfällig. So fehleranfällig, dass es etwa von Florian Gallwitz, Informatikprofessor an der TH Nürnberg, als fast vollkommen nutzlos bezeichnet wird. Er stützt sich dabei auf seine eigene Forschung zum Thema künstliche Intelligenz. Damit steht er nicht allein da, auch Franziska Martini von der Freien Universität Berlin kommt zu dem Schluss, dass "Easy to use"-Tools schlicht zu ungenau sind.1

Jagd auf ein Phantom

Die Ineffektivität wurde weiter vom Datenanalysten und Tech-Journalisten Michael Kreil in einem einfachen, jedoch sehr anschaulichen praktischen Test gut nachvollziehbar bewiesen. Er verwendete als Basis für seine Analyse die Accounts von Landtags- und Bundestagsabgeordneten in Deutschland, allesamt reale, physische Personen – mit verifizierten Profilen. Das "Botometer" jedoch errechnete, dass es sich etwa bei 40 Prozent der Abgeordneten im Saarland um automatisierte Social Bots handeln müsse. In der Volksvertretung des wirtschaftlichen Powerhouse Baden-Württemberg säßen sage und schreibe zu 33,9 Prozent Computerprogramme, keine Menschen. Im Bundestag wären es dann nur noch 9,2 Prozent. Ein sehr beruhigender Umstand.

Man verzeihe den Anflug von Ironie. Trotzdem zeigt dieser anschauliche Versuch, dass das "Botometer" zwar ein wohlgemeinter Versuch ist und die Technik die dahintersteht eindrucksvoll sein mag, in der Praxis kann er jedoch allenfalls als ein Artefakt bezeichnen werden. Die Ergebnisse sind schlicht zu ungenau und analysieren in beiden Kategorien falsch. Zu diesem Schluss kam auch eine Studie von Jonas Kaiser und Adrian Rauchfleisch aus dem Jahr 2020, in der die Anzahl an falschen Ergebnissen betrachtet wurde. Das Ergebnis war erstaunlich, denn in beiden Bereichen, also falsch positiven und falsch negativen Resultaten, war die Streuung enorm hoch. Der logische Schluss ist also, dass das "Botometer" auch Bots als reale Menschen fehlinterpretiert.

Der Berg kreißte und gebar eine Maus

Eine ganz grundlegende Frage drängt sich hier auf: sind Social Bots überhaupt in der Lage, menschliche Verhaltensmuster, Kommunikation und Interaktion perfekt zu imitieren? Die Antwort mag ernüchternd sein für die Apologeten der "Bot Demokratie" und des "Aufstiegs der Maschinen", wie die Titel mancher Publikationen bereits finster vorausschicken: Nein, dazu sind sie nach dem derzeitigen technischen Stand nicht fähig. Im Prinzip verhalten sich Social Bots nämlich wie Chat-Bots, die bereits im technischen Support eingesetzt werden und die in weiten Strecken noch nicht einmal dazu in der Lage sind, eine einfache Verneinung in einer Unterhaltung richtig interpretieren geschweige denn komplexe Themen interaktiv diskutieren zu können.

Die Trennkriterien sind weiter auch zu unscharf formuliert. Wie verhält sich denn ein Bot? Gallwitz stellte fest, dass in einigen Stichproben vielen Accounts auf Twitter schnell das Label Social Bot aufgepickt wurde, sobald dieses an "automatisiertes Verhalten" erinnere. Das ist schnell erreicht – darunter fällt etwa, wenn ein bestimmtes Profil kaum eigene Inhalte teilt, dafür aber viel retweetet. Das ist aber zu ungenau und bei Nachprüfung befanden sich am Endgerät tatsächlich real existierende Menschen. Vorschnell wird auch von der Gestaltung des Accountnamens auf die Einteilung als klarer Fall von Social Bot geschlossen, so zum Beispiel, wenn sich innerhalb dessen viele Ziffern gereiht sind. Eine etwas seltsam anmutende Vorgehensweise, so kann es sich doch auch um Menschen handeln, die schlicht die automatischen Vorschläge von Twitter für einen Benutzernamen akzeptiert hatten.

Zwar gibt es mittlerweile Alternativen zum "Botometer", wie zum Beispiel "DeBot", dennoch bleibt auch hier abzusehen, wie diese in der Praxis funktionieren. Wie viele Posts am Tag machen einen Account wahrscheinlich zum Social Bot? Dies ist etwa eine Frage, die noch immer nicht hinreichend geklärt ist.

Trotz allem: Wachsamkeit ist angebracht

Was hingegen jedoch nicht wegdiskutiert werden kann, ist die Tatsache, dass Social Bots tatsächlich eingesetzt werden. Zwar nicht in der Anzahl und mit dem Effekt, wie es immer wieder postuliert wurde, dennoch sind sie "da draußen". Sie sind allerdings auch schon mit bloßem Laienauge schnell zu erkennen, haben sie doch, je nach Grad der Automatisierung, ein recht simples und repetitives Verhaltensmuster.

Hier sind wir bei der Kategorienfindung angelangt, denn es gibt beileibe nicht nur eine Art von Social Bot – man unterscheidet zwischen vollautomatischen, hybriden und menschlichen. Im ersten Fall sind autonome Programme am Werk, die ihnen zugewiesene Aufgaben abarbeiten; sie sind kaum in der Lage, sprachliche Interaktion an den Tag zu legen, und posten zum Beispiel in ihrer primitivsten Form immer wieder die gleichen Inhalte. Hybride Social Bots hingegen werden laufend von einem Menschen betreut, der sie ständig mit neuen Inhalten füttert und auch Interaktionen mit anderen Usern vorschreibt. Im letzten Fall handelt es sich dann schlicht um einen Menschen, der eventuell sogar gemeinsam mit anderen Fake-Accounts unterhält, auftragsmäßig bestimmte Nachrichten spammt und auch aktiv auf den sozialen Plattformen interagiert. Damit betreten wir das weite Feld der Onlinepropaganda, der Desinformation und der Fake-News, auf welches in einem nächsten Blogbeitrag weiter eingegangen werden soll.

Die "menschlichen" Social Bots sind konkurrenzlos die effektivsten, da sie in der Lage sind, auf Kommentare zu reagieren und sich auch kurzfristig an veränderte Nachrichtenlagen anzupassen. In Serbien etwa gibt es ganze Bot-Farmen, bestehend aus Angestellten des öffentlichen Dienstes oder auch freien Dienstnehmern. Diese verbreiten mit multiplen Accounts auf Twitter-Propaganda der Regierungspartei oder spammen auf Onlinenachrichtenportalen die Kommentarspalten mit Lobesgesängen auf den Präsidenten voll.

Nur: Um erfolgreich Onlinepropaganda und Fake-News zu verbreiten, bedarf es mehr als nur eines Social-Bot-Netzwerks. Wir betreten damit das weite Feld der Desinformation im Internet. (Lucas Maximilian Schubert, 23.2.2022)