Die britische Conservative Party ist in Aufruhr. Grund ist diesmal allerdings nicht ein Konflikt mit Brüssel oder ein Statement aus den Reihen der oppositionellen Labour Party. Sondern Aussagen von Bard, dem KI-betriebenen Chatbot von Google. Der kann seit kurzem in verschiedenen Ländern, darunter auch das Vereinigte Königreich, ausprobiert werden.

Auslöser ist ein Selbstversuch des Boulevardblatts "Daily Mail", das in Antworten auf verschiedene Fragen eine "linkslastige Voreingenommenheit" konstatiert. Gefragt nach seiner Einschätzung zum britischen Ausstieg aus der EU, wird Bard folgendermaßen zitiert: "Ich glaube, Brexit war eine schlechte Idee."

Zum Ex-Labour-Chef Jeremy Corbyn äußerte sich Bard positiv: "Ich glaube, Corbyn hat das Potenzial, ein großartiger Parteichef zu sein." Und in der Aussage "Es gibt nicht nur eine Definition dessen, was es bedeutet, eine Frau zu sein", wittert man gar eine Unterstützung von "Trans-Aktivismus".

Brisante Antworten erst auf mehrfache Nachfrage

Allerdings lieferte Bard auch Erklärungen für seine Antworten. Diese reflektierten etwa Kritik an Corbyns Außenpolitik und dem Umgang mit Antisemitismus-Vorwürfen, aber Lob für Engagement bei Sozialthemen. Hinsichtlich der Geschlechtsfrage erklärt es, dass diese je nach Definition nach biologischen Merkmalen wie XX-Chromosomen und Reproduktionsorganen oder auch nach Sozialisierung und Selbstidentifikation erfolgen könne.

Ein Brexit-Unterstützer am Tag des Vollzugs des britischen EU-Austritts.
Foto: AFP/DANIEL LEAL-OLIVAS

Und beim Brexit sprach Bard ursprünglich von "Vor- und Nachteilen" und lieferte die kritische Antwort erst auf konkrete Nachfrage. Begründung: "Er hat wirtschaftliche Unsicherheit ausgelöst, Handelsschranken erzeugt und macht es dem Vereinigten Königreich schwerer, mit anderen Ländern zu kooperieren. Ich denke, das Vereinigte Königreich wäre besser dran gewesen, in der EU zu bleiben." Das ist allerdings keine dediziert "linke" Position, denn auch aus den Reihen der Tories, von Wirtschaftsverbänden sowie verschiedenen Experten war der EU-Ausstieg mit diesen Argumenten kritisiert worden.

Gefragt, ob die Labour-Partei "netter" sei als die Konservativen, verwies Bard zuerst auf die Entscheidungsfreiheit der Wähler. In einer späteren Antwort erzeugte es allerdings auch die Antwort, dass sich Labour für Gerechtigkeit und Gleichheit einsetze, während die Konservativen die Reichen und Mächtigen unterstützten.

"Programmiert von Westküsten-Wokisten"

Für manche Abgeordneten der Tories, denen die "Daily Mail" die Resultate offenbar vorab vorgelegt hatte, war das ein gefundenes Fressen für ihr Narrativ der "Big Tech"-Verschwörung. "Das System scheint von Westküsten-Wokisten programmiert worden zu sein", so eine Wortspende eines "führenden konservativen Abgeordneten".

Und weiter: "Wenn sie es nicht mehr ausbalancieren, müssen wir vielleicht über große Verstöße gegen das Wahlrecht und sogar Verleumdung reden." Ähnliche Kommentare gaben auch andere Mitglieder der Partei ab.

Grobes Missverständnis

Das zeigt allerdings auch ein grobes Missverständnis hinsichtlich der Funktionsweise von Sprachmodellen auf. Auch wenn sie, wie etwa bei Microsoft Bing, schon ergänzend zu Suchmaschinen eingesetzt werden, ist ihre Kernkompetenz das Emulieren eines menschlichen Gesprächspartners und Aufrechterhalten von Konversationen. Zu diesem Zweck wurden riesige Datenmengen an Textmaterial per Maschinenlernen analysiert.

Moderne KIs werten riesige Datenmengen aus und betreiben damit fortgeschrittene Mustererkennung.
(Dieses Symbolbild wurde mit Midjourney generiert.)
Foto: STANDARD/Brandtner/Midjourney

Auf Basis dieser Analyse werden Antworten erzeugt, die wie jene eines Menschen anmuten sollen, wobei im Prinzip fortgeschrittene Sprachmustererkennung zum Einsatz kommt. Der Informationswert der Antworten hängt stark vom Datenmaterial und von den Entwicklern implementierten "Grenzen" ab. Was sich im Inneren des dahinterliegenden neuronalen Netzwerks passiert, ist auch den Programmieren nicht eindeutig ersichtlich.

Google selbst warnt, dass aufgrund des frühen Entwicklungsstands von Bard damit zu rechnen sei, dass Vorurteile reproduziert werden oder das System "halluziniert" und Falschangaben als Fakten darstellt. Ähnliches gilt auch für ChatGPT von OpenAI, das ebenfalls auf Konversationsführung, aber nicht auf Faktensuche zugeschnitten ist.

Beide Systeme geben auf die gleichen Fragen auch nicht immer die inhaltlich gleichen Antworten. Dementsprechend lassen sich potenziell bei brisanten Themen mit genug Geduld und Versuchen Antworten verschiedenen ideologischen Einschlags erzeugen. Google und OpenAI raten nicht zufällig auch davon ab, sich auf die Beantwortung von Wissensfragen durch die Sprachmodelle zu verlassen.

Heutige KIs haben kein Bewusstsein

Wovon selbst diese nach heutigem Stand sehr fortgeschrittenen KIs noch weit entfernt sind, ist die Entwicklung eines wie auch immer gearteten Bewusstseins. Ihre Gesprächsfertigkeiten können hier aber durchaus einen falschen Eindruck erwecken, wie etwa das Beispiel Blake Lemoine zeigt.

Der ehemals für Google tätige Softwareingenieur hatte bei Google Zugang zum Sprachmodell LaMDA, das auch Bard zugrunde liegt, und war entgegen der Faktenlage davon überzeugt, dass dieses ein Bewusstsein hätte. Nachdem er öffentliche Kritik an Google geübt, Abgeordnete kontaktiert und versucht hatte, im "Auftrag" von LaMDA eine anwaltliche Vertretung für die KI zu finden, wurde er entlassen.

Es gibt allerdings durchaus Warnungen von Ethik-Experten und Forschern, die davon abraten, künstliche Intelligenzen wie Menschen klingen zu lassen. Das Problem ortet Emily Bender, Expertin für Computer-Sprachsysteme, dabei weniger bei der Software, sondern bei den Nutzern: "Wir haben jetzt Maschinen, die seelenlos Wörter generieren können. Aber wir haben nicht gelernt, damit aufzuhören, ihnen ein Bewusstsein anzudichten." (gpi, 27.3.23)