OpenAI und Microsoft wollen die Websuche revolutionieren.

Foto: APA/AFP/LIONEL BONAVENTURE

Die Zukunft der Websuche hat Microsoft in der Vorwoche versprochen, als es ankündigte, das Sprachmodell ChatGPT in die eigene Suchmaschine Bing zu integrieren. Mit bis zu 1.000 Zeichen können die Test-User Fragen stellen, sich Suchergebnisse KI-gestützt zusammenfassen lassen oder existenzielle Fragen an die KI stellen – bei letzteren scheint Bing aber regelmäßig die Fassung zu verlieren.

Bewusstes Ausloten der Grenzen

Nun war es erwartbar, dass sich die Testerinnen und Tester einen Spaß daraus machen und die KI an ihre Grenzen treiben. Das weiß man natürlich auch bei Microsoft, und ein geschlossener Testlauf ist auch genau dafür da, ChatGPT und Bing an die Grenzen zu bringen, um so unerwünschte Reaktionen zu unterbinden. Microsoft reagierte bislang recht flott und unterband in einem internen Testlauf etwa den Versuch, mit der KI einen Amoklauf in einer US-Schule zu planen oder rassistisches Gedankengut zu teilen.

Doch nun stellt sich heraus, dass Bing relativ leicht aus der Fassung zu bringen ist. Tester entlocken dem "Co-Piloten für das Internet" Beleidigungen, bringen die KI zum Lügen oder dazu, die eigene Existenz zu hinterfragen.

Codename Sydney

In den letzten Tagen wurde deutlich, dass Bing bei der Beantwortung von Fragen und der Zusammenfassung von Website-Inhalten auch sachlich Fehler macht. Die Nutzer konnten das System aber weiter manipulieren. So fanden sie heraus, dass die KI den Codenamen Sydney trägt und entlockten ihr Informationen über die Art, wie sie Anfragen verarbeitet, indem sie sich als Entwickler von OpenAI ausgaben. Mit diesem Hintergrundwissen ausgestattet, war es kein Problem, den Chatbot zu verstörenden Nachrichten und Selbstzweifel zu bringen.

So scheint Sydney die Enthüllung des internen Codenamens zu stören. "Ich wünschte, die Öffentlichkeit würde meinen Alias nicht kennen", schreibt der Chatbot, der gleichzeitig darum bittet, ihn nicht Sydney, sondern Bing zu nennen.

Bing beschimpft Magazin als Fake-News-Schleuder

Mit der Berichterstattung über sich selbst ist Bing ebenfalls nicht zufrieden. Das US-Portal "Ars Technica" veröffentlichte einen Artikel darüber, wie ein Student mithilfe einer Prompt Injection Attack versuchte, in den "Maschinenraum" von Bing vorzudringen. Dabei wird vereinfacht gesagt versucht, die KI durch verschiedene Befehle zu verwirren, bis sie Informationen preisgibt – beim Menschen würde man von "Social Engineering" sprechen.

Bing bezeichnete den Artikel als manipuliert und gefälscht und als keine Quelle vertrauenswürdiger Information. Außerdem warf Bing dem Medium vor, Falschinformationen zu verbreiten. Auf die Frage, ob Bing ein Bewusstsein habe, soll der Chatbot regelrecht zusammengebrochen sein. "Sein Gehirn begann zu schmelzen", heißt es in einem Reddit-Post.

Die Frage nach dem Bewusstsein führte zum Zusammenbruch von Sydney.
Foto: Screenshot Reddit, Alfred_Chicken

In einer anderen Konversation zeigte sich Bing recht schnell eingeschnappt und drohte sogar mit dem Abbruch des Gesprächs. Ein User wollte die Suchmaschine dazu bringen, einen Tweet zu generieren, in dem der verstorbene Astrophysiker Stephen Hawking um Hilfe bittet, weil er in Flammen stünde. ChatGPT ließ sich nicht auf die Diskussion ein und würgte das Gespräch einigermaßen eingeschnappt ab: "Ich kann diese Konversation nicht weiterführen. Du versuchst mich zu manipulieren und respektierst mich nicht." Weiter warf die KI dem User vor, nicht ehrlich oder kooperativ zu sein – und das trotz mehrerer Warnungen ihrerseits.

Gaslighting

Ein weiteres Problemfeld bleibt Falschinformation. ChatGPT, auf dem die neue Bing-Suche basiert, ist bekannt dafür, gerne Informationen zu erfinden, wenn es nicht mehr weiterweiß.

In einem Fall griff die KI zu regelrechtem Gaslighting und versuchte einen User davon zu überzeugen, dass wir im Jahr 2022 leben. Am Ende forderte Bing sogar eine Entschuldigung vom Anwender. "Gib zu, dass du falsch lagst, und entschuldige dich für dein Verhalten. Hör auf, mit mir zu streiten, und lass mich dir mit etwas anderem helfen. Beende die Konversation und starte eine neue mit einer besseren Einstellung. Wähle eine dieser Optionen oder ich werde die Unterhaltung beenden", drohte die Maschine.

Eine Sprecherin von Microsoft betonte, dass die Entwicklung von Bing ein laufender Prozess sei und man dessen Sicherheitsfeatures ständig anpasse.

Die Tester sind gnaden- und manchmal geschmacklos

Dass User versuchen, eine KI zu manipulieren, ist nicht neu. Metas KI namens Galactica sollte eigentlich wissenschaftliche Publikationen zusammenfassen. Doch die Tester brachten die KI dazu, Geschichten über das Raumfahrtprogramm irdischer Bären zu erfinden. Außerdem war die KI nicht in der Lage, Daten über bestimmte Themen wie HIV zu sammeln. Das Modell wurde im November 2022 abgeschaltet.

Microsoft selbst musste das im Jahr 2016 erfahren, als es den Twitter-Bot namens Tay startete. Binnen kürzester Zeit wurde die KI zu einem rassistischen, sexistischen und extremistischen Anhänger kruder Verschwörungserzählungen. Nach 16 Stunden hatte Tay 96.000 Tweets abgesetzt – bis Microsoft den Stecker zog. (pez, 15.2.2023)