Foto: APA/AFP/KIRILL KUDRYAVTSEV

Googles Lamda-Chatbot wird öffentlich zugänglich, das kündigte das Unternehmen in einem Blogpost an. Mithilfe der AI Test Kitchen App können Anwendende die KI in einigen Test-Szenarios selbst ausprobieren und mit ihr chatten. Zuerst werden Android-User in den USA die Möglichkeit dazu haben, eine iOS-Version der App soll in den kommenden Wochen erscheinen.

Lamda (Eigenschreibweise: LaMDA) erlangte erst kürzlich unfreiwillige Bekanntheit, als der Softwareentwickler Blake Lemoine der KI nachsagte, sie hätte ein eigenes Bewusstsein entwickelt. Er nannte Lamda ein "süßes Kind", mit dem man ohne dessen Zustimmung Experimente durchführe. Lemoine war so sehr von einem Verbrechen an der KI überzeugt, dass er einem unbekannten US-Senator interne Dokumente von Google zuspielte. Damit wollte Lemoine beweisen, dass Google religiöse Überzeugungen diskriminiere. Google feuerte den Entwickler daraufhin und war ihm vor, er würde den Bot vermenschlichen.

Konversation ausschließlich über Hunde

Wohl auch deshalb geht Google mit der Veröffentlichung des Chatbots vorsichtig um und stellt Nutzenden einige fest definierte Szenarien zur Verfügung um den Bot unter möglichst sicheren Bedingungen zu testen. So gibt es eine "Imagine"-Demo um die eigene Vorstellungskraft zu erforschen. Wem das ein wenig zu unkonkret ist, kann "List it" ausprobieren. Dabei kann man ein Ziel definieren und Lamda gibt daraufhin Wege dorthin an und generiert Aufgaben dazu. Außerdem gibt es eine "Talk About It"-Funktion in der sich der Bot ausschließlich über Hunde unterhalten soll. Letztere soll beweisen, dass der Chatbot fokussiert beim Thema bleiben kann. Denn die Erfahrung lehrt: Chatbots neigen zum Abschweifen.

Die Rassismusgefahr

Experimente mit Chatbots haben in der Vergangenheit ihren Schöpfern immer wieder Sorge bereitet, nicht weil sie ein Bewusstsein entwickelt hätten, sondern weil sie einfach zu toxisch wurden. Das musste Microsoft im Jahr 2016 herausfinden, als deren Chatbot Tay begann rassistische Vorurteile auszuspucken und Sympathien für den Nationalsozialismus hegte – nach nur 24 Stunden.

Im Juni veröffentlichte ein KI-Forscher seine Resultate: Er hatte einen Chatbot ausgerechnet auf der nicht gerade für zivilisierten Umgang bekannten Plattform "4Chan" trainiert. Das Resultat: Der Bot postete 15.000 ultrarassistische Kommentare an nur einem Tag. Immerhin: Metas Blender Bot 3 ging ebenfalls vor kurzem online und betont immer wieder ausdrücklich, dass er kein Rassist sei – offenbar haben die Entwickler aus der Vergangenheit gelernt. Dafür hält Blender Bot 3 seinen Chef Mark Zuckerberg für gruselig.


Auch bei Google ist man sich des Rassismus-Problems bewusst. Der Bot wurde über ein Jahr lang intern getestet. Ein eigenes Team hatte sogar die Aufgabe die KI zu reizen und sie Belastungstests zu unterziehen um problematische Aussagen aufzuspüren. Das Ergebnis: Lamda ist durchaus in der Lage problematisch Antworten zu geben.

"Lamda kann auch schädliche oder toxische Reaktionen zeigen, die auf Verzerrungen in seinen Trainingsdaten basieren", heißt es in einem Blogpost von Google. Damit das im öffentlichen Test nicht passiert werden gewisse Wörter von Lamda ausgefiltert, wenn Userinnen und User versuchen der KI rassistische oder anderweitig problematische Aussagen zu entlocken. Dennoch weißt Google darauf hin, dass man den Bot mit äußerster Vorsicht benutzen sollte. (pez, 28.8.2022)