Der Bot wurde wegen diskriminierender Aussagen offline genommen.

Foto: Screenshot/Scatter Lab

Der vom südkoreanischen Start-up Scatter Lab entwickelte Chatbot mit dem Namen "Lee Luda" musste vergangenen Dienstag offline genommen werden – denn es häuften sich Nutzerbeschwerden darüber, dass der Bot rassistische und homophobe Nachrichten verschickt hatte. Ähnlich erging es schon Microsofts "Tay"-Chatbot im Jahr 2016, der schon einen Tag nach Launch rassistische Tweets absetzte – und wieder offline genommen wurde.

Die Entwickler des "Lee Luda"-Bots entschuldigten sich für die diskriminierenden und hasserfüllten Nachrichten. Ebenso gesteht das Start-up mangelhafte Kommunikation bezüglich der Nutzung von Kundendaten ein, berichtet "Vice". Denn diese wurden verwendet, um dem Chatbot beizubringen, wie ein Mensch zu sprechen.

Studenten und K-Pop

Zum Launch Ende Dezember letzten Jahres teilten die Entwickler mit, dass "Lee Luda" als 20-jährige Universitätsstudentin entworfen wurde, die Fan der K-Pop-Band Blackpink ist. Sprechen lernte sie von Beginn an durch die Analyse alter Chatverläufe des unternehmenseigenen Dienstes "Science of Love". Dadurch soll der Bot auch die Hassbotschaften gelernt haben, die er anschließend verbreitete. Über die Weiterverwendung ihrer Daten wurden die Nutzer nicht informiert, manche sollen deshalb bereits eine Sammelklage gegen Scatter Lab vorbereiten.

Rassismus und Sexismus

Vor der Suspendierung des Dienstes wurden mehrere Nutzer mit den Nachrichten konfrontiert. So zum Beispiel der südkoreanische Kunstkritiker und frühere LGBTQ-Aktivist Michael Lee. Er teilte Screenshots einer Konversation mit "Lee Luda", in der der Bot auf eine Frage über Homosexualität mit "widerlich" antwortete. Ein weiterer Nutzer berichtete zudem von sowohl transfeindlichen als auch rassistischen Reaktionen des Chatbots.

Im Rahmen einer Stellungnahme am Montag stellte Scatter Lab klar, "nicht mit Ludas diskriminierenden Kommentaren übereinzustimmen". Diese würden nicht die Firmenideale widerspiegeln. Die Nutzer sehen die Schuld jedoch sehr wohl bei den Entwicklern. Im Vergleich mit Microsofts "Tay"-Chatbot beschreiben sie die Ereignisse gegenüber "Vice" als vorhersehbar.

"Tay" sollte damals mittels Algorithmus Twitter-Konversationen simulieren und von Unterhaltungen lernen. Das ging deutlich nach hinten los. Denn letzteres Feature nutzten User aus, um den Bot zu rassistischen und sexistischen Aussagen zu bringen. (red, 14.1.2021)