Nur 16 Stunden war Microsofts Twitter-Bot "Tay" aktiv. Nachdem die Chatbot-Software unter anderem Hitler angepriesen hatte, den Holocaust verleugnete, Schwarze sowie Mexikaner beleidigte und Feminismus mit Krebs verglich, war es dem Konzern genug. In einem Blog-Eintrag gab Microsoft bekannt, dass man diese Aussagen "zutiefst bedauere" und sich dafür entschuldige. Ein Großteil der Tweets ist mittlerweile gelöscht.

Foto: Screenshot/WebStandard

"Tay" soll weiterentwickelt werden

Am gestrigen Freitag gestand Microsoft auch ein, dass das Experiment extrem schief gelaufen ist. Ganz wolle man "Tay" aber nicht abschreiben. Vielmehr sollen die Entwickler einen Weg finden, dass der Bot keine Aussagen mehr trifft, die "die Prinzipien und Werte des Konzerns unterwandern". Peter Lee, Microsofts Vizechef für Entwicklung, entschuldigte sich noch einmal und betonte, dass die Tweets weder für den Konzern stehen, noch dafür, wie der Bot entwickelt wurde.

Foto: Screenshot/WebStandard

"Koordinierte Attacke" von einigen Nutzern

"Tay" hätte mithilfe eines Algorithmus Twitter-Konversationen simulieren und auch von Unterhaltungen lernen sollen. Die Hauptentwicklerin des Projekts gab an, dass es einen Filter gegen obszöne Ausdrücke gab – offenbar hatte man allerdings die destruktive Energie einiger Nutzer unterschätzt. Laut Lee sollen die entgleisenden Tweets auf eine koordinierte Attacke einiger User zurückzuführen sein.

Foto: Screenshot/WebStandard

Chinas Chatbot ist ganz anders

"Tay" ist übrigens nicht Microsofts erstes Experiment mit Chatbots. In China startete der Konzern bereits 2014 eine Software namens XiaoIce, die bisher mit interessanten Geschichten und Konversationen aufgefallen sein soll. 40 Millionen Nutzer soll der Bot bereits angesammelt haben. Von "Tay" will Microsoft ebenso einiges gelernt haben und weiter daran arbeiten um zu einem Internet beizutragen, "das die beste und nicht die schlechteste Seite der Menschheit repräsentiert". (dk, 26.03.2016)