Bild nicht mehr verfügbar.

Der Chatbot soll verstorbene Menschen repräsentieren.

Foto: Reuters/Lucy Nicholson

Schon 2016 probierte sich Microsoft an einem Chatbot namens "Tay", der mittels Algorithmus Twitter-Konversationen simulieren und das Führen von Unterhaltungen lernen sollte. Schon einen Tag nach Launch musste dieser jedoch wegen rassistischer Tweets wieder offline genommen werden. Nun meldete der Tech-Konzern ein neues Patent für einen Chatbot an, der die Daten verstorbener Menschen nutzen soll, um diese möglichst realistisch repräsentieren zu können.

Genauer gesagt, soll auf Basis von allen möglichen Daten wie Bildern, Sprachnotizen, Social-Media-Posts und Nachrichten ein Chatbot erstellt werden, der dann Hinterbliebenen zur Verfügung stehen könne, berichtet "The Independent". Dieser könnte dann zum Beispiel einen verstorbenen Freund, ein Familienmitglied oder sogar eine berühmte Persönlichkeit repräsentieren, mit dem sich Nutzer unterhalten können.

Ein Chatbot meiner selbst

"Eine entworfene Person kann auch dem Nutzer selbst entsprechen (der ihn zum Beispiel erstellt oder trainiert)", erklärt Microsoft weiter. Demnach könnte man also eine digitale Chatbot-Version von sich selbst trainieren, im Falle des eigenen Todes. Zusätzlich wurde offenbar die Möglichkeit aufgeworfen, ein 2D- oder 3D-Modell einer Person mittels Bildern und Videos erstellen zu können.

Ähnliches haben bereits andere Konzerne probiert. So zum Beispiel Eugenia Juyda, Mitgründerin der Tech-Firma "Luka". Mittels 8.000 Zeilen Textnachrichten, die sie mit einem verstorbenen Freund ausgetauscht hatte, entwarf sie einen Chatbot, der ihren Freund und seine Art zu sprechen imitieren konnte, so "The Independent".

Der Mensch als Risikofaktor

Der Versuch, einen intelligenten Chatbot zu kommerzialisieren, ging in der Vergangenheit allerdings nicht nur im Fall von Microsofts "Tay" nach hinten los. Erst Mitte Jänner wurde ein südkoreanischer Chatbot mit dem Namen "Lee Luda" vom Netz genommen, weil er lernte, rassistisch zu sein.

Denn der Bot, der eine 20-jährige Universitätsstudentin simulieren sollte, hatte alte Chatverläufe analysiert, um sich das Kommunizieren beizubringen. Es bleibt also auch bei Microsofts neuestem Entwurf der Nutzer selbst als Risikofaktor bestehen. (mick, 25.1.2021)