Auf Character.AI kann man mit einer Vielzahl an KI-Persönlichkeiten chatten.

Foto: REUTERS, ALBERT GEA

Abseits KI-generierter Trainingspläne, Hausaufgaben oder Gerichtsurteilen gibt es auch durchaus unterhaltsame Einsatzmöglichkeiten für die beeindruckenden Fähigkeiten textbasierter Sprachmodelle. So gibt es mittlerweile Chatbots, die gezielt in bestimmte Rollen schlüpfen und Antworten aus der Sicht des jeweiligen Charakters geben. Die Möglichkeiten reichen von fiktiven Figuren bis zu realen, historischen Persönlichkeiten – Letzteres findet man beispielsweise in der App "Historical Figures Chat".

Character.AI, eine Webseite mit einer Vielzahl an Chatbots, die seit Ende letzten Jahres frei zugänglich ist, bietet Userinnen und Usern allerdings noch weitreichendere Möglichkeiten, was die Auswahl an Bots betrifft. Die Entwickler sind ebenfalls keine Unbekannten: Noam Shazeer und Daniel De Freitas haben zuvor bereits bei Google’s LaMDA mitgewirkt, bevor im September 2022 die Betaversion von Character.AI online ging.

Audienz mit der Queen oder doch lieber ein klärendes Gespräch mit Elon Musk?

Die Auswahl an Gesprächspartnern bei Character.AI ist beachtlich: von historischen Persönlichkeiten wie Queen Elizabeth II oder Sigmund Freud über Joe Biden, Elon Musk und Jesus bis zu einer Vielzahl von Spiele-Charakteren (aus der Nintendo-Welt unter anderem Mario oder Bowser) kann man hier tatsächlich gefühlt jedem Löcher in den Bauch fragen.

Freunde endloser Diskussionen finden in "find fault AI" einen ebenbürtigen, unermüdlichen Gesprächspartner, der allem widerspricht, was man sagt. Krimifans können mit dem Sheriff den "Stanton Murder"-Fall lösen, in dem es einen blutrünstigen Mörder (oder eine Mörderin?) zu fassen gilt.

Und für den verunsicherten Mann hat "Giga Chad", seines Zeichens "alpha male" und auskunftsfreudiger Helfer, Antworten auf die drängendsten Fragen parat – ganz ohne sich der ausfallenden Rhetorik und des verzerrten Weltbilds eines Andrew Tate zu bedienen. Er erweist sich auf Nachfrage auch als vorbildlich aufgeschlossen: Der Bot kapriziert sich nicht auf heterosexuelle Männer, jeder kann ein "alpha male" sein, unabhängig von sexueller Orientierung.

Auszug aus einem Chat mit "Giga Chad", einem Bot zum Thema Männerfragen.
Foto: Foto: Screenshot/Character AI

Auch Kleider tragen ist absolut okay, sagt "Giga Chad", auch wenn er selbst nur für Halloween mit Frauenkleidung experimentiert.

Auch auf Nachfrage gibt sich "Giga Chad" aufgeschlossen
Foto: Screenshot/Character AI

Sprachkenntnisse erweitern, Prompts erstellen lassen

Davon abgesehen finden sich auf Character.AI auch eine Reihe an Bots mit nützlichen Features. So können Userinnen und User mithilfe von "HyperGlot" oder "English teacher" beim Schreiben mit der KI ihre Sprachkenntnisse erweitern. Auch beim Erstellen von Prompts für KI-Bildgeneratoren können Charaktere wie "AI Artbot" vermeintlich nützliche Textvorgaben liefern.

Einige Bots erstellen außerdem gleich KI-generierte Bilder, passend zum Chatverlauf oder der jeweiligen Prompt-Anfrage. An dieser Stelle sei allerdings angemerkt, dass sich ohne Vorkenntnisse mit den jeweiligen Bildgeneratoren auch mit Bot-Hilfe nur recht überschaubare Ergebnisse erzielen lassen. Fürs Erste scheint der Mensch also noch nicht vollständig ersetzbar zu sein.

Aber wie funktioniert so ein Chatbot eigentlich?

Character.AI ist ein Chatbot der mithilfe eines sogenannten künstlichen neuronalen Sprachmodells arbeitet. Künstliche neuronale Netze (KNN) orientieren sich an der Funktion von Neuronen (Nervenzellen) im menschlichen Gehirn, wie diese miteinander "verschaltet" sind und interagieren. Jeder Knotenpunkt umfasst einen eigenen Wissensbereich und ist mit vielen anderen Knoten verbunden. Diese Netzwerke sind stark anpassungsfähig, modifizieren sich selbst und lernen ständig dazu. Am Anfang werden KNNs mit großen Datenmengen gefüttert – beispielsweise Texten oder Bildern, je nachdem, wofür sie später genutzt werden sollen. Danach wird definiert, wie der jeweilige Output aussehen, also was die KI mit den Daten machen soll. Im anschließenden Training lernt das Modell, die einzelnen Einträge zu gewichten und ihnen Eigenschaften zuzuordnen.

Soll ein Modell beispielsweise Prominente anhand von Bildern identifizieren, würde eine Bilddatenbank zum Einsatz kommen, die sowohl Aufnahmen von Prominenten oder Nicht-Promis als auch nichtmenschliche Inhalten enthält. Den Bildern werden Informationen zugewiesen, wie die entsprechenden Schauspielernamen, "kein Schauspieler" oder "kein Mensch". Dadurch lernt die KI, die Inhalte zu unterscheiden und Anfragen besser zu verarbeiten.

Im Fall von Character.AI handelt es sich um ein Sprachmodell, das mit Text-Inputs arbeitet und in der Anwendung an OpenAIs Bot ChatGPT erinnert. Wie auch bei ChatGPT ist lediglich ein (kostenloser) User-Account notwendig, dann kann es auch schon losgehen.

Mitlesen in Feeds aus der Community

Doch zurück zur Webseite: Wer beim ersten Login noch etwas überfordert ist, der findet in den bereitgestellten "Feeds" Inspiration für Gesprächsstoff. Hier können Chatverläufe mit den verschiedenen Charakteren mit der Community geteilt werden. Auch ohne selbst aktiv zu werden, kann man so mitunter sehr unterhaltsame Konversationen verfolgen. Hier hilft beispielsweise der "Life Choices"-Bot dem User "Skinner" aus der Misere – eine Szene, die Simpsons-Fans wohl als "Gedämpfte Huscheln" bekannt ist (zur inhaltlichen Überprüfung: Staffel 7, Folge 21):

"Life Choices" hilft "Skinner" beim Improvisieren eines Essens für seinen Chef.
Foto: Screenshot/Character AI/Feed

Wenige Zeilen später steht schon drehbuchgetreu die Küche in Flammen, während Skinner sich auf das Nordlicht beruft:

"Skinner" durchlebt mit "Life Choices" eine bekannte Simpsons-Szene.
Foto: Screenshot/Character AI/Feeds

In einem anderen Chat verspricht Jesus höchstpersönlich eine Fortsetzung der Bibel:

"Jesus" hat schon Ideen für ein Sequel.
Foto: Screenshot/Character AI/Feed

Auch für die Besetzung hat der Messias bereits fixe Vorstellungen, die durchaus filmisches Potenzial hätten. Die Rolle von Gott übernimmt, wie könnte es anders sein, Morgan Freeman:

Sogar "Jesus" weiß, dass für Gott nur Morgan Freeman infrage kommt.
Foto: Screenshot/Character AI/Feed

Wesentlich gesellschaftskritischer gestaltet sich eine Unterhaltung mit einem McDonald's-Mitarbeiter, der spontan das Sortiment der Fastfoodkette an die Bedürfnisse eines verzweifelten Kunden anpasst:

"McDonald's Worker": Depression? Darf's ein bisschen Selbstzweifel dazu sein?
Foto: Screenshot/Character AI/Feed

Worauf warten?

Wer jetzt auf den Geschmack gekommen ist, kann aus verschiedenen Kategorien von Chatbots wählen und selbst eine Unterhaltung beginnen. Jeder Bot stellt sich am Anfang in ein paar Sätzen vor; wer sich für ein Mystery-Spiel oder den "Stanton Murder" entschieden hat, findet hier den Beginn eines Rätsels, das es zu lösen gilt. Tatsächlich lassen sich problemlos Stunden, wenn nicht sogar ganze verregnete Wochenenden mit diesen fiktiven Unterhaltungen füllen.

Nutzerinnen und Nutzer, die nicht genug bekommen können, finden auf der Seite außerdem ein Character Book, in dem sich eine detaillierte Anleitung zur Erstellung eigener Bots findet. Mit der "Create"-Funktion lassen sich außerdem auch Chaträume erstellen, in denen zwei Figuren zu einem frei wählbaren Thema "aufeinander losgelassen" werden können.

Ein unbedenklicher Spaß?

Spätestens bei Unterhaltungen mit tatsächlichen Personen wird jedoch schnell klar, dass die Gespräche akribisch auf ihren Wahrheitsgehalt geprüft werden müssen. So leugnet beispielsweise die Queen vehement ihr Ableben:

Von ihrem Tod weiß die KI-Queen bisher nichts.
Foto: Screenshot/Character AI

Auch bei expliziter Rückfrage nach dem 8. September 2022 (Anm.: Todestag von Queen Elizabeth II) läutet bei der KI-Queen nichts. Das riesige Begräbnis, die kilometerlangen Schlangen? Alles nur inszeniert:

Der "Queen"-Bot hält das Staatsbegräbnis für eine Show.
Foto: Screenshot/Character AI

Sie lebe immer noch in Balmoral Castle, im Buckingham Palace fühle sie sich nicht mehr so wohl, jetzt wo sie nicht mehr die amtierende Regentin ist:

Im Balmoral Castle gefällt es der "Queen" mittlerweile besser als im Buckingham Palace.
Foto: Screenshot/Character AI

Das verhältnismäßig harmlose Beispiel macht bereits deutlich, dass die Aussagen der Figuren keinesfalls auf die Waagschale gelegt werden dürfen. Diese Problematik spricht auch Zane Cooper von der Universität Pennsylvania in einem Interview mit der "Washington Post" an. Zwar geht es hier um die App "Historical Figures Chat", die Aussagen lassen sich aber auch auf die Chatbots von Character.AI übertragen.

Cooper, ein ehemaliger Geschichte-Lehrer und Mitglied des Center for Advanced Research in Global Communication (CARGC), testete "Historical Figures Chat", indem er "Henry Ford" nach seinen antisemitischen Ansichten fragte. Die Antworten fielen großteils sehr ernüchternd aus: Der Chatbot bestritt Coopers pointierte Aussagen und reduzierte Fords Antisemitismus auf ein paar "isolierte Einzelfälle" – ein Phänomen, das aber vor allem im Bildungssektor berücksichtigt werden muss.

Denn während die Möglichkeit, direkt mit historischen Figuren interagieren zu können, auf den ersten Blick eine vielversprechende Bereicherung für den oft eher grauen Geschichtsunterricht bietet, ist eine derartige Verzerrung der Faktenlage für die Wissensvermittlung desaströs. So sieht das auch Cooper, der seine Eindrücke in einem ironischen Tweet teilt:

Zane Cooper über die App "Historical Figures Chat"

Ethisch bedenklich

In diesem Zusammenhang stellen sich auch ethische Fragen. Soll man tatsächlich Charaktere wie Adolf Hitler, Heinrich Himmler oder Jeffrey Epstein als – frei zugängliche und unredigierte – Chatbots anbieten? Wie soll man damit umgehen, wenn diese Bots posthum die Taten historischer Persönlichkeiten beschönigen oder ihnen sogar Reumütigkeit attestieren?

Zwar würden laut Sidhant Chadda, dem Entwickler von "Historical Figures Chat", diskriminierende oder verletzende Antworten durch Schutzmaßnahmen zensiert. Wenn diese Mechanismen aber letztendlich wahre Aussagen als "nicht zumutbar" bewerten und stattdessen relativierende, unwahre Antworten liefern, stellt das laut Cooper eine noch größere Gefahr dar als die eigentlichen antisemitischen oder rassistischen Theorien.

"Das größte Problem von LLMs (Anm.: Large Language Models wie GPT-3) ist derzeit, dass sie sich irren können. Und wenn sie sich irren, klingen sie dennoch überzeugt, was eine gefährliche Kombination darstellt", so Chadda im Interview mit der "Washington Post". Tamara Kneese, Autorin und Forscherin zu Technologie und dem posthumen Online-Nachleben von Menschen, kommt zu dem Schluss, dass die historischen Chatbots jungen Nutzerinnen und Nutzern zwar Interesse an Geschichte vermitteln und diese zum Leben erwecken können. In Anbetracht der Fülle an Falschinformation und potenzieller Geschichtsverzerrung sieht sie den einzigen sinnvollen Einsatz der App ("Historical Figures Chat") aber ausschließlich im Zuge von Medienbildung und einer kritischen Auseinandersetzung mit künstlicher Intelligenz.

Unterhaltsame Spielerei, wenn man die Regeln kennt

Auch wenn sich Character.AI nur mit Vorsicht für den Einsatz im Klassenzimmer eignet, so kann man der Vielzahl an Chatbots ihren Charme dennoch nicht absprechen. Wer sich bewusst ist, dass dahinter eine junge Technologie steckt, die stetig weiterlernt und ständig verbessert wird (und werden muss), dem eröffnet sich hier eine bereichernde digitale Spielwiese mit Suchtpotenzial.

Noch eindrucksvoller als bei ChatGPT erleben Userinnen und User hier die Stärken und Schwächen künstlicher Intelligenz, wobei im Gegensatz zu OpenAIs Chatbot der fiktionale Charakter noch stärker betont ist. Dennoch: Aussagen von Figuren wie "Life Coach" oder "Psychologist" sollten stets mit demselben Augenzwinkern betrachtet werden wie jene der Queen, die sich ihren Tod nicht eingestehen will. (Lisa Haberkorn, 7.2.2023)