Elon Musk hält Künstliche Intelligenz eigentlich für gefährlich, investiert aber dennoch.

Foto: REUTERS/Mike Blake

OpenAI ist ein Unternehmen, das sich aufs Revers heftet, Texte mittels Künstlicher Intelligenz automatisch weiterschreiben zu können, die so echt wirken, dass sie "gefährlich" werden könnten. Ursprünglich wollte das Unternehmen den Text-Generation namens Transformer daher eigentlich gar nicht veröffentlichen, aus "ethischen Gründen". Nun hat man es doch getan.

Mit Unterstützung von Elon Musk

Trainiert wurde der Generator nach Angaben von OpenAI mit öffentlich verfügbaren Texten von etwa acht Millionen Websites. Mit Elon Musk konnte das Unternehmen auch einen berühmten Investor gewinnen – der sich in der Vergangenheit eigentlich öfter kritischen gegenüber Künstlicher Intelligenz geäußert hatte. Auch von Microsoft wird OpenAI unterstützt.

Um die Verbreitung "künstlicher Propaganda" zu verhindern, wollte man das Tool zunächst nicht veröffentlichen. Nun hat sich OpenAI doch anders entschieden. Man habe keine Hinweise auf Missbrauch gefunden und daher steht die Software unter Talktotransformer.com nun allen Nutzern kostenlos zur Verfügung. Wie das Ganze funktioniert? Man schreibt oder kopiert eine Textpassage in der Textfeld und die Software ergänzt den Text dann eigenmächtig.

Englische Textvorlagen liefern Ergebnisse, die von unheimlich echt wirkend bis lächerlich rangieren. Beim fett gedruckten Text handelt es sich um die Nutzereingabe, der nachfolgende Text wurde von der Software generiert.
Screenshot
Mit Deutsch kommt die Software nicht klar.
Screenshot

Durchwachsene Ergebnisse

Gizmodo hat sich längere Zeit mit Transformer beschäftigt und kommt zum Ergebnis: gefährlich ist daran derzeit noch nichts, die Texte bieten aber durchaus Unterhaltungswert. Der Blog hat eine Reihe von Beispielen veröffentlicht, die zeigen, was die Software kann. Das Tool funktioniert dabei natürlich vorrangig auf Englisch. Deutsche Eingaben führen aber auch zu Ergebnissen – diese sind jedoch alles andere als beeindruckend. Hier spuckt das Tool nur eine wirre Aneinanderreihung von Wörtern aus, die keinen Sinn ergeben. (red, 11.12.2019)