Die KI erfand unter anderem Geschichten über raumfahrende Bären.

Dieses Bild wurde mit der KI "Midjourney" mit dem Befehl "a bear astronaut in front of a planet, realistic" erstellt

Foto: STANDARD/Zellinger/midjourney

Das war wohl eher kein Urknall für die Wissenschaft: Meta musste die eigene Wissenschafts-KI namens "Galactica" nach nur drei Tagen wieder abschalten, weil sie selbst erfundene Inhalte als Fakten verkaufte. Dabei sollte die künstliche Intelligenz Forscherinnen und Forscherin eigentlich bei der Recherche sowie dem Verfassen von Texten helfen. Die öffentliche Demo wurde wieder abgeschaltet, nachdem die Kritik immer lauter wurde, wie MIT Technology Review berichtet.

Am 15. November hat Meta die Öffentlichkeit eingeladen, ihr so genanntes Large Language Model für die Wissenschaft zu testen. Das System wurde anhand von 48 Millionen Beispielen wie wissenschaftlichen Artikeln, Websites, Lehrbüchern, Vorlesungsunterlagen und Enzyklopädien trainiert. Dabei sollte die KI bestehende Papers für Forschernde und Studierende zusammenfassen oder mathematische Probleme lösen, Wiki Artikel erstellen oder wissenschaftlichen Code schreiben.

Aber die hochtrabenden Versprechen endeten mit einem veritablen Bauchfleck: Denn wie alle Sprachmodelle ist "Galactica" im Grunde nur ein Bot – und dieser konnte Fakten nicht von Fiktion unterscheiden. Innerhalb von wenigen Stunden teilten Wissenschaftlerinnen und Wissenschaftler die teils absurden Resultate von "Galactica" in den sozialen Medien.

KI schrieb falsche Arbeiten echten Autoren zu

So erstellte die KI gefälschte Arbeiten, die sie in manchen Fällen sogar real existierenden Autoren zuschrieb. Darüber hinaus erfand das Sprachmodell einen Wiki-Artikel über das Leben von Bären im Weltraum. Das Problem daran: Geht es um raumfahrende Bären ist das Fantasieprodukt noch leicht zu erkennen. Problematisch werden die falschen Ergebnisse, wenn der Nutzer selbst nicht über das Fachwissen verfügt einen Fake zu entlarven.

Michael Black, Chef des Max-Planck-Instituts für Intelligente Systeme in Deutschland, twitterte: "In allen Fällen war es falsch oder voreingenommen, klang aber richtig und vertrauenswürdig. Ich denke, es ist gefährlich."

Darüber hinaus hatte "Galactica" problematische inhaltliche Lücken, so wurde der Befehl Texte zu Themen wie Rassismus oder AIDS zu erstellen mit "Entschuldigung, Ihre Anfrage hat unsere Inhaltsfilter nicht bestanden. Versuchen Sie es erneut und denken Sie daran, dass dies ein wissenschaftliches Sprachmodell ist," quittiert.

Meta-Chefwissenschaftler spricht von "Missbrauch"

"Ich bin sowohl erstaunt als auch nicht überrascht von diesem neuen Versuch", sagt Chirag Shah von der University of Washington. "Wenn es darum geht, diese Dinger vorzuführen, sehen sie so fantastisch, magisch und intelligent aus. Aber die Leute scheinen immer noch nicht zu verstehen, dass solche Dinge im Prinzip nicht so funktionieren können, wie wir sie hochspielen."

Yann LeCun, Chefwissenschaftler von Meta, verteidigte "Galactica" bis zum Ende. Er konterte Kritik mit dem Hinweis, dass es sich um eine Demo handelt und es zu Fehlern kommen kann. Nach drei Tagen wurde die Kritik zu viel und Meta zog den Stecker. Lecun wirkte verbittert: "Die Galactica-Demo ist vorerst offline. Es ist nicht mehr möglich, Spaß zu haben, indem man es missbraucht. Glücklich?"

Bei Beobachtern wurden Erinnerungen an Microsofts Tay-Bot wach. Der Twitter-Chatbot wurde von der Nutzerschaft binnen 16 Stunden zu einem rassistischen, homophoben Sexbot, woraufhin Microsoft das Experiment beendete. (pez, 20.11.2022)