Ein Roboter-Wissenschaftler in einem Labor. Dieses Symbolbild wurde mit der Bilder-KI Midjourney generiert.
KIs wie ChatGPT geben meist überzeugend klingende Antworten, inhaltlich richtig sind sie aber nicht immer.
DER STANDARD/Pichler/Midjourney

Dass Large Language Models (LLMs) wie ChatGPT oder Google Gemini für das Verfassen von Hausübungen und Bachelorarbeiten verwendet werden, ist Lehrkräften und (Hoch-)Schuldirektionen schon seit längerem ein Dorn im Auge. Allerdings dürfte es auch keine Seltenheit sein, dass mithilfe derartiger KI-Bots Texte verfasst werden, die anschließend in wissenschaftlichen Journals veröffentlicht werden, ohne dass eine ausreichende Prüfung durch einen Menschen – seien es die Verantwortlichen bei den Verlagen oder die einreichenden Personen selbst – stattgefunden hat. Dies wurde zunächst in einem viralen Tweet suggeriert und anschließend durch das Medium "404 Media" überprüft.

So wurde von dem Medium ein Tool namens Google Scholar genutzt, welches in wissenschaftlichen Journalen publizierte Papers indexiert und zugänglich macht. Hier suchte man nach der typischen von ChatGPT verwendeten Phrase "Bis zu meinem letzten Update" (Original: "As of my last knowledge update") und landete sogleich 115 Treffer. Die Phrase wird von ChatGPT oft verwendet, um Informationen mit zeitlicher Relevanz in einen entsprechenden Kontext zu setzen und anzudeuten, dass diese eventuell veraltet sind, da sich die Situation nach dem Einspielen des letzten Satzes an Trainingsdaten verändert haben könnte.

Relativiert wird vom Autor des Artikels, dass es sich nicht bei allen der 115 Texte gezwungenermaßen um Werke handelt, die von einer KI verfasst und anschließend nicht mehr überprüft wurden: In manchen Fällen wird auch die Funktionsweise von LLMs beschrieben und somit ebendiese Phrase zitiert. Unter anderem komme die Phrase aber auch bei einem Paper vor, das angeblich eine wissenschaftliche Auseinandersetzung mit dem Thema Quantenverschränkung enthält. Eine kurze Stichprobe des STANDARD ergab zunächst keine Treffer bei der Suche nach vergleichbaren Phrasen in deutscher Sprache.

Pay to publish

Die Situation wirft dem Autor des Artikels von "404 Media" zufolge aber auch ein schiefes Licht auf eine andere Problematik, welche die wissenschaftliche Community schon lange vor dem Siegeszug der KI-Bots beschäftigte. Denn die meisten der gefundenen Texte wurden in Journals mit niedrigen wissenschaftlichen Ansprüchen veröffentlicht, die so gut wie jeden eingereichten Text so schnell wie möglich veröffentlichen. Das "Open Access Research Journal of Engineering and Technology" wirbt etwa mit "niedrigen Veröffentlichungsgebühren" und einem "E-Zertifikat", der Verlag ruft derzeit zur Einreichung von Papers auf und verspricht eine Veröffentlichung innerhalb von vier Tagen.

Im Februar hatte der "Guardian" berichtet, dass 10.000 Papers aus derartigen Journalen zurückgerufen werden mussten. "404 Media" zitiert auch einen Artikel aus dem Fachmagazin "Nature", laut dem manche dieser Journale exorbitant hohe Gebühren für das rasche Publizieren der Beiträge verlangen. Die Spreu vom Weizen zu trennen sei hier nicht immer leicht, denn es würden auch viele angesehene Publikationen Einreichende für die Veröffentlichung ihrer Papers zur Kasse bitten.

"Hier ist eine mögliche Einleitung ..."

Es kommt jedoch auch vor, dass ungeprüfte, via KI generierte Texte ihren Weg in seriöse Publikationen finden. So fand Kolina Koltai von Bellingcat in einem in "Surfaces and Interfaces" veröffentlichten Paper die Phrase "Sicher, hier ist eine mögliche Einleitung für dein Thema" (Original: "Certainly, here is a possible introduction for your topic").

Michael J. Naughton, Professor der Physik am Boston College und einer der Verantwortlichen bei "Surfaces and Interfaces", antwortet auf Anfrage von "404 Media", dass man sich dieses Papers bewusst sei und das Problem "behandle".

Außerdem verweist er auf die KI-Richtlinien des Verlags, laut denen KI nur eingesetzt werden darf, um die Sprache und die Lesbarkeit eines Textes zu verbessern. Der Text muss anschließend nochmals durch einen Menschen kontrolliert werden. Die Autorinnen und Autoren sollen den Text nochmals vorsichtig prüfen, da eine KI zwar richtig klingende, aber inhaltlich falsche, unvollständige oder voreingenommene Texte produzieren könne. Außerdem müssen die Einreichenden transparent kommunizieren, wenn KI genutzt wurde.

Und schließlich beschränkt sich die KI-Problematik nicht nur auf Texte, sondern betrifft auch Illustrationen, die fehlerhaft sein können. So veröffentlichte im Februar ein Journal namens "Frontiers in Cell Development and Biology" ein Paper mit inhaltlich falschen, von einer KI generierten Bildern, darunter auch eine Maus mit einem Riesenpenis. (stm, 21.3.2024)