Chatgpt ist bei vielen wissenschaftlichen Publikationen nicht als Autor erlaubt.

Foto: Getty

So revolutionär der Chatbot ChatGPT auch sein mag, so sehr haben Österreicherinnen und Österreicher trotzdem ein mulmiges Gefühl bei der Nutzung der künstlichen Intelligenz. Das fand die Unternehmensberatung PwC in ihrer jüngsten Befragung zu KI am Arbeitsplatz und in der Bildung heraus. Die Untersuchung ergab, dass die meisten Befragten der Anwendung nicht nur misstrauen, sie sehen ChatGPT sogar als Bedrohung für gesellschaftliche Grundrechte.

Experten und Expertinnen sehen es als Gefahr, dass die KI Fake-Studien zitiert, unechte Informationen verbreitet oder widersprüchliche Texte generieren kann. In einigen Ländern und Instituten zieht das bereits Konsequenzen nach sich: Eine Schule in New York und eine Universität in Frankreich haben ChatGPT bald nach der Veröffentlichung im November verboten.

Auch eine Reihe wissenschaftlicher Zeitschriften, darunter "Science" oder "Springer Nature", haben die Verwendung von KI-generierten Texten in wissenschaftlichen Artikeln bereits untersagt – beziehungsweise exakte Regeln für die Unterstützung bei Manuskripten aufgestellt.

Zum einen werden mit ChatGPT und anderer KI erstellte Texte nicht als Forschungsartikel akzeptiert. Außerdem müssen Forscherinnen und Forscher die Verwendung solcher Tools in den Abschnitten ihrer Texte zu Methoden oder den Danksagungen offenlegen.

Auch in Österreich Bedenken

"Springer Nature" legte fest, dass diese Tools nur dazu verwendet werden sollten, die Lesbarkeit und Sprache eines Artikels zu verbessern, nicht aber die Interpretation der Daten zu ersetzen. In Österreich scheint ein Verbot nicht angedacht, aber auch hier herrschen Bedenken. Fast drei Viertel der 1000 Befragten sind der Meinung, dass sich der Einsatz von KI-Anwendungen negativ auf den Bildungsbereich auswirken ko¨nnte.

Die meisten sind sogar dafu¨r, den Einsatz von ChatGPT und weiteren KI-Anwendungen an Schulen, Universita¨ten und anderen Bildungseinrichtungen ganz zu verbieten. Immerhin könnte ChatGPT nicht nur die Kreativität ausbremsen, sondern Schülerinnen und Schülern in den Plagiatsverdacht bringen – indem sie die Urheberrechte von Autoren verletzen, die vom Chat-Tool nicht angegeben werden.

Oder – gleiche Sorge wie die der wissenschaftlichen Publikationen – sie schreiben ein Paper, bei welchem sich ChatGPT an gefälschten oder unechten Studien bedient. All diese Dinge können dem Tool leicht passieren, denn noch ist es nicht so weit ausgereift, dass es falsche von echten Studien unterscheiden kann.

Test zeigt grobe Fehler

Die Kommunikationsagentur für Wissenschafterinnen, "Animate your Science", testete ChatGPT vor kurzem auf wissenschaftlichen Output und listete die größten Fehler auf. Zum einen hatte die Anwendung Biografien zu Forschenden verfasst, die es gar nicht gibt, oder wissenschaftliche Quellen zitiert, die gar nicht existieren. Auf Twitter und anderen Plattformen äußerten sich einige Forschende oder Lehrende zu einer anderen KI-Anwendung, die im Gegensatz zu ChatGPT wissenschaftlich fundiert arbeiten soll.

Das Programm namens Consensus befindet sich auch noch in einer Betaversion, und die Mehrheit der Antworten ist auch nur auf Englisch verfügbar. Consensus berücksichtigt nur wissenschaftliche Arbeiten, die online verfügbar sind, einschließlich der neuesten Veröffentlichungen. Für jede Suche bietet die Anwendung einen Überblick über die relevantesten Veröffentlichungen zu dem Thema.

Überprüfbarkeit essenziell

Durch Anklicken eines dieser Artikel erhält der Nutzer eine Zusammenfassung und einen Link zur vollständigen Studie, gibt einen Überblick über den wissenschaftlichen Konsens zu einem bestimmten Thema anhand einiger Statistiken. Noch haben Wissenschaftspublikationen aber noch alle KI-Systeme in Forschungen verboten.

"Für die Erstellung kurzer Zusammenfassungen im schulischen Bereich reicht es oftmals, für die Erstellung einer Seminararbeit oder eines Fachartikels aber sicher nicht", sagt Stefan Strauß vom Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften (ÖAW). Aber, meint Strauß, Lehrende könnten generierte Texte in der Schule explizit für kritische Medienanalyse verwenden. So könnte wiederum Medienkompetenz mitvermittelt werden. (Melanie Raidl, 8.4.2023)