Das Bild zeigt eine gespiegelte Tastatur und das Logo von OpenAI.
Die Daten, mit denen der Chatbot ChatGPT trainiert worden ist, hätte OpenAI nicht verwenden dürfen, argumentieren die Kläger.
REUTERS/DADO RUVIC

OpenAI und Microsoft stehen erneut im Mittelpunkt rechtlicher Auseinandersetzungen mit mehreren Nachrichtenorganisationen in den USA. Sie werfen den Tech-Unternehmen vor, urheberrechtlich geschützte Inhalte unrechtmäßig für die Entwicklung von ChatGPT genutzt zu haben. The Intercept, Raw Story und AlterNet haben vor einem Bundesgericht in Manhattan Klagen eingereicht, die auf Schadenersatz abzielen, wie "The Verge" berichtet. Sie argumentieren vor Gericht damit, dass ChatGPT auf eine Weise trainiert wurde, die das Urheberrecht missachtet. Grund: Es wird keine korrekte Nennung der Quellen vorgenommen und Nutzer des Chatbots nicht darüber informiert, dass die erstellten Antworten auf geschützten Werken basieren.

Die Klagen, die teils gemeinsam, teils separat eingereicht wurden, zielen auf die Praxis ab, journalistische Arbeiten ohne die Einhaltung des Digital Millennium Copyright Act zu nutzen, was nach Meinung der Kläger nicht nur rechtswidrig ist, sondern auch die Demokratie und die Vielfalt der Nachrichtenlandschaft bedrohe. Während The Intercept sowohl OpenAI als auch Microsoft zur Rechenschaft ziehen will, beschränkt sich die Klage von Raw Story und AlterNet auf OpenAI.

Existenzbedrohende Grauzone

Diese rechtlichen Herausforderungen sind Teil einer wachsenden Besorgnis innerhalb der Medienbranche über die Auswirkungen generativer KI auf den Journalismus. Es wird befürchtet, dass solche Technologien nicht nur in direkte Konkurrenz zu traditionellen Nachrichtenverlegern treten, sondern auch die Werbeeinnahmen schmälern und somit die Grundlage für eine (Online-)Nachrichtenberichterstattung.

Dies spiegelt sich unter anderem schon in der Tatsache wider, dass bereits Websites existieren, die Nachrichtenagenturen imitieren und von KI generierte Inhalte anstelle von Beiträgen menschlicher Journalisten anbieten. In anderen Fällen sollen KI-Texte von Fake-Autoren veröffentlicht worden sein – auch die Nachrichtenagentur Associated Press nutzt schon seit Jahren KI-Tools, um automatisierte Gewinnberichte von Unternehmen schreiben zu lassen.

Mit der aktuellen Situation konfrontiert, entscheiden sich einige Verlage auch dafür, mit OpenAI zusammenzuarbeiten, anstatt vor Gericht gegeneinander anzutreten. Prominentes Beispiel dafür ist der Axel-Springer-Verlag, der eine mehrjährige Vereinbarung mit OpenAI getroffen hat, die dem Unternehmen Zugang zu seinen Inhalten gewährt, im Gegenzug für eine nicht näher genannte finanzielle Kompensation. Die Rede ist von einem zweistelligen Millionenbetrag. In der Branche ist man sich offensichtlich nicht einig, wie man seine Rechte und Interessen in diesem Kontext am besten schützen sollte.

OpenAI wehrt sich

In einem ähnlichen Fall gegen die "New York Times" ("NYT") hingegen ist ersichtlich, wie OpenAI mit allen Mitteln versucht, sich zur Wehr zu setzen. Der ChatGPT-Entwickler hat bei einem Bundesgericht in Manhattan beantragt, Teile der Urheberrechtsklage gegen die "NYT" abzuweisen. Die KI-Firma wirft der Zeitung vor, ihren Chatbot und andere KI-Systeme durch irreführende Anfragen manipuliert zu haben, um urheberrechtlich geschütztes Material zu reproduzieren, was einen Verstoß gegen die Nutzungsbedingungen von OpenAI darstelle. OpenAI kritisiert dieses Vorgehen als "Hacking".

Die "NYT" hat OpenAI und deren Hauptinvestor Microsoft im Dezember verklagt, weil sie behauptet, dass Millionen ihrer Artikel ohne Erlaubnis verwendet worden seien, um Chatbots zu trainieren. Die rechtliche Debatte dreht sich vor allem um die Frage, ob das Training der KI als "faire Nutzung" unter dem Urheberrechtsgesetz gilt.

In seiner Verteidigung behauptet nun OpenAI, dass die von der "NYT" vorgelegten Beweise durch Tausende von Versuchen erzeugt wurden, um untypische Ergebnisse zu erzielen. Der Entwickler betont, dass ChatGPT normalerweise nicht dazu verwendet werden kann, Artikel der "NYT" auf Anfrage zu liefern. Und führt schließlich aus, dass KI-Modelle nicht daran gehindert werden können, Wissen über Fakten zu erlangen – ähnlich wie auch Nachrichtenorganisationen Informationen aus verschiedenen Quellen sammeln und wiedergeben dürfen. Eine Frage, die offenbar das Gericht abschließend klären muss. (red, 1.3.2024)