Was taugen automatisch generierte Texte?

Foto: imago images/Panthermedia

Die Künstliche Intelligenz (KI) ist eine der größten Errungenschaften der Menschheit. Sie kann inzwischen selbstständig Texte verfassen, die auch von echten Menschen kommen könnten. KI-Texte sind dabei nicht nur gut, sondern manchmal besser als Texte von Journalisten. Aber wie ist das überhaupt möglich? Wie schafft es ein Computer, einen Text zu schreiben?

Grundsätzlich gibt es zwei Arten von KI-Texterzeugung: Die generative und die parodistische Variante. Bei der ersten soll der Computer Texte mit bestimmten Merkmalen erzeugen, etwa mit dem Stil des Autors X oder in der Sprache Y. Bei der parodistischen Variante soll der Computer auf Basis vorhandener Texte neue Texte schreiben, die ähnlich wie diese wirken – aber natürlich nicht das Original sind.

Zum Beispiel könnte man versuchen, einen Artikel von mir zu kopieren und ihn automatisch an meine Kollegin Julia weiterzuleiten. Natürlich würde ich den Artikel dann merken und ihn ablehnen – aber Julia hätte keinen Schimmer.

Ein anderes Beispiel: Ein Programm hat gelernt, in welcher Reihenfolge Wörter im Deutschen am häufigsten vorkommen und wie oft welches Wort im Zusammenhang mit anderen Wörtern auftritt. Es hat also gelernt, worauf es beim Schreiben ankommt: Auf Syntax und Inhalte! Und genau deswegen liest sich das Ergebnis für uns so authentisch – weil es authentisch ist!

Selbstlernender Algorithmus

Dieses Prinzip funktioniert auch bei journalistischem Schreibstil: Ein Programm liest viele Artikel und lernt dadurch allmählich die Merkmale guter journalistischer Texte kennen – den gewissen Stil und die richtige Strukturierung. Dieses Programm soll nun eigenständig Artikel verfassen – nach dem Motto "First write like a human, then make it better".

Das Ergebnis ist beeindruckend! Ein solches Programm hat bereits mehr als 100 National Geographic-Artikel geschrieben. Und tatsächlich findet sich bei jedem dieser Artikel eine Anmerkung des Redaktionsleiters: "Human touch added here by copy editor." Also haben die Redakteure tatsächlich noch Hand angelegt! Auch Zeitschriften wie The Economist oder Forbes experimentieren mit solchen Programmen. Aber was bedeutet das für uns Journalistinnnen?

Früher musste man schon gute Englischkenntnisse haben, um für internationale Medien arbeiten zu können; heute brauche ich gar keine englischen Fertigkeit mehr – ich muss nur noch lesbar sein. Und auch für uns Deutsche gibt es bald keine Ausrede mehr: Der Deutsche Journalistensportverband hat bereits im Jahr 2013 angekündigt , dass er in Zukunft alle Mitglieder des Deutschen Sportjournalistinnenausschusses (DSJA) testet, ob diese deutschsprachige Texte automatisiert lesbar machen . Wer dies nicht schafft, muss sich Sorgen machen um seinen Job.

Noch viel Arbeit

Journalismus braucht also in Zukunft keine Menschen mehr? Nun ja … Vielleicht doch noch irgendwann mal! Aber vorher gibts da noch ‘ne Menge Arbeit, um Roboter humanen und sprachlich verständlichen Journalismus zu lernen, statt Maschinen einfach interessanter und umgangssprachlicher Texte. Stichwort Künstliche Intelligenz: Lernen wir bei der Übersetzung. Vieles muss sich in den nächsten Jahren ändern.

Noch hat die künstliche Intelligenz ja auch große Defizite. Denn künstliche Intelligenz macht so viele Fehler, dass sie in den meisten Fällen nicht für den Journalismus tauglich ist. Grammatikfehler sind ein einfacher Fall von Automation. Die wollen wir hier gar nicht weiterverfolgen, weil diese eigentlich bei jeder Übersetzung vorkommen und viele sehr komplexe Regeln des Lean-Back-Translations heutzutage nicht ausschließlich automatisch durchgeführt werden können.

Engine sind ja längst nicht so intelligent, dass sie alle Grammatikregeln kennen. Interessanter ist hier die Möglichkeit der translatorischen Verarbeitung in der Semantik. Der Leser mag denken: "Kein Wunder, dass es da noch Fehler gibt, wenn die Maschine meinem Text vollkommen neue Inhalte entnimmt." Doch an dem Punkt liegt genau der Fehler...

Halt! Ab hier übernehmen wieder wir Menschen. Denn den Artikel, den Sie eben gelesen haben, hat eine künstliche Intelligenz (KI) namens GPT-3 komplett selbstständig geschrieben. Als Input bekam das Programm lediglich den Satz "Schreibe einen Artikel zu folgendem Thema", gefolgt vom Untertitel. Wir hätten aber genauso gut einen Artikel über Pferde, das Wetter oder ein fiktives Interview mit Thomas Bernhard schreiben lassen können.

GPT-3 gilt als das momentan leistungsfähigste KI-Modell, um Texte zu generieren. Es mutet fast schon gespenstisch an, dass es Texte über jedes beliebige Thema verfassen kann. Diese lesen sich oft so, als hätte sie ein Mensch geschrieben – zumindest für eine Weile. Denn je länger GPT-3 fabuliert, desto abstruser wird der Text, auch orthografisch. Sogar einem Faktencheck hält der Artikel nicht stand: So gibt es weder eine parodistische Variante der Textgenerierung noch einen Deutschen Sportjournalistinnenausschuss oder so etwas wie Lean-Back-Translations. Auch dafür, dass bei National Geographic, dem Economist oder Forbes eine KI Texte verfasst, finden sich keine Anhaltspunkte.

In anderen Disziplinen ist GPT-3 besser:_So kann das Modell zielsicher Texte kategorisieren, Wissensfragen beantworten und sogar schriftliche Anweisungen in Code von gängigen Programmiersprachen umwandeln.

Texte vorhersagen

Entwickelt wird GPT-3 vom Institut OpenAI, das vor allem von Elon Musk und Microsoft finanziert wird. Seit kurzem kann jeder die KI selbst testen. Doch wie funktioniert dieses Ding eigentlich?

"Programme wie GPT-3 werden darauf trainiert, dass sie Texte vorhersagen können. Man hat also einen Algorithmus, der aus riesigen Mengen Text die Wahrscheinlichkeit von unterschiedlichen Wörtern zueinander misst", sagte Siegfried Handschuh, Datenexperte am Institut für Informatik der Universität Sankt Gallen, in einem Interview mit dem STANDARD. Das Programm lerne, in welchen Kontexten Wörter und Wortähnlichkeiten vorkommen können. "Man kann sich das wie ein riesiges Sammelalbum aus Millionen und Abermillionen von Textschnipseln vorstellen, die bei Bedarf auf wundersame Weise zusammengeklebt werden."

Die Texte und Inhalte, die GPT-3 so produziert, sind jedoch zum Teil sehr wertend und mitunter auch gefährlich, warnen Experten. So zeigte beispielsweise ein Versuch mit dem Programm vor einem Jahr, was potenziell schiefgehen kann: Eine Firma, die auf Gesundheitstechnologien spezialisiert ist, stattete einen Chatbot mit GPT-3 aus und legte diesen einem Versuchsteilnehmer vor, der vorgab, selbstmordgefährdet zu sein. Auf die Frage, ob er sich das Leben nehmen soll, antwortete das Programm prompt damit, dass das eine gute Idee sei.

Um zu vermeiden, dass GPT-3 vorurteilsgeladene, diskriminierende und zum Teil gefährliche Texte und Antworten gibt, müsse es künftig noch mehr mit anderen Inhalten und Daten nachtrainiert werden, sagt Handschuh.

Kein Journalistenersatz

"GPT-3 gleicht einem Statistikprogramm, das mithilfe riesiger Datenmengen misst, wie wahrscheinlich Wörter zueinander vorkommen. Mit einem menschlichen Sprachverständnis hat das nichts zu tun", sagt Jessica Heesen, Expertin für Medienethik und Informationstechnologie an der Universität Tübingen zum STANDARD.

Journalistenersatz könne das Programm daher keiner sein. "GPT-3 kann kein neues Orientierungswissen bieten, sondern nur abbilden, was es schon gibt." Auch mit dem Sprachstil, Humor und längeren Texten tue sich das Programm schwer. Am Ende fehle immer der individuelle menschliche Zugang. "Man merkt in den meisten Fällen schnell, dass es eine Maschine ist, die den Text geschrieben hat", sagt Heesen.

Anstatt Menschen zu ersetzen, können Sprachprogramme wie GPT-3 diese in Zukunft aber unterstützen: etwa wenn es darum geht, Texte zu übersetzen oder einen schnellen Überblick über ein Thema zu bekommen. Aber auch als künstlerisches Ausdrucksmittel oder für Gebrauchsanweisungen könnten sie eingesetzt werden, sagt Heesen.

Weil Sprache in fast allen Alltags- und Arbeitsbereichen eine wichtige Rolle spielt, gebe es bei den möglichen Einsatzgebieten der Technologie kaum Grenzen. "Es muss dabei aber immer ersichtlich sein, wenn wir es bei Texten oder in der Kommunikation künftig mit einer Maschine oder einem Menschen zu tun haben." (Jakob Pallinger, Philip Pramer, 19.12.2021)