Die Technologie wird auch die Berichterstattung verändern. In China erprobt die staatliche Nachrichtenagentur bereits den Einsatz von KI-gesteuerten Sprechern.

Foto: AFP

Die Open AI-Stiftung, unterstützt unter anderem von Tesla-Chef Elon Musk, beschäftigt sich mit den Potenzialen, aber auch den Gefahren von Künstlicher Intelligenz. Dabei entwickelt man auch eigene schlaue Systeme, die mitunter beachtliche Meilensteine setzen. Beispielsweise entwickelte und trainiert man eine KI, die als Gegner im Moba Dota 2 mehrere menschliche Teams in die Knie zwang und erst an E-Sports-Profis scheiterte.

OpenAI verfolgt dabei den Ansatz, seine Entwicklungen komplett als Open Source freizugeben, auch weil man sich dadurch eine Reduktion des Gefahrenpotenzials durch die öffentliche Kontrollmöglichkeit erhofft. Nun macht man erstmals eine Ausnahme von dieser Politik. Denn man hat eine KI für Texterzeugung entwickelt, die man als potenziell zu gefährlich betrachtet, um sie einfach jedem zugänglich zu machen.

Ein "Guardian"-Video zeigt, wie GPT2 funktioniert.
Guardian News

Kompletter Zeitungsbericht mit erfundenen Zitaten

Dabei geht es sowohl um literarische Formate, als auch um Nachrichtenartikel, die sich das System "GPT-2" ausdenken kann. Dazu reicht es, schon, ihr ein paar anfängliche Sätze vorzulegen, berichtet der Guardian. So erzeugte sie aus den ersten Paragraphen eines Artikels über den "Brexit" einen kompletten Bericht, inklusive erfundener Zitate von Labour-Parteichef Jeremy Corbyn, einem Sprecher der Premierministerin Theresa May und Erwähnungen des Streits um die Regelung der britisch-irischen Grenze.

Ein Teil der KI-erzeugten Story liest sich so: "Auf Nachfrage erklärte ein Sprecher von May: ‚Die Premierministerin hat absolut klar gemacht, dass es ihr Bestreben ist, die EU schnellstmöglich zu verlassen. Dies wird unter ihrem Verhandlungsmandat geschehen, wie auch die Queen in ihrer Rede vergangene Woche bestätigt hat.‘" Experimentell ließen die OpenAI-Entwickler das System auch gefälschte Produktbewertungen – positive wie negative – formulieren.

Ein Ausschnitt aus einem GPT-2-Werk. Oben: Die menschgemachte Vorlage. Unten: Der daraus erzeugte Text.
Foto: OpenAI

Text-Tausendsassa

GPT-2 ist bereits die zweite Generation des selbstlernenden Programms, das von manchen Beobachtern auch "Deepfake für Texte" genannt wurde. Ihm liegen zwölf Mal größere Verarbeitungsmodelle zugrunde. Die zum Training verwendete Textmenge ist gleich 15 Mal größer und erheblich variantenreicher. Es wurden zehn Millionen Online-Artikel verarbeitet, die man gefunden hat, in dem man Reddit nach Links mit mit mehr als drei Upvotes gescannt hat.

Neben der Erzeugung eigener Werke kann die KI auch Zusammenfassungen liefern sowie Übersetzungen schreiben. Sie schneidet auch in einfachen Leseverständnis-Tests oft gleich gut oder besser ab, als andere KIs, die auf die jeweiligen Aufgaben spezialisiert wurden. Diesen unterlegen ist sie allerdings bei vielen direkten Vergleichen in einzelnen Textarten. Der Unterschied ist aber nicht mehr all zu groß.

Nur eingeschränkte Version öffentlich verfügbar

Dass ihr System als eine Art Tausendsassa funktioniert, sehen die Macher als wesentlichen Fortschritt an, schreibt The Verge. Abseits der Gefahren bieten sich künftig auch einige sinnvolle Einsatzmöglichkeiten. Es könnte etwa zu besserer Spracherkennung beitragen, die Entwicklung von KI-Schreibhelfern ermöglichen oder Chatbots kompetenter machen.

Weil man aber erhebliche missbräuchliche Verwendung von GPT-2 fürchtet, hat man nur eine stark reduzierte Version auf Github bereit gestellt. Denn vor einer Freigabe umfangreicherer Modelle will man weitere Tests durchführen, um das Schadpotenzial besser abschätzen zu lernen. (red, 02.04.2019)