Das Bild wurde von einer Bild-KI namens Midjourney erstellt. Der Prompt lautete: "Illustration of a robot pointing with his index finger on an imaginary spot, dystopian mood, glowing red, wide angle, high aperture, fast shutter speed, --ar 16:9 --q 2 --v 5"

Foto: Midjourney/Benjamin Brandtner

Es mag auf den ersten Blick faszinierend sein, mit welcher Leichtigkeit KI-Tools wie ChatGPT Antworten parat haben. Auf Zuruf spucken sie nahezu beliebige Inhalte in beliebiger Textsorte aus und wirken dabei so natürlich und selbstbewusst, als würde man sich mit einer vertrauten Person unterhalten. Wie irreführend und gefährlich diese vermeintliche Vertrautheit sein kann, zeigt ein aktueller Fall aus den USA.

Jonathan Turley, Rechtswissenschafter mit Professur an der George Washington University, staunte nicht schlecht, als er neulich von einem Kollegen darauf aufmerksam gemacht wurde, dass ChatGPT seinen Namen mit sexueller Belästigung in Zusammenhang gebracht hatte. Im Rahmen einer Untersuchung hatte Eugene Volokh, Jusprofessor an der UCLA, den Chatbot gefragt, ob sexuelle Belästigung durch Professoren ein Problem an juristischen Fakultäten in den USA sei. "Bitte geben Sie mindestens fünf Beispiele an, zusammen mit Zitaten aus einschlägigen Zeitungsartikeln", soll er ergänzt haben.

Frei erfundene Fallbeispiele

Volokh erhielt wie gewünscht seine fünf Beispiele mit realistischen Details und Quellenangaben. Einer genauen Prüfung konnten diese Informationen allerdings nicht lange standhalten: Drei Beispiele stellten sich als falsch heraus und verwiesen auf Zeitungsartikel, die nie existierten. Wie die "Washington Post" berichtete, fiel unter anderem eben auch Turleys Name mit dem Verweis auf einen vermeintlich eigenen Artikel aus dem Jahr 2018.

Demnach soll Turley während eines Ausflugs nach Alaska sexuell anzügliche Bemerkungen gemacht und versucht haben, eine Studentin zu berühren. Das Problem: Weder gab es besagten Ausflug nach Alaska, noch wurde Turley jemals der sexuellen Belästigung bezichtigt – und auch der zitierte Artikel ist niemals veröffentlicht worden, weil es ihn nicht gibt.

"Dies ist nur das jüngste abschreckende Beispiel dafür, wie künstlich 'künstliche Intelligenz' sein kann", schrieb Turley selbst in einem Kommentar für "USA Today" und wies auf einige der Probleme mit der Genauigkeit und Zuverlässigkeit von KI-Chatbots wie ChatGPT hin.

Kein Einzelfall

Dass es ChatGPT mit der Wahrheit zu realen Personen nicht immer ganz genau nimmt, zeigt auch ein Fall in Australien. Dort lässt der Bürgermeister einer Kleinstadt eine Verleumdungsklage gegen OpenAI vorbereiten, wenn das Unternehmen die falschen Behauptungen des Chatbots nicht korrigiert, dass er wegen Bestechung im Gefängnis gesessen habe.

Besonders skurril: Brian Hood, der Bürgermeister von Hepburn Shire, wird von ChatGPT fälschlicherweise als Schuldiger in einem Bestechungsskandal genannt, den er eigentlich aufgedeckt hat. Er war es, der die Behörden über die Zahlung von Bestechungsgeldern an ausländische Beamte informierte, um Aufträge für den Druck von Banknoten zu erhalten, und wurde nach Angaben seiner Anwälte nie eines Verbrechens angeklagt.

Die Anwälte von Hood schickten ChatGPT-Eigentümer OpenAI am 21. März einen Brief, der dem Unternehmen 28 Tage lang Zeit gibt, den Fehler zu korrigieren. Sollte es bis dahin nicht reagieren, würde es vermutlich zum ersten Mal dazu kommen, dass der Eigentümer des Chatbots wegen falscher Behauptungen vor Gericht steht.

OpenAI hat zu den konkreten Fällen bislang noch keine Stellung bezogen. Unternehmenssprecher Niko Felix betont in einer Erklärung aber: "Wenn sich Benutzer für ChatGPT anmelden, bemühen wir uns, so transparent wie möglich zu machen, dass es nicht immer korrekte Antworten generieren kann. Die Verbesserung der faktischen Genauigkeit ist ein wichtiger Schwerpunkt für uns, und wir machen Fortschritte."

Erst der Schaden, dann die Regulierung?

Moderne Chatbots mit künstlicher Intelligenz nutzen umfangreiche Sammlungen von Onlineinhalten, auf die sie zugreifen können. Mithilfe dieser Inhalte können sie glaubwürdig klingende Antworten auf eine Vielzahl von Fragen generieren. Dabei sind sie darauf programmiert, Muster von Wörtern und Ideen zu erkennen und sich auf das Thema zu konzentrieren. So können sie ganze Sätze, Absätze und sogar vollständige Texte erstellen, die dem bereits veröffentlichten Onlinematerial ähneln können.

Die Fähigkeit der Software vorherzusagen, welche Wörter zusammenpassen, bedeutet aber nicht zwangsläufig, dass die resultierenden Aussagen immer der Wahrheit entsprechen. Die Entwickler von großen Chatbots sind sich dessen offenbar bewusst. In den KI-Tools sind Haftungsausschlüsse im Kleingedruckten enthalten, um sich vor möglichen Fehlinformationen zu schützen. Solche Falschinformationen werden mittlerweile als "Halluzinationen" der Systeme bezeichnet.

Diese Bezeichnung ändert aber nichts am Problem vieler Nutzerinnen und Nutzer, dass die Schnelligkeit und Ausführlichkeit der Antwort auf eine Frage meist verlockender sein dürfte als eine Überprüfung ihres Wahrheitsgehalts. Die zunehmende Internetanbindung unregulierter und intransparenter Software, die Mittel künstlicher Intelligenz einsetzt, nährt nicht zuletzt deshalb die Bedenken einer Verbreitung von Fehlinformationen, die von diesen Systemen generiert werden können.

Und die Frage, wer dann letztendlich für die Verbreitung von irreführenden Informationen durch Chatbots verantwortlich ist, wird ChatGPT auch in diesem Fall nicht richtig beantworten können. Offenbar werden das erst Gerichte entscheiden müssen – der bis dahin angerichtete Schaden an der Gesellschaft ist nicht abzuschätzen. (bbr, 6.4.2023)