Seit dem Launch im Herbst hat ChatGPT hohe Zugriffszahlen.
Foto: AP / Michael Dwyer

Nach dem ersten Hype erlebt ChatGPT derzeit einen massiven Rückschlag – zumindest in Italien. Die italienische Datenschutzbehörde hat den Zugang zu der künstlichen Intelligenz (KI) Ende März vorübergehend gesperrt.

Nutzerinnen und Nutzer würden nicht ausreichend über die Verarbeitung ihrer Daten informiert, argumentieren die Italiener. Damit gebe es auch keine Grundlage dafür, raue Mengen an personenbezogenen Daten zu sammeln und zu speichern. Zudem fehlten den Betroffenen Instrumente, um falsche persönliche Daten korrigieren oder löschen zu lassen. Zuvor hatte ein Datenleck dazu geführt, dass Unterhaltungen der Nutzer und Zahlungsinformationen der Abonnenten für andere einsehbar waren.

Ob die Bedenken der Italiener nur kurzfristiger Natur sind und ob sie auf andere europäische Länder ausstrahlen, bleibt abzuwarten. OpenAI, dem Unternehmen hinter ChatGPT, wurde eine Frist von 20 Tagen eingeräumt, um auf die Forderungen der Behörde zu reagieren. Andernfalls könnte eine Millionenstrafe drohen.

Verbot für fremde Daten

Dass das Verfahren in Italien zu einem generellen EU-Verbot von ChatGPT führt, ist laut Fachleuten unwahrscheinlich. Im Kern geht es dabei um eine Frage der Transparenz. Wer Daten verarbeitet, muss Nutzerinnen und Nutzer darüber informieren. Für ChatGPT dürfte das leicht korrigierbar sein.

In Österreich würden die Behörden in einem ähnlichen Fall zudem sehr wahrscheinlich zu einem anderen Ergebnis kommen. Laut dem österreichischen Bundesverwaltungsgericht (BVwG) macht eine fehlende Information die Datenverarbeitung nicht automatisch illegal.

Datenschutzrechtlich problematisch ist ChatGPT aber allemal. Wer personenbezogene Daten anderer in den Chatbot eingibt, tut dies in der Regel ohne Rechtsgrundlage. Soweit es die eigenen Daten betrifft, liegt die Verwendung freilich in der eigenen Verantwortung. Personenbezogene Daten anderer sollten Userinnen und User aber nicht ohne deren Zustimmung eingeben.

Verarbeitung ohne Zustimmung

Grund dafür ist, dass die Daten von OpenAI dazu verwendet werden, den eigenen Algorithmus weiterzuentwickeln. Für diese Datenverarbeitung fehlt ohne Zustimmung der betroffenen Person die Rechtfertigung. ChatGPT spuckt die Daten zwar nicht direkt bei anderen Usern wieder eins zu eins aus, sondern nutzt sie nur fürs Training. Einen Unterschied macht das aber nicht, weil die Daten indirekt allen Nutzern weltweit zur Verfügung stehen, was ohne Zustimmung rechtswidrig ist. Ausnahmen gibt es nur bei Personen, die öffentlich bekannt sind. In der Praxis dürfte es für Betroffene aber schwierig sein, einen Datenmissbrauch zu beweisen.

Ausnahme für Urheberrecht

Anders als bei personenbezogenen Daten ist die Eingabe von urheberrechtlich geschützten Werken wie Gedichten erlaubt. Mit der letzten Reform des Urheberrechts hat die EU die Möglichkeit für Data-Mining geschaffen. Entwickler von KI dürfen Inhalte anderer Personen verwenden, um den eigenen Algorithmus zu trainieren. Rechteinhaber haben aber die Möglichkeit, dem explizit zu widersprechen. (japf, 18.4.2023)