Dieses Bild wurde durch die KI Midjourney mit einer Variation des Prompts "Illustration of an Artificial Intelligence exposing errors, --ar 16:9" generiert.

Foto: Midjourney/Benjamin Brandtner

Je öfter man ChatGPT nutzt, desto vorhersehbarer zeigen sich die Grenzen des Chatbots von OpenAI. Ein Fehler in der Software sorgte bei manchen Nutzern vor kurzem nun offenbar doch für eine überraschende Grenzüberschreitung: Sie bekamen den Gesprächsverlauf anderer Nutzer in der eigenen Historie angezeigt. Wie sich im Nachhinein herausstellte, dürften zu einem geringen Prozentsatz auch Zahlungsinformationen von Abonnenten für Dritte sichtbar gewesen sein.

Wer ChatGPT in den letzten Tagen genutzt haben sollte, wird sich möglicherweise gewundert haben, weshalb die Chatverläufe nicht oder nur unregelmäßig angezeigt worden sind. OpenAI musste den Chatbot wegen dieses Fehlers in einer Open-Source-Bibliothek kurzfristig sogar offline nehmen, ehe er am Montagabend nach und nach seinen Betrieb wieder aufnehmen konnte.

Was unter den Nutzerinnen und Nutzern verständlicherweise für Verunsicherung gesorgt hatte, wurde von OpenAI-Boss Sam Altman schließlich mit einem Tweet adressiert: "Ein signifikantes Problem" habe die Gesprächsverläufe durcheinandergebracht, ein "kleiner Prozentsatz" der User sei davon betroffen gewesen. Der Fehler sei behoben, dennoch fühle man sich bei OpenAI "schrecklich dabei".

Auch Zahlungsinformationen sichtbar

Von diesem Fehler dürften aber nicht nur die Chatverläufe betroffen gewesen sein. Wie das Unternehmen in einem aktuellen Blogeintrag berichtet, sollen auch andere sensible Daten für einen bestimmten Zeitraum sichtbar gewesen sein.

Konkret heißt es vom Entwickler: "Bei näherer Untersuchung haben wir außerdem festgestellt, dass derselbe Fehler möglicherweise die unbeabsichtigte Sichtbarkeit von zahlungsbezogenen Informationen von 1,2 % der ChatGPT Plus-Abonnenten verursacht hat, die während eines bestimmten Zeitfensters innerhalb von neun Stunden aktiv waren."

OpenAI betont zwar, dass es extrem unwahrscheinlich sei, dass dieser Fehler ausgenutzt worden sei, die betroffenen Nutzer wurden aber in Kenntnis davon gesetzt, dass sensible Daten von ihnen offengelegt worden sind. Man sei zuversichtlich, dass daher keine weitere Gefahr für die Daten der Nutzer bestehe.

Nach einer detaillierten technischen Beschreibung des "Übeltäters" und nach den Maßnahmen, die OpenAI zur Fehlerbehebung und Schadensminimierung ergriffen hat, zeige sich die Entwickler schließlich bemüht, die Zusammenarbeit mit den verantwortlichen Open-Source-Betreuern zu loben, ohne deren Software ChatGPT nicht skaliert werden hätte können. (bbr, 25.3.2023)