Qu’est-ce qui vient de se passer? ChatGPT aurait pu rencontrer son premier problème de confidentialité important après qu’un bogue dans le service ait exposé les titres des historiques de discussion des autres utilisateurs. Le créateur OpenAI a mis hors ligne la fonction d’historique des discussions alors qu’il tente de résoudre le problème.
Un porte-parole d’OpenAI a confirmé Bloomberg que les titres des conversations des autres utilisateurs étaient visibles dans la barre latérale de l’historique des utilisateurs qui se trouve sur le côté gauche de la page Web ChatGPT. Ils ont souligné que seules ces brèves descriptions pouvaient être vues, pas le contenu des conversations.
Alors qu’OpenAI enquête toujours sur la cause précise du problème, la société a confirmé qu’il provenait d’un bogue dans un logiciel open source sans nom. Reddit et les utilisateurs de Twitter (via Le bord) ont partagé des captures d’écran du bogue, ce qui a amené les utilisateurs à se demander s’ils avaient été piratés – ou si ChatGPT avait été piraté.
Si tu utilises #ChatGPT faire attention! Il y a un risque que vos discussions soient partagées avec d’autres utilisateurs !
Aujourd’hui, on m’a présenté l’historique de chat d’un autre utilisateur.
Je ne pouvais pas voir le contenu, mais je pouvais voir les titres de leurs discussions récentes.#sécurité #confidentialité #openAI #IA pic.twitter.com/DLX3CZntao– Jordan L Wheeler (@JordanLWheeler) 20 mars 2023
L’ensemble du service ChatGPT a été fermé par OpenAI lundi soir avant de revenir tard lundi soir sans les historiques de chat des utilisateurs. Ils sont toujours portés disparus ce matin. OpenAI page d’état indique qu’il continue de fonctionner pour restaurer l’historique des conversations passées aux utilisateurs.
OpenAI lui-même conseille aux utilisateurs de ne partager aucune information sensible dans les conversations avec ChatGPT, notant qu’elles peuvent être utilisées à des fins de formation.
L’incident rappelle les avertissements récents concernant les IA génératives telles que ChatGPT du National Cyber Security Center (NCSC) du Royaume-Uni. L’agence a fait part de ses inquiétudes quant au fait que les requêtes sensibles des utilisateurs soient disponibles pour les fournisseurs (OpenAI, dans ce cas) et utilisées pour former les futures versions du chatbot. Les exemples qu’il a donnés étaient un PDG demandant quelle était la meilleure façon de licencier un employé, ou quelqu’un posant une question médicale personnelle.
Le NCSC s’est également montré prémonitoire dans son avertissement selon lequel les requêtes stockées pourraient accidentellement être rendues publiques. Heureusement, aucune information personnellement identifiable n’a été révélée à côté des titres de conversation dans ce cas.
En fin de compte, le bogue illustre pourquoi des entreprises comme Amazon et JPMorgan ont conseillé à leurs employés de ne pas utiliser ChatGPT par crainte que des informations sensibles ne soient divulguées.
Titre : Photo focale