Qu’est-ce qui vient de se passer? ChatGPT aurait pu rencontrer son premier problème de confidentialité important après qu’un bogue dans le service ait exposé les titres des historiques de discussion des autres utilisateurs. Le créateur OpenAI a mis hors ligne la fonction d’historique des discussions alors qu’il tente de résoudre le problème.

Un porte-parole d’OpenAI a confirmé Bloomberg que les titres des conversations des autres utilisateurs étaient visibles dans la barre latérale de l’historique des utilisateurs qui se trouve sur le côté gauche de la page Web ChatGPT. Ils ont souligné que seules ces brèves descriptions pouvaient être vues, pas le contenu des conversations.

Alors qu’OpenAI enquête toujours sur la cause précise du problème, la société a confirmé qu’il provenait d’un bogue dans un logiciel open source sans nom. Reddit et les utilisateurs de Twitter (via Le bord) ont partagé des captures d’écran du bogue, ce qui a amené les utilisateurs à se demander s’ils avaient été piratés – ou si ChatGPT avait été piraté.

L’ensemble du service ChatGPT a été fermé par OpenAI lundi soir avant de revenir tard lundi soir sans les historiques de chat des utilisateurs. Ils sont toujours portés disparus ce matin. OpenAI page d’état indique qu’il continue de fonctionner pour restaurer l’historique des conversations passées aux utilisateurs.

OpenAI lui-même conseille aux utilisateurs de ne partager aucune information sensible dans les conversations avec ChatGPT, notant qu’elles peuvent être utilisées à des fins de formation.

Publicité

L’incident rappelle les avertissements récents concernant les IA génératives telles que ChatGPT du National Cyber ​​​​Security Center (NCSC) du Royaume-Uni. L’agence a fait part de ses inquiétudes quant au fait que les requêtes sensibles des utilisateurs soient disponibles pour les fournisseurs (OpenAI, dans ce cas) et utilisées pour former les futures versions du chatbot. Les exemples qu’il a donnés étaient un PDG demandant quelle était la meilleure façon de licencier un employé, ou quelqu’un posant une question médicale personnelle.

Le NCSC s’est également montré prémonitoire dans son avertissement selon lequel les requêtes stockées pourraient accidentellement être rendues publiques. Heureusement, aucune information personnellement identifiable n’a été révélée à côté des titres de conversation dans ce cas.

En fin de compte, le bogue illustre pourquoi des entreprises comme Amazon et JPMorgan ont conseillé à leurs employés de ne pas utiliser ChatGPT par crainte que des informations sensibles ne soient divulguées.

Titre : Photo focale


Rate this post
Publicité
Article précédentPUBG New State Mobile présente le nouveau mode Arena KA-BOOM, un pistolet unique et plus encore dans les notes de mise à jour 0.9.46
Article suivant‘Shadow And Bone’ fait ses débuts au n ° 2 du Top 10 de Netflix – Date limite
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici