Qu’est-ce qui vient de se passer? La capacité de ChatGPT à rationaliser les processus et à effectuer des tâches banales est bien documentée, c’est pourquoi l’IA générative est utilisée par tant d’entreprises. Mais il y a eu des avertissements répétés de ne pas transmettre d’informations sensibles car elles pourraient être exposées – un avertissement que certains employés de Samsung n’ont pas tenu compte.
Une agence de renseignement britannique et Europol ont tous deux conseillé aux gens de faire attention à ce qu’ils partagent lorsqu’ils interagissent avec ChatGPT. Même son créateur, OpenAI, conseille aux utilisateurs de ne partager aucune information sensible dans les conversations avec le chatbot, notant qu’elle peut être utilisée à des fins de formation. Amazon et JPMorgan ne sont que deux des entreprises qui ont conseillé à leurs employés de ne pas utiliser ChatGPT pour ces raisons.
Cependant, les ingénieurs de fabrication de Samsung Semiconductor utilisent ChatGPT, et cela a conduit à trois fuites de données sensibles en seulement 20 jours, écrit L’économiste.
Un incident a vu un employé utiliser ChatGPT pour vérifier les erreurs dans le code source du programme de base de données de mesure de l’usine de semi-conducteurs. Un autre cas, plus grave, impliquait un travailleur saisissant un code de programme qu’il avait créé pour identifier le rendement et les installations défectueuses, demandant à ChatGPT d’optimiser le code.
Le dernier incident s’est produit lorsqu’un employé a transcrit la réunion qu’il a enregistrée sur son smartphone dans un fichier de document à l’aide de l’application Naver Clova, puis l’a soumis à ChatGPT pour demander la préparation d’un procès-verbal de réunion.
En utilisant ChatGPT de cette manière, les employés de Samsung ont essentiellement mis certaines des informations exclusives et des secrets commerciaux de l’entreprise entre les mains d’OpenAI. Cela a conduit Samsung Electronics à avertir ses employés qu’une fois les informations saisies dans ChatGPT et envoyées, elles sont transmises et stockées sur un serveur externe, ce qui empêche Samsung de les récupérer/supprimer. Ce contenu sensible pourrait être exposé à un nombre inconnu de personnes.
Samsung Electronics prépare des mesures pour empêcher toute fuite d’informations plus sensibles via ChatGPT, notamment en limitant la taille des questions soumises à 1024 octets, mais si ces incidents se poursuivent, cela bloquera l’outil du réseau de l’entreprise. Il prévoit également de développer sa propre IA générative de type ChatGPT pour un usage interne.