Alors que ChatGPT prend d’assaut le monde, on s’inquiète de plus en plus du rôle que joue l’IA dans la société et de la question de savoir si l’humanité devrait attendre son intégration. Après une série de graves violations de données, Samsung menace ses employés d’utiliser ChatGPT pour le travail, ce qui amène beaucoup à se demander si les systèmes d’IA publics ont leur place dans les environnements d’entreprise. Quels défis ChatGPT présente-t-il du point de vue de la confidentialité des données, qu’a annoncé Samsung et à quoi les ingénieurs doivent-ils faire attention lorsqu’ils utilisent ChatGPT ?

Quels défis ChatGPT présente-t-il du point de vue de la confidentialité ?

Alors que les systèmes d’IA existent depuis au moins une décennie, c’est ChatGPT qui a secoué le monde avec ses capacités de langage naturel. En son cœur, google-demonstrates-ai-bot-wipes-100m-shares » target= »_blank »>ChatGPT est un générateur de texte AI qui tente de prédire quel mot devrait venir ensuite, compte tenu d’une conversation et d’un contexte, mais les résultats produits par ChatGPT sont véritablement époustouflants. De la génération de code à l’écriture d’histoires, ChatGPT a démontré de sérieuses capacités, à tel point que beaucoup utilisent maintenant ChatGPT dans leur flux de travail quotidien.

Cependant, pour tous les avantages que ChatGPT offre, il présente toute une série de défis. Il est évident que les étudiants du monde entier ont tiré parti des capacités de ChatGPT pour générer des essais qui reproduisent rarement des travaux existants et semblent souvent entièrement originaux. Ce phénomène a incité les professionnels universitaires à utiliser des outils d’IA pour identifier les cas potentiels de malhonnêteté académique. Curieusement, ces outils peuvent parfois identifier à tort le contenu généré par l’homme comme étant généré par l’IA, soulignant la sophistication des résultats de l’IA et les difficultés à les distinguer du travail humain. (une observation notée dans plusieurs cas où même un travail humain conçu par des experts a été confondu avec du contenu généré par l’IA).

https://www.youtube.com/watch?v=C_78DM8fG6E

Les problèmes potentiels de confidentialité que présente ChatGPT, un problème souvent sous-estimé, font l’objet de recherches dans la communauté de l’IA depuis des années. Par exemple, Chaudhuri et Monteleoni (2011) ont mis en évidence les défis de la vie privée posés par les systèmes d’apprentissage automatique dans leur article fondateur, « Privacy and machine learning: two inattendue allies? »[^2^]. En termes simples, les moteurs d’IA comme ChatGPT apprennent de leurs conversations passées, ce qui signifie que les invites et les réponses sont stockées sur les serveurs ChatGPT. Bien que cela permette aux ingénieurs travaillant sur ChatGPT de voir comment ChatGPT a répondu, cela signifie également que toutes les données présentées à ChatGPT peuvent rester sur les serveurs pendant de longues périodes.

Publicité

Dans le même temps, l’enseignement de ChatGPT avec de nouvelles informations peut également voir ces informations partagées avec d’autres. Ainsi, il est possible que des informations exclusives soient transmises à ChatGPT, qui fournira ensuite ces informations à d’autres lorsqu’il y sera invité. Ce fut le cas récemment lorsque les employés de Samsung ont utilisé ChatGPT pour aider au codage, pour découvrir qu’un code propriétaire avait été soumis à ChatGPT. Essayer d’extraire ces données de ChatGPT sera difficile, car les réseaux neuronaux d’IA ne permettent pas simplement de supprimer les données apprises.

Samsung menace de licencier ses employés utilisant ChatGPT

Récemment, Samsung Electronics a annoncé l’interdiction d’utiliser des programmes d’IA générative comme ChatGPT par ses employés après le récent incident au cours duquel des ingénieurs ont téléchargé des informations sensibles sur le chatbot. Dans une note interne examinée par Bloomberg, Samsung a exprimé des inquiétudes quant au stockage des données sur des serveurs externes, ce qui rendrait potentiellement difficile leur récupération et leur suppression, et le risque que les données soient divulguées à d’autres utilisateurs. Samsung a averti que le non-respect de la nouvelle politique pourrait entraîner des mesures disciplinaires pouvant aller jusqu’au licenciement[^1^].

Actuellement, selon Bloomberg, les ingénieurs de Samsung ont accidentellement divulgué le code source interne en le téléchargeant sur ChatGPT[^1^], mais d’autres grandes entreprises ont également introduit de nouvelles restrictions ou interdictions d’utilisation de chatbots comme ChatGPT. Dans le même temps, certains pays ont commencé à explorer des interdictions potentielles, le gouvernement italien interdisant brièvement le programme en raison de préoccupations concernant les données personnelles.

Pour tenter d’éliminer les problèmes de confidentialité des données présentés par ChatGPT, en réponse à ces défis, Samsung développe ses propres outils d’IA internes pour la traduction et la synthèse de documents ainsi que pour le développement de logiciels. Ces outils seront accessibles uniquement aux employés internes, reflétant une tendance notée dans le rapport 2023 Top Strategic Technology Trends for 2023 de Gartner, qui suggère que les entreprises recherchent de plus en plus des solutions d’IA internes pour un meilleur contrôle des données (Gartner, 2023)[^4^] et aurait également envisagé de changer son moteur de recherche par défaut pour Microsoft Bing, qui a adopté l’IA générative. OpenAI, les concepteurs de ChatGPT, ont abordé ces problèmes de confidentialité dans une déclaration officielle sur leur blog, annonçant leur intention d’introduire un « mode incognito » pour ChatGPT. Cette fonctionnalité garantirait que les données envoyées à ChatGPT ne sont pas stockées et que les résultats des invites ne sont pas utilisés dans la formation du système (OpenAI Blog, 2023)[^3^].

À quoi les ingénieurs doivent-ils faire attention lorsqu’ils utilisent ChatGPT ?

Le primaire préoccupation pour les ingénieurs utilisant ChatGPT est que toutes les données fournies à ChatGPT peuvent être, et sera, utilisé pour la formation. Cela signifie que tout code propriétaire fourni à ChatGPT pourrait facilement être partagé avec d’autres utilisateurs qui cherchent à résoudre des problèmes similaires. Ainsi, il est essentiel que les ingénieurs développant de nouvelles solutions ne les partagent pas avec ChatGPT.

Les ingénieurs utilisant ChatGPT doivent également soyez prudent lorsque vous utilisez du code propriétaire développé par d’autres sociétés. Même si un code propriétaire est partagé de manière insoupçonnée avec ChatGPT, ce code est toujours protégé par la loi, en particulier si ce code ou les produits créés à partir de celui-ci sont brevetés. En tant que tel, il est possible que les ingénieurs utilisant ChatGPT pour générer du code violent accidentellement ces protections.

Enfin, les préoccupations croissantes en matière de confidentialité de ChatGPT verront très probablement de nombreuses entreprises introduire des restrictions et/ou des interdictions qui entraîneront de lourdes sanctions. Bien que ChatGPT puisse être rapide et facile à utiliser, ses dangers pour les données privées sont bien plus graves qu’il n’y paraît. Compte tenu des incidents récents et de la réaction de Samsung, il est conseillé aux ingénieurs de faire preuve d’une extrême prudence lors de l’utilisation de ChatGPT et d’outils d’IA similaires.[^1^].

Référence:

  1. Gurman, M. (2023, 2 mai). Samsung interdit l’utilisation de l’IA générative par le personnel après une fuite de données ChatGPT. Bloomberg. Extrait de [https://www.bloomberg.com/news/articles/2023-05-02/samsung-bans-chatgpt-and-other-generative-ai-use-by-staff-after-leak ]
  2. Chaudhuri, K., & Monteleoni, C. (2011). Vie privée et machine learning : deux alliés inattendus ? Dans Actes de la Conférence internationale 2011 sur la science computationnelle et ses applications : [http://www.cleverhans.io/privacy/2018/04/29/privacy-and-machine-learning.html]
  3. OpenAI. (2023). Amélioration de la confidentialité dans ChatGPT : Présentation du mode navigation privée. Blog OpenAI. Extrait de [https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt]
  4. Gartner. (2023). Principales tendances technologiques stratégiques pour 2023 : IA adaptative. Rapports Gartner. Extrait de [https://www.gartner.com/en/documents/4020029]
5/5 - (9 votes)
Publicité
Article précédentLa technologie AR de Snapchat arrive dans le monde réel avec les ‘AR Mirrors’
Article suivantAcer Chromebook Spin 513 atteint le plus bas niveau historique de 465 $, le smartphone Android TCL 10L 150 $, plus
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici