• Les entreprises, grandes et petites, élaborent des politiques qui indiquent ce que les employés peuvent et ne peuvent pas faire avec des outils d’IA génératifs tels que ChatGPT d’OpenAI.
  • En mai, Samsung a interdit l’utilisation d’outils d’IA générative après que l’entreprise a découvert qu’un employé avait téléchargé du code sensible sur ChatGPT.
  • L’élaboration d’une politique d’entreprise autour de l’IA générative fait partie du processus de communication des risques.

Samsung est le plus grand fabricant mondial de puces mémoire.

Jakub Porzycki | Nurphoto | Getty Images

Les entreprises, grandes et petites, élaborent des politiques qui indiquent ce que les employés peuvent et ne peuvent pas faire avec des outils d’intelligence artificielle générative tels que ChatGPT d’OpenAI. Certaines organisations restent optimistes tandis que d’autres ferment les rideaux sur l’accès pour le moment, mais une chose est sûre : les risques de l’IA générative sont multiples, et c’est aux dirigeants de décider s’ils veulent anticiper ou attendre. tandis que la technologie se déploie rapidement.

En mai, Samsung interdit l’utilisation de l’IA générative après que l’entreprise a découvert qu’un employé avait téléchargé du code sensible sur ChatGPT. Toutes les entrées font partie du protocole d’apprentissage de la technologie, faisant de l’acte une question de propriété intellectuelle.

Publicité

La société de logiciels de contrats commerciaux numériques Ironclad, d’autre part, a développé sa propre politique d’utilisation de l’IA générative, malgré le fait que sa technologie est renforcée par l’IA générative elle-même. Cela montre simplement que même les entreprises les plus optimistes créent des barrières pour atténuer les risques.

Le PDG et co-fondateur d’Ironclad, Jason Boehmig, était un avocat en exercice avant de fonder son entreprise il y a plus de huit ans. Cet état d’esprit juridique persiste, ce qui est l’une des raisons pour lesquelles Ironclad a avancé si rapidement avec une politique d’IA générative. « Vous êtes responsable de la sortie de l’IA », a déclaré Boehmig. Cela inclut les soi-disant hallucinations, qui sont des réponses factuellement incorrectes, exagérées ou sans rapport que l’outil d’IA génère.

La propriété intellectuelle et les hallucinations ne sont que quelques-uns des risques associés à l’IA générative. Selon Navrina Singh, PDG et fondatrice de la plateforme de gouvernance responsable de l’IA Credo AI et membre du Comité consultatif national sur l’IA (NAIAC), les risques sont ce qu’elle appelle « technosociaux ». Cela signifie qu’ils ont un impact sur des questions techniques telles que la cybersécurité et la responsabilité, mais aussi sur des questions sociétales telles que la violation du droit d’auteur et même les normes et réglementations climatiques.

L’élaboration d’une politique d’entreprise autour de l’IA générative fait partie du processus de communication des risques, qui va au-delà de la simple connaissance ou reconnaissance des risques.

Singh explique que l’importance d’une politique d’entreprise concernant l’utilisation de l’IA générative se résume à la question : « comment adopter l’IA en toute confiance tout en gérant les risques, tout en restant conforme et en étant activement honnête sur les points où vous ne pourrez pas gérer les risques ? »

Vince Lynch, PDG de la plateforme de prise de décision alimentée par l’IA IV.AI, qui travaille actuellement avec un panel de leaders de l’IA pour développer des politiques adoptables pour les grandes entreprises, déclare que le moment est venu de créer des normes, même si vous avez la compréhension qu’elles le feront changement. « Il est extrêmement important que les entreprises commencent dès maintenant et déploient différentes structures pour s’assurer qu’elles sont prudentes quant à la manière dont l’IA peut avoir un impact sur leur entreprise », a-t-il déclaré.

Singh est d’accord, mais Boehmig offre une vision contraire même si son entreprise prend des précautions politiques. Boehmig a déclaré: « Particulièrement si vous êtes dans une industrie hautement réglementée, je pense qu’il est normal de s’asseoir et de dire: » Nous allons regarder comment cela se déroule. «  »

Et ça va se dérouler. Rapport de l’année 1 de la NAIAC de mai postule l’IA comme une technologie nécessitant l’attention du gouvernement le plus tôt possible, y compris l’adoption de politiques publiques et privées basées sur le cadre de gestion des risques de l’intelligence artificielle de l’Institut national des normes et de la technologie. Ensuite, il y a la loi sur l’IA dans l’Union européenne, qui est en cours d’adoption et qui aura un impact sur les entreprises américaines qui font des affaires dans de nombreux pays à l’étranger.

En attendant, les entreprises continuent de fixer leurs propres limites. Pour ce qui est de La politique d’Ironcladles points forts incluent : la classification des données, l’interdiction des données étiquetées comme confidentielles d’être entrées dans l’IA générative, la définition de la responsabilité des employés pour la sortie et l’interdiction de l’entrée de données client et identifiables.

Si une entreprise envisage de créer une politique sur l’utilisation générative de l’IA maintenant, ou souhaite simplement élaborer une stratégie pour ce qui pourrait être une entreprise inévitable, les experts suggèrent certaines mesures à prendre.

L’une des premières étapes devrait consister à déterminer les parties prenantes. Singh a déclaré: « Il doit vraiment s’agir d’un dialogue multipartite », comprenant des équipes de politique, d’IA, de risque et de conformité et juridique.

Lynch suggère de demander : « Quelle est l’intention du modèle ? » Qu’une entreprise ait elle-même créé un modèle d’IA générative particulier ou se réfère à des modèles externes, il est important de comprendre comment elle est formée, comment elle fonctionne et comment elle est testée.

La création d’une politique d’IA générative est également une bonne occasion pour les entreprises d’examiner l’ensemble de leurs politiques technologiques, y compris la mise en œuvre, la gestion du changement et l’utilisation à long terme. Lynch pose la question : « À quelle fréquence vérifiez-vous ces politiques après les avoir déployées ? »

Avec les erreurs et les hallucinations courantes sur les grands modèles de langage, la vérification des faits et la responsabilité des employés sont indispensables, tout comme la notion de garder l’humain au courant. C’est pourquoi Lynch conseille : « N’utilisez pas l’IA pour faire des affaires. » Cela inclut l’écriture de code ou de matériel qui va directement aux clients ou aux utilisateurs. Cela peut également inclure l’utilisation d’outils d’IA génératifs comme contenu de base pour le travail, car cela crée un biais inhérent.

Pour certaines entreprises, cela peut sembler écrasant, c’est pourquoi les entreprises commencent à créer des extensions qui intègrent des garde-fous. GenAI Guardrails de Credo AI, par exemple, injecte un cadre de gouvernance pendant que vous tapez dans ChatGPT et signale la conformité comme une forme de surveillance automatisée.

Que la stratégie d’une entreprise autour de la politique d’IA générative consiste à interdire aux employés de l’utiliser (pour l’instant) comme Samsung, à placer des barrières et à documenter la responsabilité comme Ironclad, ou quelque part entre les deux, Lynch dit qu’il est important d’avoir une voie à suivre claire. « Les barrages routiers sont lorsque les entreprises ne pensent pas à la politique », a-t-il déclaré, car c’est là que la gestion de crise entre en jeu.

4.9/5 - (7 votes)
Publicité
Article précédentComment obtenir rapidement du butin de haute qualité dans les temples de la jungle dans Fortnite Chapter 4 Season 3
Article suivantLe robot laveur + aspirateur Deebot T20 Omni sait tout faire
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici