Samsung a imposé une interdiction « temporaire » des outils d’IA générative comme ChatGPT après ce qui semble être une fuite accidentelle de code source.
Une note interne vue par Bloomberg a déclaré aux employés qu’ils feraient mieux de ne pas utiliser de technologies telles que ChatGPT d’OpenAI ou Bard de google sous peine de résiliation en raison du risque pour la propriété intellectuelle de l’entreprise. Le fil de presse a déclaré ce matin que la note de service divulguée avait été envoyée à l’une des « plus grandes divisions » de Sammy, ajoutant que la société l’avait confirmé.
Le mémo aurait déclaré : « L’intérêt pour les plates-formes d’IA générative telles que ChatGPT a augmenté en interne et en externe… Bien que cet intérêt se concentre sur l’utilité et l’efficacité de ces plates-formes, les risques de sécurité présentés par l’IA générative suscitent également des inquiétudes croissantes. »
Cette décision semble être une nouvelle interdiction par l’énorme société d’électronique sud-coréenne. Une interdiction antérieure a été levée plus tôt cette année au milieu de rapports non confirmés de Médias coréens que les employés de Samsung avaient saisi des secrets d’entreprise dans le chatbot pour tenter d’aplanir les bogues dans le code source « problématique », ainsi que pour essayer de générer des procès-verbaux de réunion, entre autres erreurs présumées. Les données divulguées auraient inclus la mesure de l’équipement et les données de rendement de la solution d’appareils et de l’unité commerciale des semi-conducteurs du chaebol. Nous avons demandé à Samsung à l’époque de confirmer ou d’infirmer cela et avons demandé à nouveau.
S’ils l’avaient fait, ils ne seraient pas les premiers ingénieurs à essayer de faire en sorte que le chatbot les aide dans le processus ardu de test de logiciels et de correction de code. Les chercheurs de Compsci Chunqiu Steven Xia et Lingming Zhang ont même créé un processus automatisé pour cela, édition un article montrant à quel point au moins une solution est bon marché et efficace. Leur processus, qu’ils ont surnommé ChatRepair, teste non seulement les correctifs, mais apprend des échecs précédents, dans un article intitulé « Keep the Conversation Going: Fixing 162 out of 337 bugs for $0.42 each using ChatGPT ».
Quant à OpenAI, la société à l’origine de l’assistant textuel met déjà en place certaines de ses propres garde-fous, le chatbot attirant de plus en plus l’attention des régulateurs. La semaine dernière, il a lancé un fonctionnalité qui permet aux utilisateurs d’empêcher ChatGPT d’avaler le texte généré dans leurs conversations privées et de l’utiliser pour former de grands modèles de langage, par exemple.
Pendant ce temps, dans le cadre des politiques mises à jour qui ont commencé le 1er mars, OpenAI a apporté deux modifications à ses politiques d’utilisation et de conservation des données :
Dans le UEla nouvelle loi proposée sur l’IA pourrait bientôt demander aux développeurs de divulguer et de détailler toutes les données protégées par le droit d’auteur utilisées pour former leurs modèles de ML.
IBM, d’autre part, semble avoir peu de scrupules à utiliser la technologie. Hier PDG Arvind Krishna a dit il pensait que jusqu’à 30 % des emplois de back-office d’IBM – soit environ 7 800 personnes – pourraient être remplacés par l’IA.
On dit que Samsung travaille sur ses propres outils d’IA. ®