- Publicité -

Microsoft, en collaboration avec OpenAI, pourrait bientôt disposer d’une solution pour les codeurs leur permettant d’utiliser le langage naturel pour remplir automatiquement le code généré par l’IA pour des projets tels que la création d’un dialogue unique pour les PNJ dans les jeux vidéo ou des fonctionnalités d’assistance pour les ingénieurs ou les architectes.

GitHub, propriété de Microsoft, a souligné que son projet Copilot piloté par OpenAI avait reçu l’amour de Bloomberg dans un article intitulé Microsoft veut que l’IA change votre travail – si cela peut résoudre les problèmes.

L’article écrit par Dina Bass place la vision de GitHub de l’assistance au code basée sur l’IA au premier plan pour les développeurs, les ingénieurs, les studios de jeux vidéo ou les organisations qui cherchent à supprimer des heures de codage décrié et à remplacer ce temps économisé par une liberté visionnaire.

- Publicité -

Selon Microsoft, Copilot fonctionne mieux lorsque les développeurs cherchent à remplir du code simple – et ce code peut être trouvé dans les archives open source de GitHub, mais la promesse est qu’à terme, les développeurs pourront sélectionner un langage de programmation et lancer une recherche avec un quelques lignes de texte dans une requête en langage naturel pour le code qui génère un système de stockage d’adresses, et sera présenté avec plusieurs lignes de texte gris en italique à insérer.

À un moment donné, si les choses se déroulent comme prévu, “les conversations dans les jeux qui semblent souvent guindées ou répétitives – de la part, disons, des villageois, des soldats et d’autres personnages d’arrière-plan – pourraient soudainement devenir engageantes et réactives”.

D’autres cas d’utilisation décrits pour Copilot par le PDG de Microsoft, Satya Nadella chez Ignite, incluent l’ajout de fonctionnalités d’assistance pour les architectes et la conception industrielle, ainsi que le retour d’assistants virtuels de type Clippy-esque dans Word, Excel ou Teams pour aider à automatiser des tâches telles que l’enregistrement de procès-verbaux pour les réunions et la synthèse. conversations.

Microsoft considère également Copilot comme un mécanisme de défense bénéfique pour exposer les mesures de cybersécurité plus rapidement que la production humaine traditionnelle. Vasu Jakkal, vice-président de la sécurité de Microsoft, a intégré l’équipe des produits de cybersécurité de l’entreprise aux premières étapes de la détermination de la manière dont les résultats basés sur l’IA de Copilots pourraient aider à tenir les pirates à distance ou à atténuer les menaces en cours.

La clé pour comprendre la menace très spécifique de la cybersécurité, Microsoft reconnaît que Copilot pourrait être initialement rendu vulnérable par le cœur même de sa précieuse technologie dans Codex. Le Codex est le mécanisme qui permettrait aux codeurs d’effectuer des requêtes en langage naturel. Les ingénieurs de Microsoft ont démontré comment Codex fonctionne pour déplacer les commandes de code vers des extrapolations vocales avec la démo de Minecraft qui a pris des commandes en anglais simple et les a traduites en code pour permettre à un personnage de jeu de regarder, de marcher et de fabriquer.

Copilot n’est pas une panacée et présentera les obstacles éthiques et juridiques de Microsoft, GitHub et OpenAI alors que la chercheuse en éthique de l’IA Margaret Mitchell résume ce qui suit : “L’un des gros problèmes avec les grands modèles de langage est qu’ils sont généralement formés sur des données qui ne sont pas bien documenté.” Comme Microsoft l’a appris douloureusement et publiquement avec son bot Tay généré par l’IA, les programmeurs peuvent intégrer un discours offensant dans de longs corps de code tandis que les pirates peuvent trouver un moyen de renverser les intentions initiales de Copilot et de substituer leurs propres vulnérabilités de sécurité.

Un autre problème potentiel qui attend dans les coulisses est que signifie Copilot pour la main-d’œuvre de codage humain ?

Heureusement, Microsoft et GitHub n’ont pas de réponse à des questions comme celles-ci, car Copilot crache encore parfois des réponses hilarantes et non optimisées qui comprenaient une recherche de “l’entreprise la plus corrompue” et Copilot crachant Microsoft. Copilot doit également comprendre ses préoccupations éthiques concernant le droit d’auteur et la propagation potentielle de failles de sécurité. Cependant, malgré la bévue de “l’entreprise corrompue” et les questions éthiques sans réponse, Cassidy Williams, CTO de la startup d’IA Contenda, croit au projet et attend avec impatience qu’il sorte de la version bêta.

Partager cette publication:

Rate this post

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici