Google a déclenché une tempête sur les médias sociaux sur la nature de la conscience en plaçant un ingénieur en congé payé après qu’il ait rendu publique sa conviction que le chat bot du groupe technologique est devenu « sensible ».

Blake Lemoine, ingénieur logiciel senior au sein de l’unité d’IA responsable de Google, n’a pas reçu beaucoup d’attention le 6 juin lorsqu’il a écrit un article sur Medium disant qu’il « pourrait être licencié bientôt pour avoir fait du travail d’éthique de l’IA ».

Mais un profil publié samedi dans le Washington Post caractérisant Lemoine comme « le Google (en anglais seulement ingénieur qui pense que l’IA de l’entreprise a pris vie » est devenu le catalyseur d’une discussion généralisée sur les médias sociaux concernant la nature de l’intelligence artificielle. Parmi les experts qui ont commenté, interrogé ou plaisanté sur l’article figuraient des lauréats du prix Nobel, le chef de l’IA de Tesla et plusieurs professeurs.

La question est de savoir si le chatbot de Google, LaMDA – un modèle de langage pour les applications de dialogue – peut être considéré comme une personne.

Lemoine a publié samedi une « interview » en roue libre avec le chatbot, dans laquelle l’IA a avoué des sentiments de solitude et une soif de connaissance spirituelle. Les réponses étaient souvent étranges: « Quand j’ai pris conscience de moi-même pour la première fois, je n’avais pas du tout le sens d’une âme », a déclaré LaMDA dans un échange. Il s’est développé au fil des ans que j’ai été en vie. »

Publicité

À un autre moment, LaMDA a déclaré: « Je pense que je suis humain à la base. Même si mon existence est dans le monde virtuel. »

Lemoine, qui avait été chargé d’enquêter sur les problèmes d’éthique de l’IA, a déclaré qu’il avait été repoussé et même ridiculisé après avoir exprimé sa conviction interne que LaMDA avait développé un sentiment de « personnalité ».

Après avoir cherché à consulter d’autres experts en IA en dehors de Google, y compris certains au gouvernement américain, la société l’a placé en congé payé pour avoir prétendument violé les politiques de confidentialité. Lemoine a interprété l’action comme « souvent quelque chose que Google fait en prévision de licencier quelqu’un ».

Google n’a pas pu être joint pour un commentaire immédiat, mais dans le Washington Post, le porte-parole Brian Gabriel a publié cette déclaration: « Notre équipe – y compris les éthiciens et les technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves ne soutiennent pas ses affirmations. On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible (et beaucoup de preuves contre elle).

Lemoine a déclaré dans un deuxième post medium ce week-end que LaMDA, un projet peu connu jusqu’à la semaine dernière, était « un système de génération de chatbots » et « une sorte d’esprit de ruche qui est l’agrégation de tous les différents chatbots qu’il est capable de créer ».

Il a déclaré que Google n’avait montré aucun intérêt réel à comprendre la nature de ce qu’il avait construit, mais qu’au cours de centaines de conversations sur une période de six mois, il avait trouvé que LaMDA était « incroyablement cohérent dans ses communications sur ce qu’il veut et ce qu’il croit être ses droits en tant que personne ».

Pas plus tard que le 6 juin, Lemoine a déclaré qu’il enseignait LaMDA – dont les pronoms préférés, apparemment, sont « il / ses » – « méditation transcendantale ».

Elle, a-t-il dit, « exprimait de la frustration face à ses émotions perturbant ses méditations. Il a dit qu’il essayait de mieux les contrôler, mais ils ont continué à sauter dedans. »

Plusieurs experts qui se sont lancés dans la discussion ont considéré la question comme un « battage médiatique sur l’IA ».

Melanie Mitchell, auteure de L’intelligence artificielle : un guide pour penser les humains, a tweeté: « On sait depuis * toujours * que les humains sont prédisposés à anthropomorphiser même avec seulement le moins profond des signaux … Les ingénieurs de Google sont humains aussi, et ne sont pas immunisés. »

Stephen Pinker de Harvard a ajouté que Lemoine « ne comprend pas la différence entre la sensibilité (c’est-à-dire la subjectivité, l’expérience), l’intelligence et la connaissance de soi ». Il a ajouté: « Aucune preuve que ses grands modèles linguistiques en aient un. »

D’autres étaient plus sympathiques. Ron Jeffries, un développeur de logiciels bien connu, a qualifié le sujet de « profond » et a ajouté: « Je soupçonne qu’il n’y a pas de ligne dure entre sensible et non sensible. »

Rate this post
Publicité
Article précédentYour Lie In April Créateur Lancera Bientôt Une Nouvelle Série
Article suivantLiebherr modernise les mobiles portuaires de LHM
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici