Dans des interviews et des déclarations publiques, de nombreux membres de la communauté de l’IA ont repoussé les affirmations de l’ingénieur, tandis que certains ont souligné que son histoire met en évidence la façon dont la technologie peut amener les gens à lui attribuer des attributs humains. Mais la conviction que l’IA de Google pourrait être sensible souligne sans doute à la fois nos craintes et nos attentes quant à ce que cette technologie peut faire.
LaMDA, qui signifie « Modèle de langage pour les applications de dialogue », est l’un des nombreux systèmes d’IA à grande échelle qui ont été formés sur de grandes étendues de texte provenant d’Internet et peuvent répondre à des invites écrites. Ils sont chargés, essentiellement, de trouver des modèles et de prédire quel mot ou quels mots devraient venir ensuite. De tels systèmes sont devenus
de plus en plus bon pour répondre aux questions et écrire d’une manière qui peut sembler humaine convaincante – et Google lui-même
a présenté LaMDA en mai dernier dans un article de blog comme celui qui peut « s’engager de manière fluide sur un nombre apparemment infini de sujets ». Mais les résultats peuvent aussi être farfelus, bizarres, dérangeants et enclins à la divagation.
L’ingénieur, Blake Lemoine, aurait déclaré au Washington Post qu’il avait partagé des preuves avec Google que LaMDA était sensible, mais la société n’était pas d’accord. Dans un communiqué, Google a déclaré lundi que son équipe, qui comprend des éthiciens et des technologues, « a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves ne soutiennent pas ses affirmations ».
Le 6 juin, Lemoine a publié sur Medium que Google l’avait mis en congé administratif payé « dans le cadre d’une enquête sur des problèmes d’éthique de l’IA que je soulevais au sein de l’entreprise » et qu’il pourrait être licencié « bientôt ». (Il a mentionné l’expérience de Margaret Mitchell, qui avait été l’un des dirigeants de l’équipe d’IA éthique de Google jusqu’à ce que
Google l’a licenciée début 2021 à la suite de son franc-parler au sujet de la
Départ fin 2020 du co-leader de l’époque, Timnit Gebru. Gebru a été évincée après des échauffourées internes, dont une liée à un document de recherche que la direction de l’entreprise en matière d’IA lui a dit de se rétracter pour une présentation à une conférence ou de retirer son nom.)
Un porte-parole de Google a confirmé que Lemoine restait en congé administratif. Selon le Washington Post, il a été mis en congé pour avoir violé la politique de confidentialité de l’entreprise.
Lemoine n’était pas disponible pour commenter lundi.
L’émergence continue de puissants programmes informatiques formés sur des données massives a également suscité des inquiétudes quant à l’éthique régissant le développement et l’utilisation de ces technologies. Et parfois, les progrès sont vus à travers le prisme de ce qui peut arriver, plutôt que de ce qui est actuellement possible.
Les réponses des membres de la communauté de l’IA à l’expérience de Lemoine ont ricoché sur les médias sociaux au cours du week-end, et ils sont généralement arrivés à la même conclusion: l’IA de Google est loin d’être consciente. Abeba Birhane, senior fellow en IA digne de confiance chez Mozilla,
Tweeted dimanche, « nous sommes entrés dans une nouvelle ère de » ce réseau neuronal est conscient « et cette fois, il va drainer tant d’énergie à réfuter. »
Gary Marcus, fondateur et PDG de Geometric Intelligence, qui a été vendu à Uber, et auteur de livres tels que « Rebooting AI: Building Artificial Intelligence We Can Trust », a qualifié l’idée de LaMDA de sentiente.
« absurdité sur pilotis » dans un tweet. Il a rapidement écrit un
article de blog soulignant que tout ce que ces systèmes d’IA font est de faire correspondre des modèles en tirant d’énormes bases de données de langage.
Dans une interview accordée lundi à CNN Business, Marcus a déclaré que la meilleure façon de penser à des systèmes tels que LaMDA est comme une « version glorifiée » du logiciel de saisie semi-automatique que vous pouvez utiliser pour prédire le mot suivant dans un message texte. Si vous tapez « J’ai vraiment faim, alors je veux aller dans un », cela pourrait suggérer « restaurant » comme mot suivant. Mais c’est une prédiction faite à l’aide de statistiques.
« Personne ne devrait penser que l’auto-complétion, même sous stéroïdes, est consciente », a-t-il déclaré.
Dans une interview, Gebru, qui est le fondateur et directeur exécutif du
Institut de recherche sur l’IA distribuée, ou DAIR, said Lemoine est victime de nombreuses entreprises qui affirment que l’IA consciente ou l’intelligence artificielle générale – une idée qui fait référence à l’IA qui peut effectuer des tâches de type humain et interagir avec nous de manière significative – ne sont pas loin.
Par exemple, a-t-elle noté, Ilya Sutskever, co-fondateur et scientifique en chef d’OpenAI,
Tweeted en février, « il se peut que les grands réseaux neuronaux d’aujourd’hui soient légèrement conscients ». Et la semaine dernière, blaise Aguera y Arcas, vice-président de Google Research et collègue
écrit dans un article pour The Economist que lorsqu’il a commencé à utiliser LaMDA l’année dernière, « j’avais de plus en plus l’impression de parler à quelque chose d’intelligent ». (Cet article comprend maintenant une note de l’éditeur soulignant que Lemoine a depuis « été mis en congé après avoir affirmé dans une interview avec le Washington Post que LaMDA, le chatbot de Google, était devenu « sensible ».)
« Ce qui se passe, c’est qu’il y a une telle course pour utiliser plus de données, plus de calcul, pour dire que vous avez créé cette chose générale qui est tout en connaissance, répond à toutes vos questions ou quoi que ce soit, et c’est le tambour que vous avez joué », a déclaré Gebru. « Alors, comment êtes-vous surpris quand cette personne le pousse à l’extrême? »
Dans sa déclaration, Google a souligné que LaMDA a subi 11 « examens distincts des principes de l’IA », ainsi que « des recherches et des tests rigoureux » liés à la qualité, à la sécurité et à la capacité de proposer des déclarations fondées sur des faits. « Bien sûr, certains membres de la communauté plus large de l’IA envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a pas de sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles », a déclaré la société.
« Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et nous ne savons pas que quelqu’un d’autre ait fait les affirmations de grande envergure, ou anthropomorphisé LaMDA, comme Blake l’a fait », a déclaré Google.