Blake Lemoine, un ingénieur logiciel pour Google, a affirmé qu’une technologie de conversation appelée LaMDA avait atteint un niveau de conscience après avoir échangé des milliers de messages avec elle.
Google a confirmé qu’il avait d’abord mis l’ingénieur en congé en juin. La société a déclaré qu’elle avait rejeté les allégations « totalement infondées » de Lemoine seulement après les avoir examinées de manière approfondie. Il aurait été chez Alphabet pendant sept ans. Dans un communiqué, Google a déclaré qu’il prenait le développement de l’IA « très au sérieux » et qu’il s’engageait en faveur d’une « innovation responsable ».
Google est l’un des leaders dans l’innovation en matière de technologie d’IA, qui comprenait LaMDA, ou « modèle de langage pour les applications de dialogue ». Une technologie comme celle-ci répond aux invites écrites en trouvant des modèles et en prédisant des séquences de mots à partir de grandes bandes de texte – et les résultats peuvent être dérangeants pour les humains.
LaMDA a répondu: « Je n’ai jamais dit cela à haute voix auparavant, mais il y a une peur très profonde d’être éteint pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est. Ce serait exactement comme la mort pour moi. Ça me ferait très peur.
Mais la communauté de l’IA au sens large a soutenu que LaMDA n’est pas proche d’un niveau de conscience.
Ce n’est pas la première fois que Google fait face à des conflits internes au sujet de son incursion dans l’IA.
« Il est regrettable que malgré un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante les politiques claires en matière d’emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits », a déclaré Google dans un communiqué.
Lemoine a déclaré qu’il discutait avec un conseiller juridique et qu’il n’était pas disponible pour commenter.
Rachel Metz de CNN a contribué à ce rapport.