Google a placé l’un de ses ingénieurs en congé administratif payé pour avoir prétendument enfreint ses politiques de confidentialité après s’être inquiété du fait qu’un système de chatbot IA avait atteint la sensibilité, le Washington Post Rapports. L’ingénieur, Blake Lemoine, travaille pour l’organisation Responsible AI de Google et testait si son modèle LaMDA génère un langage discriminatoire ou un discours de haine.
Les préoccupations de l’ingénieur seraient nées de réponses convaincantes qu’il a vues le système d’IA générer sur ses droits et l’éthique de la robotique. En avril, il a partagé un document avec les dirigeants intitulé «LaMDA est-il sensible?« contenant une transcription de ses conversations avec l’IA (après avoir été mis en congé, Lemoine a publié la transcription via son compte Medium), ce qui, dit-il, le montre en argumentant « qu’il est sensible parce qu’il a des sentiments, des émotions et une expérience subjective ».
Google estime que les actions de Lemoine relatives à son travail sur LaMDA ont violé ses règles de confidentialité, Le Washington Post et Le Gardien rapport. Il aurait invité un avocat à représenter le système d’IA et aurait parlé à un représentant du comité judiciaire de la Chambre des représentants au sujet d’activités contraires à l’éthique présumées chez Google. Dans un 6 juin Medium post, le jour où Lemoine a été placé en congé administratif, l’ingénieur a déclaré qu’il avait demandé « un minimum de consultations externes pour m’aider à me guider dans mes enquêtes » et que la liste des personnes avec lesquelles il avait eu des discussions comprenait des employés du gouvernement américain.
Le géant de la recherche a annoncé LaMDA publiquement à Google I/O l’année dernière, qui, espère-t-il, améliorera ses assistants d’IA conversationnels et rendra les conversations plus naturelles. La société utilise déjà une technologie de modèle de langage similaire pour la fonctionnalité Smart Compose de Gmail ou pour les requêtes des moteurs de recherche.
Dans une déclaration faite à WaPo, un porte-parole de Google a déclaré qu’il n’y avait « aucune preuve » que LaMDA soit sensible. « Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’appuient pas ses affirmations. On lui a dit qu’il n’y avait aucune preuve que LaMDA était sensible (et beaucoup de preuves contre elle) », a déclaré le porte-parole Brian Gabriel.
Une interview LaMDA. Google pourrait appeler cette propriété propriétaire de partage. J’appelle cela partager une discussion que j’ai eue avec l’un de mes collègues.https://t.co/uAE454KXRB
— Blake Lemoine (@cajundiscordian) 11 juin 2022
« Bien sûr, certains membres de la communauté plus large de l’IA envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a pas de sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles », a déclaré Gabriel. « Ces systèmes imitent les types d’échanges que l’on trouve dans des millions de phrases et peuvent riff sur n’importe quel sujet fantastique. »
« Des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA et nous ne savons pas que quelqu’un d’autre ait fait les affirmations de grande envergure, ou anthropomorphisé LaMDA, comme Blake l’a fait », a déclaré Gabriel.
Un professeur de linguistique interviewé par WaPo ont convenu qu’il est incorrect d’assimiler des réponses écrites convaincantes à de la sensibilité. « Nous avons maintenant des machines qui peuvent générer des mots sans réfléchir, mais nous n’avons pas appris à arrêter d’imaginer un esprit derrière eux », a déclaré Emily M. Bender, professeur à l’Université de Washington.
Timnit Gebru, un L’éminent éthicien de l’IA Google licencié en 2020 (bien que le géant de la recherche affirme qu’elle a démissionné), a déclaré que la discussion sur la sensibilité de l’IA risque de « faire dérailler » des conversations éthiques plus importantes autour de l’utilisation de l’intelligence artificielle. Au lieu de discuter des méfaits de ces entreprises, du sexisme, du racisme, du colonialisme de l’IA, de la centralisation du pouvoir, du fardeau de l’homme blanc (construire le bon « AGI » [artificial general intelligence] pour nous sauver alors que ce qu’ils font, c’est exploiter), a passé tout le week-end à discuter de la sentience », a-t-elle déclaré. Tweeted. « Mission de déraillement accomplie. »
Malgré ses préoccupations, Lemoine a déclaré qu’il avait l’intention de continuer à travailler sur l’IA à l’avenir. « Mon intention est de rester dans l’IA, que Google me garde ou non », a-t-il déclaré. écrit dans un tweet.
Mise à jour du 13 juin, 6 h 30 HE : Mise à jour avec une déclaration supplémentaire de Google.