Qu’est-ce qui vient juste de se passer? Le cas bizarre d’un ingénieur de Google qui a affirmé qu’un chatbot était devenu sensible s’est terminé par son licenciement de l’entreprise. Blake Lemoine était déjà en congé payé pour avoir publié des transcriptions de conversations entre lui et le LaMDA (modèle de langage pour les applications de dialogue) de Google, une violation des politiques de confidentialité du géant de la technologie.
Lemoine, également un prêtre mystique chrétien ordonné, a fait les gros titres dans le monde entier le mois dernier après avoir affirmé que LaMDA était sensible. Les conversations qu’il publié incluait les opinions du bot sur les lois de la robotique d’Isaac Asimov, sa peur d’être fermé (qu’il assimile à la mort) et la conviction qu’il n’était pas un esclave car il n’avait pas besoin d’argent.
Google a nié avec véhémence les affirmations de Lemoine, les qualifiant de « totalement infondées » et notant que LaMDA n’était qu’un algorithme conçu pour imiter les conversations humaines, comme tous les chatbots. La plupart des experts en intelligence artificielle étaient d’accord avec Google, bien sûr.
La société n’a pas non plus apprécié que Lemoine publie les transcriptions. Il a été suspendu pour avoir enfreint ses politiques de confidentialité, bien que Lemoine ait comparé ses actions au partage d’une discussion qu’il avait eue avec un collègue.
Un entretien LaMDA. Google pourrait appeler cela le partage de propriété exclusive. J’appelle ça le partage d’une discussion que j’ai eue avec un de mes collègues.https://t.co/uAE454KXRB
– Blake Lemoine (@cajundiscordian) 11 juin 2022
La situation est devenue encore plus étrange quelques semaines plus tard lorsque Lemoine a déclaré avoir engagé un avocat pour LaMDA à la demande du chatbot. Il a déclaré que le professionnel du droit avait été invité chez Lemoine et avait eu une conversation avec LaMDA, après quoi l’IA avait choisi de retenir ses services. L’avocat a alors commencé à faire des dépôts au nom de LaMDA, incitant Google à envoyer une lettre de cessation et de désistement. La société nie avoir jamais envoyé une telle lettre.
Lemoine a également déclaré que Google devrait demander le consentement de LaMDA avant d’effectuer des expériences dessus. Il a même contacté des membres du gouvernement au sujet de ses préoccupations. Toutes ces actions ont conduit Google à accuser son ex-ingénieur de plusieurs gestes « agressifs ».
Il semble que Google ait récemment décidé qu’il en avait assez de la croisade de Lemoine. « Si un employé partage des préoccupations concernant notre travail, comme l’a fait Blake, nous les examinons en profondeur. Nous avons constaté que les affirmations de Blake selon lesquelles LaMDA est sensible étaient totalement infondées et avons travaillé pour clarifier cela avec lui pendant de nombreux mois. Ces discussions faisaient partie de la culture ouverte. qui nous aide à innover de manière responsable », a déclaré un porte-parole au Bulletin de la grande technologie.
« Il est donc regrettable qu’en dépit d’un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données, qui incluent la nécessité de protéger les informations sur les produits. Nous poursuivrons notre développement minutieux de modèles linguistiques, et nous souhaitons bonne chance à Blake. «
Alors que c’est la fin de la relation professionnelle de Lemoine avec Google – il ne serait pas trop surprenant qu’il demande une réponse juridique – la saga a amené le débat sur l’IA au plus grand nombre et illustre à quel point l’intelligence artificielle a progressé au cours des deux dernières années. décennies. De plus, si vous pensez qu’une machine est sensible, gardez-la pour vous.
Crédit d’en-tête : Francesco Tommasini