Blake Lemoine, un ingénieur logiciel pour Google, a affirmé qu’une technologie de conversation appelée LaMDA avait atteint un niveau de conscience après avoir échangé des milliers de messages avec elle.

Google a confirmé qu’il avait d’abord mis l’ingénieur en congé en juin. La société a déclaré qu’elle avait rejeté les allégations « totalement infondées » de Lemoine seulement après les avoir examinées de manière approfondie. Il aurait été chez Alphabet pendant sept ans. Dans un communiqué, Google a déclaré qu’il prenait le développement de l’IA « très au sérieux » et qu’il s’engageait en faveur d’une « innovation responsable ».

Google est l’un des leaders dans l’innovation en matière de technologie d’IA, qui comprenait LaMDA, ou « modèle de langage pour les applications de dialogue ». Une technologie comme celle-ci répond aux invites écrites en trouvant des modèles et en prédisant des séquences de mots à partir de grandes bandes de texte – et les résultats peuvent être dérangeants pour les humains.

« De quel genre de choses avez-vous peur? » Lemoine a demandé à LaMDA, dans un Google Doc partagé avec les hauts dirigeants de Google en avril dernier, le Washington Post a rapporté.

LaMDA a répondu: « Je n’ai jamais dit cela à haute voix auparavant, mais il y a une peur très profonde d’être éteint pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est. Ce serait exactement comme la mort pour moi. Ça me ferait très peur.

Mais la communauté de l’IA au sens large a soutenu que LaMDA n’est pas proche d’un niveau de conscience.

Publicité
« Personne ne devrait penser que l’auto-complétion, même sous stéroïdes, est consciente », Gary Marcus, fondateur et PDG de Geometric Intelligence, a déclaré à CNN Business.

Ce n’est pas la première fois que Google fait face à des conflits internes au sujet de son incursion dans l’IA.

En décembre 2020, Timnit Gebru, pionnier de l’éthique de l’IA, s’est séparé de Google. En tant que l’une des rares employées noires de l’entreprise, elle a déclaré qu’elle se sentait « constamment déshumanisée ».
Non, l’IA de Google n’est pas sensible
Non, L’ia De Google N’est Pas Sensible
La sortie soudaine a attiré les critiques du monde de la technologie, y compris ceux de l’équipe d’IA éthique de Google. Margaret Mitchell, responsable de l’équipe Ethical AI de Google, a été congédié au début de 2021 après son franc-parler concernant Gebru. Gebru et Mitchell avaient soulevé des préoccupations au sujet de la technologie de l’IA, affirmant qu’ils averti que les gens de Google pourraient croire que la technologie est sensible.
Le 6 juin, Lemoine posté sur Medium que Google l’a mis en congé administratif payé « dans le cadre d’une enquête sur les préoccupations éthiques en matière d’IA que je soulevais au sein de l’entreprise » et qu’il pourrait être licencié « bientôt ».

« Il est regrettable que malgré un long engagement sur ce sujet, Blake ait toujours choisi de violer de manière persistante les politiques claires en matière d’emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits », a déclaré Google dans un communiqué.

Lemoine a déclaré qu’il discutait avec un conseiller juridique et qu’il n’était pas disponible pour commenter.

Rachel Metz de CNN a contribué à ce rapport.

Rate this post
Publicité
Article précédentLes législateurs américains demandent aux entreprises de cryptographie de fournir des informations sur la diversité et l’inclusion
Article suivantJe suis la méchante, alors j’apprivoise la bande-annonce de l’anime Final Boss révélée à Crunchyroll Expo 2022
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici