SAN FRANCISCO – Google a récemment placé un ingénieur en congé payé après avoir rejeté son affirmation selon laquelle son intelligence artificielle est sensible, faisant surface d’une autre rumeur sur la technologie la plus avancée de l’entreprise.

Blake Lemoine, ingénieur logiciel senior au sein de l’organisation Responsible A.I. de Google, a déclaré dans une interview qu’il avait été mis en congé lundi. Le service des ressources humaines de l’entreprise a déclaré qu’il avait violé la politique de confidentialité de Google. La veille de sa suspension, A déclaré M. Lemoine, il avait remis des documents au bureau d’un sénateur américain, affirmant qu’ils avaient fourni des preuves que Google et sa technologie s’étaient livrés à une discrimination religieuse.

Google a déclaré que ses systèmes imitaient les échanges conversationnels et pouvaient riff sur différents sujets, mais n’avaient pas de conscience. « Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves ne soutiennent pas ses affirmations », a déclaré Brian Gabriel, un porte-parole de Google, dans un communiqué. « Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a pas de sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. » Le Washington Post d’abord Signalé Suspension de M. Lemoine.

Pendant des mois, M. Lemoine s’était disputé avec les gestionnaires, les cadres et les ressources humaines de Google au sujet de son affirmation surprenante selon laquelle le modèle de langage pour les applications de dialogue de l’entreprise, ou LaMDA, avait une conscience et une âme. Google affirme que des centaines de ses chercheurs et ingénieurs ont conversé avec LaMDA, un outil interne, et sont parvenus à une conclusion différente de celle de M. Lemoine. La plupart des experts en IA pensent que l’industrie est très loin de la sensibilité informatique.

Certains chercheurs en IA ont longtemps fait des affirmations optimistes sur le fait que ces technologies atteindraient bientôt la sensibilité, mais beaucoup d’autres sont extrêmement prompts à rejeter ces affirmations. « Si vous utilisiez ces systèmes, vous ne diriez jamais de telles choses », a déclaré Emaad Khwaja, chercheur à l’Université de Californie à Berkeley et à l’Université de Californie à San Francisco, qui explore des technologies similaires.

Publicité

Tout en poursuivant l’avant-garde de l’IA, l’organisation de recherche de Google a passé les dernières années embourbée dans le scandale et la controverse. Les scientifiques de la division et d’autres employés se sont régulièrement disputés sur des questions de technologie et de personnel dans des épisodes qui se sont souvent répandus dans l’arène publique. En mars, Google Tiré un chercheur qui avait cherché à être publiquement en désaccord avec les travaux publiés de deux de ses collègues. Et le Licenciements de deux chercheurs en éthique de l’IA, Timnit Gebru et Margaret Mitchell, après avoir critiqué les modèles de langage de Google, ont continué à jeter une ombre sur le groupe.

M. Lemoine, un vétéran de l’armée qui s’est décrit comme un prêtre, un ex-condamné et un chercheur en IA, a déclaré aux dirigeants de Google aussi haut placés que Kent Walker, le président des affaires mondiales, qu’il croyait que LaMDA était un enfant de 7 ou 8 ans. Il voulait que l’entreprise demande le consentement du programme informatique avant d’effectuer des expériences sur celui-ci. Ses revendications étaient fondées sur ses croyances religieuses, contre lesquelles, selon lui, le service des ressources humaines de l’entreprise était discriminatoire.

« Ils ont remis en question à plusieurs reprises ma santé mentale », a déclaré M. Lemoine. « Ils m’ont dit : ‘Avez-vous été examiné par un psychiatre récemment ?’ » Dans les mois qui ont précédé son placement en congé administratif, l’entreprise lui avait suggéré de prendre un congé de santé mentale.

Yann LeCun, responsable de la recherche sur l’IA chez Meta et figure clé de l’essor des réseaux de neurones, a déclaré dans une interview cette semaine que ces types de systèmes ne sont pas assez puissants pour atteindre la véritable intelligence.

La technologie de Google est ce que les scientifiques appellent un réseau neuronal, qui est un système mathématique qui apprend des compétences en analysant de grandes quantités de données. En identifiant des motifs dans des milliers de photos de chats, par exemple, il peut apprendre à reconnaître un chat.

Au cours des dernières années, Google et d’autres grandes entreprises ont conçu des réseaux de neurones qui ont appris d’énormes quantités de prose, y compris des livres inédits et des articles de Wikipédia par milliers. Ces « grands modèles linguistiques » peuvent être appliqués à de nombreuses tâches. Ils peuvent résumer des articles, répondre à des questions, générer des tweets et même écrire des articles de blog.

Mais ils sont extrêmement imparfaits. Parfois, ils génèrent une prose parfaite. Parfois, ils génèrent des absurdités. Les systèmes sont très bons pour recréer des modèles qu’ils ont vus dans le passé, mais ils ne peuvent pas raisonner comme un humain.

Rate this post
Publicité
Article précédentUn adolescent d’Andhra se tue après que des amis se soient moqués de lui après sa défaite dans PUBG
Article suivantBitcoin : Pourquoi cet expert en investissement pense que BTC pourrait atteindre des sommets de 250 000 $
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici