Suite aux affirmations virales d’un ingénieur de Google selon lesquelles le chatbot d’intelligence artificielle (IA) « LaMDa » était sensible, les experts de Stanford ont exhorté au scepticisme et à l’ouverture d’esprit tout en encourageant à repenser ce que signifie être « sensible ».

Blake Lemoine était un ingénieur chargé de tester si la machine d’IA conversationnelle de Google produisait des discours de haine lorsque ses conversations avec LaMDA l’ont amené à croire qu’il était sensible. Il publié transcriptions de ces conversations en juin et a été Tiré le 22 juillet pour avoir violé l’accord de confidentialité de Google, après avoir également contacté des membres du gouvernement et un avocat du chatbot AI.

Google a continuellement Rejeté Les affirmations de Lemoine sont infondées, affirmant que LaMDA a été examiné en interne 11 fois. Les professeurs et les universitaires de Stanford sont largement d’accord.

Publicité

« La sentience est la capacité de sentir le monde, d’avoir des sentiments et des émotions et d’agir en réponse à ces sensations, sentiments et émotions », a écrit John Etchemendy Ph.D. ’82, co-directeur du Stanford Institute for Human-centered Artificial Intelligence (HAI), dans une déclaration au Daily. « LaMDA n’est pas sensible pour la simple raison qu’il n’a pas la physiologie pour avoir des sensations et des sentiments. C’est un logiciel conçu pour produire des phrases en réponse à des invites de phrase.

Yoav Shoham, l’ancien directeur du laboratoire d’IA de Stanford, a déclaré que bien qu’il convienne que LaMDA n’est pas sensible, il tire la distinction non pas de la physiologie, mais d’une capacité unique de sentiment qui sépare les gens des ordinateurs.

« Nous avons des pensées, nous prenons des décisions par nous-mêmes, nous avons des émotions, nous tombons amoureux, nous nous mettons en colère et nous formons des liens sociaux avec d’autres humains », a déclaré Shoham. « Quand je regarde mon grille-pain, je n’ai pas l’impression qu’il a ces choses. »

Mais le vrai danger de l’IA n’est pas qu’elle atteigne la sensibilité. Pour Etchemendy, la plus grande crainte est qu’elle trompe les gens en leur faisant croire qu’elle l’a fait.

« Quand j’ai vu l’article du Washington Post, ma réaction a été d’être déçu par le Post pour l’avoir même publié », a écrit Etchemendy, notant que ni le journaliste ni les rédacteurs en chef ne croyaient aux affirmations de Lemoine. Ils l’ont publié parce que, pour le moment, ils pouvaient écrire ce titre sur « l’ingénieur Google » qui faisait cette affirmation absurde, et parce que la plupart de leurs lecteurs ne sont pas assez sophistiqués pour le reconnaître pour ce qu’il est. Pur clickbait. »

Le 6 juin, Lemoine était Placé sur les congés payés chez Google pour avoir violé la politique de confidentialité de l’entreprise après avoir fourni à un sénateur américain des documents qui auraient fourni des preuves que Google et sa technologie étaient discriminatoires sur le plan religieux. Moins d’une semaine plus tard, Lemoine a révélé que LaMDa avait engagé un avocat pour défendre ses droits en tant que « personne ».

LaMDa n’est pas le premier chatbot à susciter des spéculations sur la sentience. ELIZA, le premier chatbot jamais développé, était soupçonné d’être devenu sensible par la secrétaire de son créateur. Le »Effet ELIZA» a ainsi été inventé pour décrire le phénomène de supposer inconsciemment que les comportements informatiques et humains sont analogues.

Richard Fikes, professeur émérite d’informatique, a déclaré que bien que LaMDa soit une forme plus complexe de ce qu’était ELIZA, ni l’un ni l’autre n’est sensible.

« On peut penser à LaMDa comme à un acteur ; il prendra la personnalité de tout ce que vous lui demanderez », a déclaré Fikes. « [Lemoine] a été entraîné dans le rôle de LaMDa jouant un être sensible.

Les modèles de langage comme LaMDa ont des informations de l’ensemble du Web dans leurs bases de données, qu’ils utilisent pour mieux comprendre quelles sont les réponses les plus sensées et les plus humaines dans les conversations, selon Fikes. Il a ajouté que parce que Lemoine posait des questions suggestives et faisait des déclarations de premier plan telles que: « Je suppose généralement que vous voulez que plus de gens chez Google sachent que vous êtes sensible », LaMDa a produit des réponses sous la personnalité d’un chatbot sensible.

La controverse entourant la sensibilité de LaMDa a également suscité des débats plus larges sur les définitions de la « conscience » et de la « sensibilité ».

« La plus grande limite que nous avons dans l’interaction avec les ordinateurs est celle de la bande passante », a déclaré Shoham. « C’est incroyablement difficile de lui donner des entrées et de récupérer des sorties. Mais si nous pouvions communiquer de manière plus transparente, par exemple, par le biais d’ondes cérébrales, la frontière deviendrait un peu plus fluide. »

Soulignant la technologie comme les membres prothétiques et les stimulateurs cardiaques, Shoham a déclaré que le corps humain peut continuer à être augmenté par des machines telles que les systèmes d’IA et les ordinateurs. Au fur et à mesure que cette technologie devient plus avancée, des questions sans réponse sur la sensibilité of les ordinateurs qui sont des extensions d’humains déjà sensibles seront moins pertinents, selon Shoham.

« La question de savoir si une machine est sensible, consciente ou a le libre arbitre est moins un problème parce que les machines et nous serons inextricablement liés », a-t-il déclaré.

Pour Shoham, il est difficile de prédire quand l’IA vraiment sensible naîtra parce que la notion de sentience est trop mal définie. Il n’est pas clair non plus si la possession de la sensibilité confère certains droits: les animaux n’ont pas les mêmes droits que les humains, bien que beaucoup études ont démontré leur sensibilité. Il n’est donc pas clair si LaMDa devrait se voir accorder des « droits de l’homme » si sa sensibilité est établie.

Malgré les dilemmes éthiques et philosophiques qui affligent les questions de l’IA, Shoham attend toujours avec impatience les progrès futurs.

« Je suis extrêmement optimiste », a-t-il déclaré. « Toutes les technologies du passé ont profité à l’humanité, et je ne vois aucune raison pour laquelle l’IA serait différente. Chaque technologie qui a été développée pouvait être utilisée pour le bien ou pour le mal, et historiquement, le bien l’a toujours emporté. Un modèle de langage pourrait écrire de la belle poésie, et il pourrait maudire. Les hélicoptères transportent des personnes de tout le pays, mais ils transportent aussi des terroristes et des bombes. »

Encourageant l’optimisme rationnel à l’égard du progrès technologique, Shoham a exhorté les individus à ne pas adopter d’alarmisme ni d’apologistes pour l’IA. « Faites-vous votre propre opinion et soyez réfléchi », a-t-il déclaré.

Une version précédente de cet article indiquait que Lemoine avait engagé un avocat pour LaMDA. Lors d’une interview avec TechTarget, Lemoine dit il a invité un avocat chez lui, mais le chatbot AI a retenu ses services, à la suite d’une conversation entre LaMDA et l’avocat. Le Quotidien regrette cette erreur.

Rate this post
Publicité
Article précédentBest Buy organise une vente massive sur les produits de jeu, de technologie et de divertissement
Article suivantL’anime Gundam le plus réaliste jamais réalisé – GameRant
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici