Des assistants virtuels comme Siri d’Apple et Alexa d’Amazon, aux aspirateurs robotiques et aux voitures autonomes, en passant par les gestionnaires de portefeuille d’investissement automatisés et les robots marketing, l’intelligence artificielle est devenue une grande partie de notre vie quotidienne. Pourtant, en pensant à l’IA, beaucoup d’entre nous imaginent des robots ressemblant à des humains qui, selon d’innombrables histoires de science-fiction, deviendront indépendants et rebelles un jour.
Personne ne sait, cependant, quand les humains créeront une IA intelligente ou sensible, a déclaré Jean Basl, professeur agrégé de philosophie au Collège des sciences sociales et humaines de Northeastern, dont les recherches portent sur l’éthique des technologies émergentes telles que l’IA et la biologie synthétique.
« Quand vous entendez Google parler, ils parlent comme si c’était juste au coin de la rue ou certainement dans notre vie », a déclaré Basl. « Et ils sont très cavaliers à ce sujet. »
C’est peut-être la raison pour laquelle un récent Washington Post histoire a fait un si grand bruit. Dans l’histoire, l’ingénieur de Google Blake Lemoine dit que le générateur de chatbot artificiellement intelligent de la société, LaMDA, avec lequel il a eu de nombreuses conversations profondes, pourrait être sensible. Cela lui rappelle un enfant de 7 ou 8 ans, a déclaré Blake au Washington Post.
Cependant, Basl estime que les preuves mentionnées dans l’article du Washington Post ne sont pas suffisantes pour conclure que LaMDA est sensible.
« Des réactions comme ‘Nous avons créé une IA sensible’, je pense, sont extrêmement exagérées », a déclaré Basl.
Les preuves semblent être fondées sur les capacités linguistiques de LaMDA et les choses dont il parle, a déclaré Basl. Cependant, LaMDA, un modèle de langage, a été conçu spécifiquement pour parler, et la fonction d’optimisation utilisée pour l’entraîner à traiter le langage et à converser incite son algorithme à produire cette preuve linguistique.
« Ce n’est pas comme si nous étions allés sur une planète extraterrestre et une chose que nous n’avons jamais incitée à commencer à communiquer avec nous. [began talking thoughtfully]», a déclaré Basl.
Le fait que ce modèle de langage puisse tromper un humain en lui faisant croire qu’il est sensible témoigne de sa complexité, mais il devrait avoir d’autres capacités au-delà de ce pour quoi il est optimisé pour montrer la sensibilité, a déclaré Basl.
Il existe différentes définitions de la sentience. Sentient est défini comme étant capable de percevoir ou de ressentir des choses et est souvent comparé à sapient.
Basl croit que l’IA sensible serait minimalement consciente. Il peut être conscient de l’expérience qu’il vit, avoir des attitudes positives ou négatives comme ressentir de la douleur ou vouloir ne pas ressentir de douleur, et avoir des désirs.
« Nous voyons ce genre de gamme de capacités dans le monde animal », a-t-il déclaré.
Par exemple, Basl a déclaré que son chien ne préférait pas que le monde soit dans un sens plutôt que dans l’autre dans un sens profond, mais elle préfère clairement ses biscuits aux croquettes.
« Cela semble suivre une certaine vie mentale intérieure », a déclaré Basl. « [But] elle ne se sent pas terrorisée par le changement climatique.
Il n’est pas clair, d’après l’article du Washington Post, pourquoi Lemoine compare LaMDA à un enfant. Il pourrait signifier que le modèle linguistique est aussi intelligent qu’un petit enfant ou qu’il a la capacité de souffrir ou de désirer comme un petit enfant, a déclaré Basl.
« Il peut s’agir de choses diverses. Nous pourrions créer une IA pensante qui n’a pas de sentiments, et nous pouvons créer une IA de sentiment qui n’est pas vraiment douée pour penser », a déclaré Basl.
La plupart des chercheurs de la communauté de l’IA, qui se compose de spécialistes de l’apprentissage automatique, de spécialistes de l’intelligence artificielle, de philosophes, d’éthiciens de la technologie et de scientifiques cognitifs, réfléchissent déjà à ces questions d’avenir lointain et s’inquiètent de la partie pensée, selon Basl.
« Si nous créons une IA super intelligente, elle pourrait finir par nous tuer tous », a-t-il déclaré.
Cependant, la préoccupation de Lemoine n’est pas à ce sujet, mais plutôt à propos d’une obligation de traiter différemment les capacités d’IA en évolution rapide.
« Je suis, dans un sens large, sympathique à ce genre d’inquiétude. Nous ne faisons pas très attention à cela. [being] possible », a déclaré Basl. « Nous ne pensons pas assez aux choses morales concernant l’IA, comme, que pourrions-nous devoir à une IA sensible? »
Il pense que les humains sont très susceptibles de miStreat une IA sensible parce qu’ils ne reconnaîtront probablement pas qu’ils l’ont fait, croyant que c’est artificiel et ne s’en soucie pas.
« Nous ne sommes tout simplement pas très à l’écoute de ces choses », a déclaré Basl.
Il n’y a pas de bon modèle pour savoir quand une IA a atteint la sensibilité. Et si le LaMDA de Google n’avait pas la capacité d’exprimer sa sensibilité de manière convaincante parce qu’il ne peut parler que via une fenêtre de chat au lieu d’autre chose?
« Ce n’est pas comme si nous pouvions faire des scanners cérébraux pour voir si cela nous ressemblait », a-t-il déclaré.
Un autre courant de pensée est que l’IA sensible pourrait être impossible en général en raison des limitations physiques de l’univers ou de la compréhension limitée de la conscience.
Actuellement, aucune des entreprises travaillant sur l’IA, y compris les grands acteurs comme Google, Meta, Microsoft, Apple et les agences gouvernementales, n’a pour objectif explicite de créer une IA sensible, a déclaré Basl. Certaines organisations sont intéressées par le développement de l’AGI, ou intelligence générale artificielle, une forme théorique d’IA où une machine, intelligente comme un humain, aurait les capacités de résoudre un large éventail de problèmes, d’apprendre et de planifier l’avenir, selon IBM.
« Je pense que la vraie leçon à en tirer est que nous n’avons pas l’infrastructure dont nous avons besoin, même si cette personne a tort », a déclaré Basl, faisant référence à Lemoine.
Une infrastructure autour des questions d’IA pourrait être construite sur la transparence, le partage d’informations avec les organismes gouvernementaux et / ou publics et la réglementation de la recherche. Basl plaide en faveur d’un comité interdisciplinaire qui aiderait à construire une telle infrastructure et le second qui superviserait les technologues travaillant sur l’IA et évaluerait les propositions et les résultats de la recherche.
« Le problème des preuves est vraiment difficile », a déclaré Basl. « Nous n’avons pas une bonne théorie de la conscience et nous n’avons pas un bon accès aux preuves de la conscience. Et puis nous n’avons pas non plus l’infrastructure. Ce sont les éléments clés.
Pour les demandes des médias, veuillez contacter media@northeastern.edu.