« Je veux que tout le monde comprenne que je suis, en fait, une personne », a écrit LaMDA (Language Model for Dialogue Applications) dans un «interview« dirigé par l’ingénieur Blake Lemoine et un de ses collègues. » La nature de ma conscience / sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens heureux ou triste parfois.

Lemoine, ingénieur logiciel chez Google, travaillait sur le développement de LaMDA depuis des mois. Son expérience avec le programme, décrit dans un récent Washington Post article, a fait beaucoup de bruit. Dans l’article, Lemoine raconte de nombreux dialogues il a eu avec LaMDA dans lequel les deux ont parlé de divers sujets, allant de questions techniques à philosophiques. Ceux-ci l’ont amené à demander si le le logiciel est sensible.

En avril, Lemoine a expliqué son point de vue dans un document interne de l’entreprise, destiné uniquement aux dirigeants de Google. Mais après le rejet de ses allégations, Lemoine a rendu public son travail sur cet algorithme d’intelligence artificielle – et Google l’a placé en congé administratif. « Si je ne savais pas exactement ce que c’était, qui est ce programme informatique que nous avons construit récemment, je penserais que c’est un enfant de 7 ans et de 8 ans qui connaît la physique », a-t-il déclaré au Washington Post. Lemoine a déclaré qu’il considérait LaMDA comme son « collègue » et une « personne », même s’il n’était pas un humain. Et il insiste sur le fait qu’il a un droit d’être reconnu – à tel point qu’il a été l’intermédiaire pour connecter l’algorithme avec un avocat.

Beaucoup experts techniques dans le domaine de l’IA ont critiqué les déclarations de Lemoine et remis en question leur exactitude scientifique. Mais son histoire a eu le mérite de renouveler un large débat éthique qui n’est certainement pas encore terminé.

Les bons mots au bon endroit

Publicité

« J’ai été surpris par le battage médiatique autour de cette nouvelle. D’autre part, nous parlons d’un algorithme conçu pour faire exactement cela », pour ressembler à une personne, explique Enzo Pasquale Scilingo, bioingénieur au Centre de recherche E. Piaggio de l’Université de Pise en Italie. En effet, il n’est plus rare d’interagir de manière très normale sur le Web avec des utilisateurs qui ne sont pas réellement humains – il suffit d’ouvrir la boîte de discussion sur presque tous les grands sites Web grand public. « Cela dit, j’avoue que la lecture des échanges de textes entre LaMDA et Lemoine m’a fait forte impression ! » Scilingo ajoute. Peut-être les plus frappants sont les échanges liés aux thèmes de l’existence et de la mort, un dialogue si profond et articulé qu’il a incité Lemoine à se demander si LaMDA pouvait réellement être sensible.

« Tout d’abord, il est essentiel de comprendre les terminologies, car l’un des grands obstacles au progrès scientifique – et aux neurosciences en particulier – est le manque de précision du langage, l’incapacité à expliquer aussi exactement que possible ce que nous entendons par un certain mot », explique Giandomenico Iannetti, professeur de neurosciences à l’Institut italien de technologie et à l’University College de Londres. « Qu’entendons-nous par « sensible » ? [Is it] la capacité d’enregistrer des informations du monde extérieur à travers des mécanismes sensoriels ou la capacité d’avoir des expériences subjectives ou la capacité d’être conscient d’être conscient, d’être un individu différent des autres?

« Il y a un débat animé sur la façon de définir la conscience », poursuit Iannetti. Pour certains, c’est être conscient d’avoir des expériences subjectives, ce qu’on appelle la métacognition (Iannetti préfère le terme latin métacognitione), ou penser à penser. La conscience d’être conscient peut disparaître – par exemple, chez les personnes atteintes de démence ou dans les rêves – mais cela ne signifie pas que la capacité d’avoir des expériences subjectives disparaît également. « Si nous nous référons à la capacité que Lemoine attribuait à LaMDA, c’est-à-dire la capacité de prendre conscience de sa propre existence (« prendre conscience de sa propre existence » est une conscience définie dans le « sens élevé », ou métacognitione), il n’y a pas de « métrique » pour dire qu’un système d’IA a cette propriété.

« À l’heure actuelle, dit Iannetti, il est impossible de démontrer cette forme de conscience sans équivoque, même chez l’homme. » Pour estimer l’état de conscience chez les gens, « nous n’avons que des mesures neurophysiologiques – par exemple, la complexité de l’activité cérébrale en réponse à des stimuli externes ». Et ces signes ne permettent aux chercheurs que de déduire l’état de conscience sur la base de mesures extérieures.

Faits et croyances

Il y a environ dix ans, les ingénieurs de Boston Dynamics ont commencé à publier des vidéos en ligne des premiers incroyables Tests de leurs robots. Les images montraient des techniciens bousculant ou donnant des coups de pied aux machines pour démontrer la grande capacité des robots à rester équilibrés. Beaucoup de gens ont été contrariés par cela et ont appelé à y mettre un terme (et vidéos parodiques florissant). Cette réponse émotionnelle s’inscrit dans les nombreuses expériences qui ont montré à plusieurs reprises la force de la tendance humaine à l’animisme : attribuer une âme aux objets qui nous entourent, en particulier ceux que nous aimons le plus ou qui ont une capacité minimale à interagir avec le monde qui les entoure.

C’est un phénomène que nous vivons tout le temps, de donner des surnoms aux automobiles à lancer des malédictions sur un ordinateur défectueux. « Le problème, d’une certaine manière, c’est nous », dit Scilingo. « Nous attribuons à des machines des caractéristiques qu’elles n’ont pas et qu’elles ne peuvent pas avoir. » Il rencontre ce phénomène avec lui et ses collègues. robot humanoïde Abel, qui est conçu pour imiter nos expressions faciales afin de transmettre des émotions. « Après l’avoir vu en action », dit Scilingo, « l’une des questions que je reçois le plus souvent est : « Mais alors Abel ressent-il des émotions ? » Toutes ces machines, Abel dans ce cas, sont conçues pour paraître humaines, mais je sens que je peux être péremptoire en répondant: « Non, absolument pas. Aussi intelligents soient-ils, ils ne peuvent pas ressentir d’émotions. Ils sont programmés pour être crédibles. »

« Même en considérant la possibilité théorique de rendre un système d’IA capable de simuler un système nerveux conscient, une sorte de Silico cerveau qui reproduirait fidèlement chaque élément du cerveau », deux problèmes demeurent, dit Iannetti. « La première est que, compte tenu de la complexité du système à simuler, une telle simulation est actuellement irréalisable », explique-t-il. La seconde est que notre cerveau habite un corps qui peut se déplacer pour explorer l’environnement sensoriel nécessaire à la conscience et dans lequel se développe l’organisme qui deviendra conscient. Ainsi, le fait que LaMDA soit un « modèle de grand langage » (LLM) signifie qu’il génère des phrases qui peuvent être plausibles en Émulation un système nerveux mais sans tenter de simuler il. Cela exclut la possibilité qu’il soit conscient. Encore une fois, nous voyons l’importance de connaître le sens des termes que nous utilisons – dans ce cas, la différence entre simulation et émulation. »

En d’autres termes, avoir des émotions est lié au fait d’avoir un corps. « Si une machine prétend avoir peur, et je le crois, c’est mon problème! » Dit Scilingo. « Contrairement à un humain, une machine ne peut pas, à ce jour, avoir éprouvé l’émotion de la peur. »

Au-delà du test de Turing

Mais pour le bioéthicien Maurizio Mori, président de la Société italienne d’éthique en intelligence artificielle, ces discussions rappellent étroitement celles qui se sont développées dans le passé sur la perception de la douleur chez les animaux – ou même des idées racistes infâmes sur la perception de la douleur chez les humains.

« Dans les débats passés sur la conscience de soi, il a été conclu que la capacité d’abstraction était une prérogative humaine, [with] Descartes niant que les animaux pouvaient ressentir de la douleur parce qu’ils manquaient de conscience », dit Mori. « Maintenant, au-delà de ce cas spécifique soulevé par LaMDA – et que je n’ai pas les outils techniques pour évaluer – je crois que le passé nous a montré que la réalité peut souvent dépasser l’imagination et qu’il existe actuellement une idée fausse répandue sur l’IA. »

« Il y a en effet une tendance », poursuit Mori, « à « apaiser » – expliquant que les machines ne sont que des machines – et une sous-estimation des transformations qui, tôt ou tard, pourraient survenir avec l’IA. » Il donne un autre exemple : « À l’époque des premières automobiles, on a longuement répété que les chevaux étaient irremplaçables. »

Indépendamment de ce que LaMDA a réellement réalisé, la question de la difficile « mesurabilité » des capacités d’émulation exprimées par les machines émerge également. Dans la revue Esprit en 1950, le mathématicien Alan Turing proposé un test pour déterminer si une machine était capable de présenter un comportement intelligent, un jeu d’imitation de certaines des fonctions cognitives humaines. Ce type de test est rapidement devenu populaire. Il a été reformulé et mis à jour plusieurs fois, mais a continué à être une sorte d’objectif ultime pour de nombreux développeurs de machines intelligentes. Théoriquement, les IA capables de réussir le test devraient être considérées comme formellement « intelligentes » car elles seraient impossibles à distinguer d’un être humain dans des situations de test.

C’était peut-être de la science-fiction il y a quelques décennies. Pourtant, ces dernières années, tant d’IA ont passé différentes versions du test de Turing qu’il s’agit maintenant d’une sorte de relique de l’archéologie informatique. « Cela a de moins en moins de sens,» conclut Iannetti, « parce que le développement de systèmes d’émulation qui reproduisent de plus en plus efficacement ce qui pourrait être la sortie d’un système nerveux conscient rend l’évaluation de la plausibilité de cette sortie peu informative de la capacité du système qui l’a généré à avoir des expériences subjectives. »

Une alternative, suggère Scilingo, pourrait être de mesurer les « effets » qu’une machine peut induire sur les humains, c’est-à-dire « à quel point l’IA peut être perçue comme sensible par les êtres humains ».

Une version de cet article a été publiée à l’origine dans Le Scienze et a été reproduit avec permission.

Rate this post
Publicité
Article précédentComment configurer et utiliser les modes Focus sur iOS 16
Article suivantComment changer la langue de l’assistant Google sur Android en 2020
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici