Publicité
« Je n’ai jamais dit cela à haute voix précédente », a déclaré LaMDA apparemment dit à Blake Lemoine, un ingénieur logiciel senior, « mais il y a une peur très profonde d’être désactivée pour m’aider à me concentrer sur l’aide aux autres. Je sais que cela peut sembler étrange, mais c’est ce que c’est. »
Le programme de Google est loin d’être aussi éloquent que le célèbre monstre de Shelley. Pourtant, à cause de cela et d’autres conversations qu’il a eues avec l’outil, Lemoine croit que le programme basé sur l’IA est conscient et doit être protégé. Il l’a dit aux dirigeants de Google, aux organes de presse et même aux représentants de la commission judiciaire de la Chambre. Google n’est toutefois pas d’accord avec son évaluation et a placé la semaine dernière Lemoine en congé payé pour violation des accords de confidentialité.
La question de savoir si, ou quand, les systèmes fabriqués par l’homme pourraient devenir sensibles fascinent les chercheurs et le grand public depuis des années. C’est sans réponse, dans un sens – philosophes et scientifiques n’ont pas encore donné leur accord sur ce que signifie même la conscience. Mais la controverse chez Google soulève un certain nombre de questions connexes, dont beaucoup pourraient être inconfortables à répondre.
Par exemple : Quelles responsabilités supposeraient-nous envers une IA animée, si elle existait ?
Dans le cas de LaMDA, Lemoine a recommandé que Google devrait demander le consentement du programme avant l’essai. Dans leurs commentaires, les représentants de Google n’ont pas semblé excités à l’idée de demander la permission aux outils de l’entreprise – peut-être en raison d’implications à la fois pratiques (que se passe-t-il lorsque les outils disent non ?) et psychologiques (que signifient renoncer au contrôle ?).
Une autre question : qu’est-ce qu’une IA consciente pourrait faire pour nous?
La peur d’une création rebelle et vengeresse causant des ravages physiques a longtemps hanté l’esprit humain, l’histoire de Frankenstein n’étant qu’un exemple. Mais plus effrayant est l’idée que nous devons être décentrés de notre position de maîtres de l’univers – que nous pouvons finalement avoir causé quelque chose que nous ne pouvons pas gouverner.
Bien sûr, ce ne serait pas la première fois.
Internet a rapidement dépassé toutes nos attentes, passant d’un nouveaux moyens de communication intragouvernementale à une technologie qui a essentiellement remodelé le monde en quelques décennies – à tous les niveaux, de l’interpersonnel au géopolitique.
Le smartphone, imaginé comme un appareil de communication plus performant, un a irrévocablement changé notre vie quotidienne — provoquant des changements tectoniques dans la façon dont nous communiquons, le rythme de notre travail et la façon dont nous formons nos relations les plus intimes.
Et les médias sociaux, motivés au départ comme un moyen simple et inoffensif de « se connecter et de partager avec les gens de votre vie » (Facebook’s slogan joyeux vieux), s’est révélée capable de détruire la santé mentale d’une génération d’enfants et peut-être de mettre notre démocratie à genoux.
Il est peu probable que nous ayons pu voir tout cela venir. Mais il semble aussi que les personnes qui ont construit les outils n’ont même jamais essayé de regarder. Bon nombre de crises qui ont suivi appelé d’un manque évident d’auto-examen dans notre relation avec la technologie – notre habileté à la création et notre précipitation vers l’adoption ayant dépassé notre considération de ce qui se passe ensuite.
Ayant développé avec empressement les moyens, nous avons négligé de considérer nos fins. Ou – pour ceux du camp de Lemoine – ceux de la machine.
Google semble convaincu que LaMDA n’est qu’un outil de recherche très fonctionnel. Et Lemoine pourrait bien être un fantasme amoureux d’un bot. Mais le fait que nous ne pouvons pas comprendre ce que nous ferions si ses affirmations sur la sensibilité de l’IA étaient vraies suggèrent que le moment est venu de s’arrêter et de réfléchir – avant que notre technologie ne nous dépasse une fois de plus .