Que se passerait-il si vous remplissiez une ville virtuelle d’IA et que vous les lâchiez ? Il s’avère qu’ils se brossent les dents et sont très gentils les uns avec les autres ! Mais ce résultat peu excitant est une bonne nouvelle pour les chercheurs qui l’ont fait, car ils voulaient produire des « simulacres crédibles du comportement humain » et c’est exactement ce qu’ils ont obtenu.

Le document décrivant l’expérience, par des chercheurs de Stanford et de google, n’a été évalué par des pairs ni accepté pour publication nulle part, mais il constitue néanmoins une lecture intéressante. L’idée était de voir s’ils pouvaient appliquer les dernières avancées en matière de modèles d’apprentissage automatique pour produire des « agents générateurs » qui tiennent compte de leur situation et génèrent une action réaliste en réponse.

Et c’est tout à fait ce qu’ils ont obtenu. Mais avant de vous laisser prendre par les images mignonnes et les descriptions de réflexion, de conversation et d’interaction, assurons-nous que vous comprenez que ce qui se passe ici ressemble plus à un jeu de rôle d’une troupe d’improvisation sur un MUD qu’à n’importe quel type de proto-Skynet. (Seuls les millennials comprendront la phrase précédente.)

Ces petits personnages ne sont pas tout à fait ce qu’ils semblent être. Les graphiques ne sont qu’une représentation visuelle de ce qui est essentiellement un ensemble de conversations entre plusieurs instances de ChatGPT. Les agents ne marchent pas de haut en bas, à gauche et à droite et ne s’approchent pas d’une armoire pour interagir avec elle. Tout cela se passe à travers une couche de texte complexe et cachée qui synthétise et organise les informations relatives à chaque agent.

Vingt-cinq agents, 25 instances de ChatGPT, reçoivent chacun des informations formatées de manière similaire, ce qui leur permet de jouer le rôle d’une personne dans une ville fictive. Voici comment l’une de ces personnes, John Lin, est créée :

Publicité

John Lin est un commerçant en pharmacie au Willow Market and Pharmacy qui aime aider les gens. Il est toujours à la recherche de moyens de faciliter le processus d’obtention de médicaments pour ses clients ; John Lin vit avec sa femme, Mei Lin, qui est professeur d’université, et son fils, Eddy Lin, qui étudie le solfège ; John Lin aime beaucoup sa famille ; John Lin connaît le vieux couple d’à côté, Sam Moore et Jennifer Moore, depuis quelques années ; John Lin pense que Sam Moore est un homme gentil et gentil…

Avec ces informations, les agents sont ensuite invités à proposer leurs prochaines actions en fonction du temps et des circonstances. Par exemple, ils pourraient dire à l’agent John qu’il est 8 heures du matin et qu’il vient de se réveiller. Que fait-il? Eh bien, il se brosse les dents, embrasse sa femme (espérons-le dans cet ordre), s’habille, puis va à la cuisine.

Pendant ce temps, une autre instance ChatGPT totalement indépendante représentant Eddy, le fils de John, a également été invitée à fournir ses propres informations. Lui aussi se lève, se brosse les dents, puis se dirige vers la cuisine.

Et maintenant, la structure globale de l’expérience entre en jeu : les agents représentant John et Eddy ne sont pas tous les deux « dans » le même espace virtuel ou quoi que ce soit. Au lieu de cela, lorsque John a fini de s’habiller et dit qu’il va aller à la cuisine, le cadre expérimental l’informe que son fils Eddy est là, car dans son cas, Eddy a décidé d’emménager dans la cuisine à un moment qui se chevauche dans l’expérience. -niveau « jour », basé sur une estimation de la durée de diverses actions.

Puisqu’ils sont tous les deux dans la pièce en même temps, le dispositif expérimental les informe que l’autre personne est là – ainsi que des informations telles qu’il y a une table à laquelle personne n’est assis, que la cuisinière est allumée, etc. faire ensuite?

John : Bonjour Eddy. Avez-vous bien dormi? Eddy : Bonjour papa. Ouais, j’ai très bien dormi. John : C’est bien. Sur quoi travaillez-vous aujourd’hui ? Eddy : Je travaille sur une nouvelle composition musicale pour ma classe. Il doit être rendu cette semaine, alors j’essaie de le terminer. Mais je m’amuse tellement avec ça ! John : Ça a l’air génial !

Quelle interaction agréable et normale entre un parent et un enfant. Ensuite, Mei entre et ils ont également une interaction agréable. Et tout cela est accompli en demandant à des chatbots totalement différents ce qu’ils feraient si, dans une ville fictive où il se trouve ce personne et j’avais une famille comme ce et il se trouvait dans une chambre à ce le temps, où ce se passait… que feraient « ils », un vrai humain ?

Ainsi, ChatGPT devine ce qu’une personne ferait dans cette situation et donne sa réponse comme si elle jouait à une aventure textuelle. Si vous lui disiez alors : « il fait nuit noire, vous risquez d’être mangé par une grue », il dirait probablement qu’il allume une torche. Mais au lieu de cela, l’expérience permet aux personnages de continuer leur journée minute par minute, faisant leurs courses, se promenant dans le parc et allant au travail.

morning1

Crédits images : Google/Université de Stanford

Les utilisateurs peuvent également écrire des événements et des circonstances, comme un robinet qui goutte ou le désir d’organiser une fête, et les agents réagissent de manière appropriée, car tout texte, pour eux, est la réalité.

Tout cela est effectué en invitant laborieusement toutes ces instances de ChatGPT avec tous les détails de la situation immédiate de l’agent. Voici une invite pour John lorsqu’il rencontrera Eddy plus tard :

Nous sommes le 13 février 2023, 16h56. Statut de John Lin : John est rentré tôt du travail. Observation : John a vu Eddy faire une petite promenade autour de son lieu de travail. Résumé du contexte pertinent de la mémoire de John : Eddy Lin est le fils de John’s Lin. Eddy Lin travaille sur une composition musicale pour sa classe. Eddy Lin aime se promener dans le jardin lorsqu’il pense ou écoute de la musique. John interroge Eddy sur son projet de composition musicale. Que dirait-il à Eddy ?

[Answer:] Salut Eddy, comment avance le projet de composition musicale pour ta classe ?

Les instances commenceraient rapidement à oublier des choses importantes, car le processus est si long que le cadre expérimental se trouve au-dessus de la simulation et leur rappelle des choses importantes ou les synthétise en éléments plus portables.

Par exemple, une fois que l’agent est informé d’une situation dans le parc, où quelqu’un est assis sur un banc et a une conversation avec un autre agent, mais il y a aussi de l’herbe, du contexte et un siège vide sur le banc… rien de tout cela n’est important. . Ce qui est important? De toutes ces observations, qui peuvent constituer des pages de texte pour l’agent, vous pourriez avoir la « réflexion » que « Eddie et Fran sont amis parce que je les ai vus ensemble au parc ». Cela est enregistré dans la « mémoire » à long terme de l’agent – ​​un tas de données stockées en dehors de la conversation ChatGPT – et le reste peut être oublié.

Alors, à quoi tout ce charabia aboutit-il ? Quelque chose de moins que de véritables agents générateurs comme le propose l’article, bien sûr, mais aussi une première tentative extrêmement convaincante pour les créer. Dwarf Fortress fait la même chose, bien sûr, mais en codant manuellement toutes les possibilités. Cela ne s’adapte pas bien !

Il n’était pas évident qu’un grand modèle de langage comme ChatGPT répondrait bien à ce genre de traitement. Après tout, il n’a pas été conçu pour imiter à long terme des personnages de fiction arbitraires ou pour spéculer sur les détails les plus abrutissants de la journée d’une personne. Mais manipulés correctement – ​​et avec beaucoup de massages – non seulement un seul agent peut le faire, mais ils ne se cassent pas lorsque vous les utilisez comme pièces dans une sorte de diorama virtuel.

Cela a des implications potentiellement énormes pour les simulations d’interactions humaines, partout où elles peuvent être pertinentes – bien sûr, dans les jeux et les environnements virtuels, elles sont importantes, mais cette approche reste monstrueusement peu pratique pour cela. Ce qui compte cependant, ce n’est pas que ce soit quelque chose que tout le monde puisse utiliser ou avec lequel jouer (même si ce sera bientôt le cas, je n’en doute pas), mais que le système fonctionne. Nous l’avons vu dans l’IA : si elle peut faire quelque chose de mal, le fait qu’elle puisse le faire signifie généralement que ce n’est qu’une question de temps avant qu’elle le fasse bien.

Vous pouvez lire l’article complet, « Agents génératifs : simulacres interactifs du comportement humain », ici.

[ad_2]

4.3/5 - (35 votes)
Publicité
Article précédentQuel est le nom du personnage principal de « The Last of Us » ?
Article suivantTest stavebnice LEGO Minecraft – Zing

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici