L’intelligence artificielle est une part importante des activités de Google et, lors de la conférence I / O de cette année, la société a souligné son travail avec la compréhension du langage de l’IA. La star du spectacle était un modèle expérimental appelé LaMDA, qui, selon Google, pourrait un jour augmenter la capacité de ses assistants d’IA conversationnels et permettre des conversations plus naturelles.

“C’est vraiment impressionnant de voir comment LaMDA peut mener une conversation sur n’importe quel sujet”, a déclaré Sundar Pichai, PDG de Google, lors de la présentation. «C’est incroyable à quel point la conversation est sensée et intéressante. Mais ce sont encore des recherches préliminaires, donc tout ne va pas bien. »

Pour démontrer les capacités de LaMDA, la société a montré des vidéos de deux courtes conversations menées avec le modèle. Dans le premier, LaMDA a répondu aux questions en se faisant passer pour Pluton, et dans le second, il remplaçait un avion en papier. Comme l’a noté Pichai, le modèle a pu se référer à des faits et événements concrets tout au long de la conversation, comme la sonde New Horizons. qui a visité Pluton en 2015. (Pour une raison étrange, Pichai et LaMDA-Pluton ont fait référence à tort à Pluton comme étant une planète! C’est, bien sûr, une planète naine.)

Vous pouvez voir les conversations ci-dessus et ci-dessous:

Les démos sont certainement assez impressionnantes! Sans apparemment aucune formation spécifique au domaine au préalable, LaMDA a pu parler du point de vue de deux objets très disparates. C’est le pain et le beurre de Google dans le monde de l’IA, cependant, où il repousse les limites de la compréhension des langues et de la génération depuis un certain temps. Plus particulièrement, il a été le fer de lance de l’utilisation d’une technique d’apprentissage automatique connue sous le nom de transformateurs, qui sont exceptionnels dans la gestion du langage et sous-tendent le travail de concurrents comme GPT-3 d’OpenAI.

Mais à quoi ça sert d’avoir une conversation avec une machine? Comme Pichai l’a noté sur scène, une grande partie du travail d’IA de Google consiste à récupérer des informations, que ce soit en traduisant d’autres langues ou en comprenant ce que les utilisateurs veulent dire lorsqu’ils recherchent sur le Web. Si Google peut amener l’IA à mieux comprendre le langage, il peut améliorer ses produits de base. Il peut transformer la recherche ou même l’utilisation de votre téléphone en une conversation – quelque chose de naturel et fluide.

Mais c’est vraiment un travail difficile. Comme l’a noté Pichai: «La langue est infiniment complexe. Nous l’utilisons pour raconter des histoires, faire des blagues et partager des idées. […] La richesse et la flexibilité du langage en font l’un des plus grands outils de l’humanité et l’un des plus grands défis de l’informatique.

Un point notable de la présentation, cependant, était l’accent mis par Google pour s’assurer que LaMDA adhère à ses Principes de l’IA: c’est-à-dire en s’assurant qu’il est socialement bénéfique, évite les préjugés, etc. C’est un territoire étrange pour Google de vanter son expertise en ce moment, après que la société a licencié deux de ses plus éminents chercheurs en éthique de l’IA, Timnit Gebru et Margaret Mitchell.

L’histoire de leur licenciement est compliquée, mais dépend de la réception d’un document de recherche rédigés par le duo (avec d’autres collaborateurs) sur les dangers posés par ces types exacts de modèles de langage. Rien de tout cela n’a même été évoqué sur scène. Il semble que même si les retombées de cet événement n’a pas encore baissé, Google est trop fixé sur son avenir avec l’IA pour répondre de front à ces préoccupations.

En rapport:

Leave a Reply