Lorsque Rodney Brooks parle de robotique et d’intelligence artificielle, vous devriez écouter. Actuellement professeur émérite de robotique Panasonic au MIT, il a également cofondé trois entreprises clés, dont Rethink Robotics, iRobot et son entreprise actuelle, Robust.ai. Brooks a également dirigé le laboratoire d’informatique et d’intelligence artificielle du MIT (CSAIL) pendant une décennie à partir de 1997.
En fait, il aime faire des prédictions sur l’avenir de l’IA et Conserve une carte de pointage sur son blog de la façon dont il se débrouille.
Il sait de quoi il parle, et il pense qu’il est peut-être temps de mettre un frein au battage médiatique hurlant qu’est l’IA générative. Brooks pense que c’est une technologie impressionnante, mais peut-être pas aussi performante que beaucoup le suggèrent. « Je ne dis pas que les LLM ne sont pas importants, mais nous devons être prudents [with] comment nous les évaluons », a-t-il déclaré à TechCrunch.
Selon lui, le problème avec l’IA générative est que, bien qu’elle soit parfaitement capable d’effectuer un certain ensemble de tâches, elle ne peut pas faire tout ce qu’un humain peut faire, et les humains ont tendance à surestimer ses capacités. « Lorsqu’un humain voit un système d’IA effectuer une tâche, il la généralise immédiatement à des choses similaires et fait une estimation de la compétence du système d’IA ; pas seulement la performance à ce sujet, mais la compétence à cet égard », a déclaré Brooks. « Et ils sont généralement très optimistes, et c’est parce qu’ils utilisent un modèle de performance d’une personne sur une tâche. »
Il a ajouté que le problème est que l’IA générative n’est pas humaine ou même humaine, et qu’il est erroné d’essayer de lui attribuer des capacités humaines. Il dit que les gens le considèrent comme si performant qu’ils veulent même l’utiliser pour des applications qui n’ont pas de sens.
Brooks cite sa dernière entreprise, Robust.ai, un système robotique d’entrepôt, comme exemple. Quelqu’un lui a suggéré récemment qu’il serait cool et efficace de dire à ses robots d’entrepôt où aller en construisant un LLM pour son système. Selon lui, cependant, ce n’est pas un cas d’utilisation raisonnable pour l’IA générative et ralentirait en fait les choses. Il est plutôt beaucoup plus simple de connecter les robots à un flux de données provenant du logiciel de gestion d’entrepôt.
« Lorsque vous avez 10 000 commandes qui viennent d’arriver et que vous devez expédier en deux heures, vous devez optimiser pour cela. La langue ne va pas aider ; cela va juste ralentir les choses », a-t-il déclaré. « Nous avons des techniques et une planification massives de traitement des données et d’optimisation de l’IA. Et c’est ainsi que nous terminons les commandes rapidement.
Une autre leçon que Brooks a apprise en ce qui concerne les robots et l’IA est que vous ne pouvez pas essayer d’en faire trop. Vous devez résoudre un problème soluble où les robots peuvent être intégrés facilement.
« Nous devons automatiser les endroits où les choses ont déjà été nettoyées. L’exemple de mon entreprise est que nous nous débrouillons plutôt bien dans les entrepôts, et les entrepôts sont en fait assez limités. L’éclairage ne change pas avec ces grands bâtiments. Il n’y a rien qui traîne sur le sol parce que les gens qui poussent des chariots se heurteraient à ça. Il n’y a pas de sacs en plastique flottants qui circulent. Et en grande partie, ce n’est pas dans l’intérêt des gens qui y travaillent d’être malveillants envers le robot », a-t-il déclaré.
Brooks explique qu’il s’agit également de robots et d’humains travaillant ensemble, de sorte que son entreprise a conçu ces robots à des fins pratiques liées aux opérations d’entrepôt, par opposition à la construction d’un robot d’apparence humaine. Dans ce cas, cela ressemble à un chariot avec une poignée.
« Donc, le facteur de forme que nous utilisons n’est pas des humanoïdes qui se promènent – même si j’ai construit et livré plus d’humanoïdes que n’importe qui d’autre. Cela ressemble à des caddies », a-t-il déclaré. « Il a un guidon, donc s’il y a un problème avec le robot, une personne peut saisir le guidon et en faire ce qu’elle veut », a-t-il déclaré.
Après toutes ces années, Brooks a appris qu’il s’agit de rendre la technologie accessible et conçue sur mesure. « J’essaie toujours de rendre la technologie facile à comprendre pour les gens, et donc nous pouvons la déployer à grande échelle, et toujours examiner l’analyse de rentabilisation ; Le retour sur investissement est également très important.
Même avec cela, Brooks dit que nous devons accepter qu’il y aura toujours des cas aberrants difficiles à résoudre en matière d’IA, qui pourraient prendre des décennies à résoudre. « Sans soigneusement enfermer dans la façon dont un système d’IA est déployé, il y a toujours une longue traîne de cas spéciaux qui prennent des décennies à découvrir et à résoudre. Paradoxalement, toutes ces corrections sont complètes par l’IA. »
Brooks ajoute qu’il y a cette croyance erronée, principalement grâce à Loi de Moore, qu’il y aura toujours une croissance exponentielle en matière de technologie – l’idée que si ChatGPT 4 est aussi bon, je le feraiSavoir à quoi ressembleront ChatGPT 5, 6 et 7. Il voit cette faille dans cette logique, que la technologie ne croît pas toujours de manière exponentielle, malgré la loi de Moore.
Il utilise l’iPod comme exemple. Pour quelques itérations, il a en fait doublé en taille de stockage, passant de 10 à 160 Go. Si cela avait continué sur cette trajectoire, il a compris que nous aurions un iPod avec 160 To de stockage d’ici 2017, mais bien sûr nous ne l’avons pas fait. Les modèles vendus en 2017 étaient en fait livrés avec 256 Go ou 160 Go car, comme il l’a souligné, personne n’avait besoin de plus que cela.
Brooks reconnaît que les LLM pourraient aider à un moment donné avec des robots domestiques, où ils pourraient effectuer des tâches spécifiques, en particulier avec une population vieillissante et pas assez de personnes pour s’en occuper. Mais même cela, dit-il, pourrait s’accompagner de son propre ensemble de défis uniques.
« Les gens disent : « Oh, les grands modèles de langage vont permettre aux robots de faire des choses qu’ils ne pourraient pas faire. » Le problème avec la capacité de faire des choses concerne la théorie du contrôle et toutes sortes d’autres optimisations mathématiques hardcore », a-t-il déclaré.
Brooks explique que cela pourrait éventuellement conduire à des robots dotés d’interfaces linguistiques utiles pour les personnes en situation de soins. « Ce n’est pas utile dans l’entrepôt de dire à un robot individuel de sortir et d’aller chercher une chose pour une commande, mais cela peut être utile pour les soins aux personnes âgées dans les maisons de retraite pour que les gens puissent dire des choses aux robots », a-t-il déclaré.