Nous assistons maintenant à un tournant pour l’intelligence artificielle, car une plus grande partie de celle-ci descend des nuages vers nos smartphones et nos automobiles. Bien qu’il soit juste de dire que l’IA qui vit à la périphérie – où vous et moi sommes – est encore beaucoup moins puissante que son homologue basée sur les centres de données, elle est potentiellement beaucoup plus significative pour notre vie quotidienne.
Un exemple clé : cet automne, l’assistant Siri d’Apple commencera à traiter la voix sur les iPhones. À l’heure actuelle, même votre demande de réglage d’une minuterie est envoyée sous forme d’enregistrement audio au cloud, où elle est traitée, déclenchant une réponse qui est renvoyée au téléphone. En traitant la voix au téléphone, dit Apple, Siri répondra plus rapidement. Cela ne fonctionnera que sur l’iPhone XS et les modèles plus récents, qui ont un processeur compatible intégré à l’IA qu’Apple appelle un « moteur neuronal ». endroits lointains.
Google a en fait ouvert la voie avec le traitement sur téléphone : en 2019, il a introduit un téléphone Pixel qui pouvait transcrire la parole en texte et effectuer d’autres tâches sans aucune connexion au cloud. L’une des raisons pour lesquelles Google a décidé de créer ses propres téléphones était que l’entreprise voyait un potentiel dans la création de matériel personnalisé sur mesure pour exécuter l’IA, explique Brian Rakowski, chef de produit du groupe Pixel chez Google.
Ces appareils dits périphériques peuvent être à peu près n’importe quoi avec une micropuce et de la mémoire, mais ils ont tendance à être les plus récents et les plus sophistiqués des smartphones, automobiles, drones, appareils ménagers et capteurs et actionneurs industriels. Edge AI a le potentiel de tenir certaines des promesses longtemps retardées de l’IA, comme des assistants intelligents plus réactifs, de meilleurs systèmes de sécurité automobile, de nouveaux types de robots, voire des machines militaires autonomes.
Les défis de faire fonctionner l’IA à la périphérie, c’est-à-dire de la rendre suffisamment fiable pour faire son travail, puis de justifier la complexité et les dépenses supplémentaires liées à son intégration dans nos appareils, sont monumentaux. L’IA existante peut être inflexible, facilement bernée, peu fiable et biaisée. Dans le cloud, il peut être entraîné à la volée pour s’améliorer. Pensez à la façon dont Alexa s’améliore au fil du temps. Lorsqu’il se trouve dans un appareil, il doit être pré-formé et mis à jour périodiquement. Pourtant, les améliorations apportées à la technologie des puces ces dernières années ont permis de réelles percées dans la façon dont nous expérimentons l’IA, et la demande commerciale pour ce type de fonctionnalité est élevée.
Des épées aux socs
Shield AI, un sous-traitant du ministère de la Défense, a mis beaucoup d’IA dans des drones de style quadricoptère qui ont déjà effectué et continuent d’être utilisés dans des missions de combat dans le monde réel. Une mission est d’aider les soldats à rechercher des combattants ennemis dans les bâtiments qui doivent être nettoyés. Le DoD a été impatient d’utiliser les drones de l’entreprise, explique le cofondateur de Shield AI, Brandon Tseng, car même s’ils échouent, ils peuvent être utilisés pour réduire les pertes humaines.
« En 2016 et début 2017, nous avions des premiers prototypes avec quelque chose comme 75% de fiabilité, quelque chose que vous ne mettriez jamais sur le marché, et le DoD disait: » Nous allons l’emmener à l’étranger et l’utiliser au combat dès maintenant « », a déclaré M. Quand il a protesté que le système n’était pas prêt, la réponse de l’intérieur de l’armée était que tout était mieux que des soldats qui franchissaient une porte et se faisaient tirer dessus.
Dans une zone de combat, vous ne pouvez pas compter sur une connexion cloud sans fil rapide et robuste, surtout maintenant que les ennemis brouillent souvent les communications sans fil et les signaux GPS. En mission, le traitement et la reconnaissance d’images doivent se faire sur les drones de l’entreprise eux-mêmes.
Shield AI utilise un petit ordinateur efficace fabriqué par Nvidia, conçu pour exécuter l’IA sur des appareils, pour créer un drone quadricoptère pas plus gros qu’un modèle grand public typique utilisant une caméra. Le Nova 2 peut voler assez longtemps pour entrer dans un bâtiment et utiliser l’IA pour reconnaître et examiner des dizaines de couloirs, d’escaliers et de pièces, en cataloguant les objets et les personnes qu’il voit sur son chemin.
Pendant ce temps, dans la ville de Salinas, en Californie, lieu de naissance de l’auteur de « Les raisins de la colère » John Steinbeck et un centre agricole à ce jour, un robot de la taille d’un SUV passe la saison de croissance de cette année à ratisser la terre avec ses 12 bras robotiques Fabriqué par FarmWise Labs Inc., le robot se déplace le long des champs de céleri comme s’il s’agissait de n’importe quel autre tracteur. Sous son enveloppe métallique, il utilise la vision par ordinateur et un système d’intelligence artificielle pour décider, en moins d’une seconde, si une plante est une culture vivrière ou une mauvaise herbe, et dirige ses griffes en forme de charrue pour éviter ou éradiquer la plante en conséquence.
L’énorme robo-désherbeur diesel de FarmWise peut générer sa propre électricité, ce qui lui permet de transporter la puissance de traitement d’un véritable superordinateur : quatre GPU et 16 CPU qui consomment ensemble 500 watts d’électricité.
Dans notre vie de tous les jours, des choses comme la transcription vocale qui fonctionne, que nous ayons ou non une connexion, ou à quel point elle est bonne, pourraient signifier des changements dans la façon dont nous préférons interagir avec nos appareils mobiles. Obtenir une transcription vocale toujours disponible pour fonctionner sur le téléphone Pixel de Google « a nécessité de nombreuses percées pour fonctionner sur le téléphone ainsi que sur un serveur distant », explique M. Rakowski.
Google dispose de ressources presque illimitées pour expérimenter l’IA dans le cloud, mais obtenir ces mêmes algorithmes, pour tout, de la transcription vocale et la gestion de l’alimentation à la traduction en temps réel et au traitement d’images, pour fonctionner sur les téléphones a nécessité l’introduction de microprocesseurs personnalisés comme le Pixel Neural Core, ajoute M. Rakowski.
Transformer les chats en maths pures
Ce que presque tous les systèmes d’IA de pointe ont en commun, c’est que, en tant qu’IA pré-entraînée, ils n’effectuent qu’une « inférence », explique Dennis Laudick, vice-président du marketing pour l’IA et l’apprentissage automatique chez Arm Holdings, qui autorise les conceptions de puces et les instructions pour des entreprises telles que Apple, Samsung, Qualcomm, Nvidia et autres.
D’une manière générale, l’IA par apprentissage automatique se compose de quatre phases :
Les données sont capturées ou collectées : disons, par exemple, sous la forme de millions d’images de chats.
Les humains étiquettent les données : Oui, ce sont des photos de chats.
L’IA est entraînée avec les données étiquetées : ce processus sélectionne des modèles qui identifient les chats.
Ensuite, la pile de code résultante est transformée en un algorithme et implémentée dans un logiciel : voici une application de caméra pour les amoureux des chats !
(Remarque : si cela n’existe pas encore, considérez-le comme votre idée du jour à un million de dollars.)
La dernière étape du processus, quelque chose comme ce logiciel d’identification de chat, est la phase d’inférence. Le logiciel de nombreuses caméras de surveillance intelligentes, par exemple, effectue des inférences, explique Eric Goodness, vice-président de la recherche au sein de la société de conseil en technologie Gartner. Ces systèmes peuvent déjà identifier le nombre de clients dans le restaurant, si certains ont un comportement indésirable ou si les frites sont restées trop longtemps dans la friteuse.
Ce ne sont que des fonctions mathématiques, si compliquées qu’il faudrait un effort monumental de la part des humains pour les écrire, mais que les systèmes d’apprentissage automatique peuvent créer lorsqu’ils sont entraînés sur suffisamment de données.
Les pièges du robot
Bien que toute cette technologie soit très prometteuse, faire fonctionner l’IA sur des appareils individuels, qu’ils puissent ou non se connecter au cloud, s’accompagne d’un ensemble de défis de taille, explique Elisa Bertino, professeur d’informatique à l’Université Purdue.
L’IA moderne, qui est principalement utilisée pour reconnaître les modèles, peut avoir des difficultés à gérer les entrées en dehors des données sur lesquelles elle a été formée. Opérer dans le monde réel ne fait que rendre les choses plus difficiles – il suffit de considérer l’exemple classique d’une Tesla qui freine lorsqu’elle voit un panneau d’arrêt sur un panneau d’affichage.
Pour rendre les systèmes d’IA de périphérie plus compétents, un périphérique de périphérie peut collecter des données, puis s’associer à un autre périphérique plus puissant, capable d’intégrer les données de divers capteurs, explique le Dr Bertino. Si vous portez une montre connectée avec un moniteur de fréquence cardiaque, vous en êtes déjà témoin : l’IA de bord de la montre pré-traite le signal faible de votre fréquence cardiaque, puis transmet ces données à votre smartphone, qui peut analyser davantage ces données. – qu’il soit connecté ou non à Internet.
L’écrasante majorité des algorithmes d’IA sont encore formés dans le cloud. Ils peuvent également être recyclés en utilisant des données plus nombreuses ou plus récentes, ce qui leur permet de s’améliorer continuellement. Plus tard, dit M. Goodness, les systèmes d’IA de pointe commenceront à apprendre par eux-mêmes, c’est-à-dire qu’ils deviendront suffisamment puissants pour aller au-delà de l’inférence et collecter des données et les utiliser pour former leurs propres algorithmes.
L’IA qui peut apprendre toute seule, sans connexion à une superintelligence cloud, pourrait éventuellement soulever des défis juridiques et éthiques. Comment une entreprise peut-elle certifier un algorithme qui a évolué dans le monde réel pendant des années après sa sortie initiale, demande le Dr Bertino. Et dans les guerres futures, qui sera prêt à laisser ses robots décider quand appuyer sur la gâchette ? Celui qui le fait pourrait se retrouver avec un avantage, mais aussi tous les dommages collatéraux qui se produisent lorsque, inévitablement, l’IA commet des erreurs.
Cette histoire a été publiée à partir d’un fil d’alimentation sans modification du texte
Ne manquez jamais une histoire ! Restez connecté et informé avec Mint.
Télécharger
notre application maintenant !!
.