Google utilise l’apprentissage automatique pour concevoir sa prochaine génération de puces d’apprentissage automatique. Les conceptions de l’algorithme sont « comparables ou supérieures » à celles créées par les humains, disent les ingénieurs de Google, mais peuvent être générées beaucoup, beaucoup plus rapidement. Selon le géant de la technologie, un travail qui prend des mois pour les humains peut être accompli par l’IA en moins de six heures.

Google a travaillé sur la façon d’utiliser l’apprentissage automatique pour créer des puces pendant des années, mais cet effort récent — décrit cette semaine dans un article de la revue Naturesemble être la première fois que ses recherches sont appliquées à un produit commercial : une prochaine version du propre TPU de Google (unité de traitement des tenseurs), qui sont optimisées pour le calcul de l’IA.

« Notre méthode a été utilisée en production pour concevoir la prochaine génération de Google TPU », écrivent les auteurs de l’article, dirigé par Azalia Mirhoseini, responsable du ML pour les systèmes de Google.

L’IA, en d’autres termes, contribue à accélérer l’avenir du développement de l’IA.

Dans le document, les ingénieurs de Google notent que ce travail a des « implications majeures » pour l’industrie des puces. Cela devrait permettre aux entreprises d’explorer plus rapidement l’espace d’architecture possible pour les conceptions à venir et de personnaliser plus facilement les puces pour des charges de travail spécifiques.

Publicité

Un éditorial dans Naturequalifie la recherche de « réalisation importante » et note qu’un tel travail pourrait aider à compenser la fin prévue de la loi de Moore – un axiome de conception de puces des années 1970 qui stipule que le nombre de transistors sur une puce double tous les deux ans. L’IA ne résoudra pas nécessairement le défis physiques de serrer de plus en plus de transistors sur des puces, mais cela pourrait aider à trouver d’autres moyens d’augmenter les performances au même rythme.

Tpu Person Forwebonly Final

Les puces TPU de Google sont proposées dans le cadre de ses services cloud et utilisées en interne pour la recherche sur l’IA.
Photo : Google

La tâche spécifique que les algorithmes de Google ont abordée est connue sous le nom de « floorplanning ». Cela nécessite généralement des concepteurs humains qui travaillent à l’aide d’outils informatiques pour trouver la disposition optimale sur une puce en silicium pour les sous-systèmes d’une puce. Ces composants incluent des éléments tels que des processeurs, des processeurs graphiques et des cœurs de mémoire, qui sont connectés ensemble à l’aide de dizaines de kilomètres de câblage minuscule. Décider où placer chaque composant sur une matrice affecte la vitesse et l’efficacité éventuelle de la puce. Et, étant donné à la fois l’échelle de fabrication des puces et les cycles de calcul, les changements nanométriques dans le placement peuvent finir par avoir des effets énormes.

Les ingénieurs de Google notent que la conception de plans d’étage prend « des mois d’efforts intenses » pour les humains, mais, du point de vue de l’apprentissage automatique, il existe une façon familière de résoudre ce problème : comme un jeu.

L’IA a fait ses preuves maintes et maintes fois il peut surpasser les humains dans des jeux de société comme les échecs et le go, et les ingénieurs de Google notent que la planification d’étage est analogue à de tels défis. Au lieu d’un plateau de jeu, vous avez un dé en silicone. Au lieu de pièces comme les chevaliers et les tours, vous avez des composants comme les processeurs et les GPU. La tâche consiste donc simplement à trouver les « conditions de victoire » de chaque tableau. Aux échecs, cela pourrait être un échec et mat, dans la conception de puces, c’est l’efficacité de calcul.

Les ingénieurs de Google ont formé un algorithme d’apprentissage par renforcement sur un ensemble de données de 10 000 plans d’étage de puces de qualité variable, dont certains avaient été générés de manière aléatoire. Chaque conception a été étiquetée avec une fonction de « récompense » spécifique en fonction de son succès sur différentes mesures telles que la longueur de fil requise et la consommation d’énergie. L’algorithme a ensuite utilisé ces données pour faire la distinction entre les bons et les mauvais plans d’étage et générer à son tour ses propres conceptions.

Comme nous l’avons vu lorsque les systèmes d’IA affrontent les humains dans les jeux de société, les machines ne pensent pas nécessairement comme les humains et arrivent souvent à des solutions inattendues à des problèmes familiers. Lorsque AlphaGo de DeepMind a joué le champion humain Lee Sedol à Go, cette dynamique a conduit au tristement célèbre « déplacer 37 » – un placement de pièce apparemment illogique par l’IA qui a néanmoins conduit à la victoire.

Rien d’aussi dramatique ne s’est produit avec l’algorithme de conception de puces de Google, mais ses plans d’étage sont néanmoins très différents de ceux créés par un humain. Au lieu de rangées ordonnées de composants disposés sur la puce, les sous-systèmes semblent avoir presque été dispersés au hasard sur le silicium. Un illustration de Nature montre la différence, avec la conception humaine à gauche et la conception d’apprentissage automatique à droite. Vous pouvez également voir la différence générale entre l’image ci-dessous et le papier de Google (humains ordonnés à gauche ; IA brouillée à droite), bien que la mise en page ait été floue car elle est confidentielle :

Screen Shot 2021 06 10 At 1.10.40 Pm

Un plan d’étage de puce conçu par l’homme se trouve sur la gauche et le plan d’étage conçu par l’IA sur la droite. Les images ont été floutées par les auteurs de l’article car elles représentent des conceptions confidentielles.
Image : Mirhoseini, A. et al.

Ce document est remarquable, en particulier parce que ses recherches sont maintenant utilisées commercialement par Google. Mais c’est loin d’être le seul aspect de la conception de puces assistée par IA. Google lui-même a exploré l’utilisation de l’IA dans d’autres parties du processus comme « découverte de l’architecture« , et des concurrents comme Nvidia étudient d’autres méthodes pour accélérer le flux de travail. Le cercle vertueux de la conception de puces d’IA pour l’IA semble ne faire que commencer.

Rate this post
Publicité
Article précédent2021 Apps Up | Catherine Chen de Huawei: les étoiles brillantes ne s’éteindront jamais tant que nous avançons épaule contre épaule
Article suivantBungie pourrait tester des environnements destructibles pour Destiny 2
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici