Quelque chose à espérer: Intel a fait un certain nombre de révélations intrigantes et de proclamations audacieuses lors de la journée des analystes d’Intel la semaine dernière, soulignant comment il voit son avenir évoluer. Ce qui a rendu les informations encore plus intrigantes – et franchement, plus convaincantes – c’est qu’ils l’ont fait tout en offrant un niveau rafraîchissant d’honnêteté et de transparence sur les défis auxquels ils ont été confrontés.

Bien que les informations sur les retards de fabrication à la fois sur leurs nœuds de processus 10 nm et 7 nm ne soient pas nouvelles, les défis concurrentiels auxquels ils sont confrontés avec AMD, les architectures Arm et d’autres sont bien connus, leurs réponses semblent nouvelles.

Depuis le PDG Bob Swan, la manière avec laquelle les dirigeants d’Intel ont parlé de ces problèmes a montré clairement qu’ils les ont non seulement acceptés, mais qu’ils ont développé des stratégies pour les surmonter.

Sur le front de la fabrication, malgré les appels de certains dans l’industrie à se retirer de la fabrication de puces ou, du moins, les préoccupations concernant la fiabilité ou la stabilité de cette partie de leur entreprise, les dirigeants de l’entreprise ont été extrêmement clairs: ils n’ont absolument aucune intention de déménager. loin d’être un IDM (Integrated Device Manufacturer) qui à la fois conçoit et construit ses propres puces. Et oui, ils savent qu’ils doivent regagner une partie de la confiance qu’ils ont perdue après avoir perdu leur avance de longue date en tant que champions des processus de fabrication.

Cependant, des annonces récentes sur des améliorations fondamentales des transistors ainsi que sur des technologies innovantes de conditionnement de puces, associées à leur longue histoire d’efforts et d’innovation dans ces domaines, leur donnent l’assurance de pouvoir rivaliser et même gagner (voir « Les progrès de la puce Intel montrent qu’ils sont prêts pour un défi compétitif”).

« Intel a clairement indiqué que les processeurs continueraient d’être leur objectif principal, mais ils intensifient considérablement leurs efforts sur les GPU avec leur gamme Xe »

Publicité

La stratégie matérielle de base de la puce se concentre sur deux éléments clés. Ils appellent le premier la désagrégation, c’est-à-dire la décomposition de plus grandes conceptions de puces monolithiques en une variété de puces plus petites connectées entre elles via des liaisons à haut débit et regroupées avec une variété de technologies différentes.

Le second est appelé de manière générique XPU, mais signifie essentiellement une diversification des architectures de puces centrales, avec un support beaucoup plus important pour des conceptions de silicium «accélérateurs» plus spécialisées. Encore une fois, Intel a clairement indiqué que les processeurs continueraient d’être leur objectif principal, mais ils intensifient considérablement leurs efforts sur les GPU avec leur gamme Xe, ainsi que sur divers types d’accélérateurs d’IA, en particulier ceux issus de son acquisition de Habana, et sur FPGA, comme sa gamme Stratix.

Bien qu’ils soient tous intéressants et importants en eux-mêmes, c’est leur capacité à potentiellement travailler ensemble là où se trouve la véritable opportunité. Dans une présentation du SVP et de l’architecte en chef Raja Koduri, la société a démontré à quel point les divers types d’analyse de données dépassent considérablement les trajectoires actuelles des conceptions de CPU existantes. C’est pourquoi différents types d’architectures de puces dotées de capacités spécialisées mieux adaptées à certains aspects de ces tâches informatiques sont si critiques, d’où la nécessité d’une plus grande variété.

2020 12 15 Image 28

La vraie magie, cependant, ne peut se produire qu’avec des logiciels qui les unissent tous et c’est là que l’oneAPI d’Intel s’inscrit. Initialement annoncé il y a deux ans, oneAPI est un modèle de programmation unifié ouvert, basé sur des normes, conçu pour faciliter la tâche des développeurs. être capable d’écrire des logiciels qui peuvent tirer parti de toutes les capacités uniques de ces différentes architectures de puces. De manière critique, il le fait sans qu’il soit nécessaire de savoir comment écrire spécifiquement du code personnalisé pour eux. Ceci est absolument essentiel car il existe un ensemble très limité de développeurs qui peuvent écrire des logiciels pour chacun de ces différents accélérateurs, sans parler de tous ces différents types de puces.

La société atteint cette capacité importante en fournissant une couche d’abstraction matérielle et un ensemble d’outils de développement logiciel qui font le travail incroyablement difficile de déterminer quels bits de code peuvent fonctionner le plus efficacement sur chacune des différentes puces (ou, au moins, sur chacune des les composants disponibles dans un système donné). C’est un objectif ambitieux, il n’est donc pas surprenant qu’il ait fallu un certain temps pour se concrétiser, mais lors de l’événement Analyst Event la semaine dernière, Intel a annoncé avoir commencé à expédier la boîte à outils oneAPI de base avec plusieurs autres options spécialisées pour les applications. comme HPC (High Performance Computing), AI, IoT et Rendering. Cela marque un pas en avant dans l’évolution de la stratégie logicielle d’Intel qui prendra un certain temps à se déployer pleinement, mais montre qu’ils donnent vie à cette vision audacieuse.

« Il est clair qu’Intel va de l’avant avec sa stratégie d’unification de son ensemble de plus en plus diversifié d’architectures de puces via une plate-forme logicielle unifiée unique »

Tout aussi intéressante était une explication de la façon dont Intel fait fonctionner cette technologie interarchitecture apparemment magique. Fondamentalement, la société applique certains des mêmes principes et enseignements tirés de son expérience avec l’ajout d’extensions d’instructions pour les processeurs (tels que AVX, AVX-512, etc.) à des architectures de puces supplémentaires.

Comme nous l’avons constaté avec ces efforts, l’utilisation des nouvelles fonctionnalités peut prendre un certain temps à moins qu’il n’y ait une prise en charge complète dans une gamme d’outils de développement tels que des compilateurs, des bibliothèques de performances, etc. C’est ce qu’Intel lance avec sa boîte à outils oneAPI dans le but de relancer l’utilisation de la technologie. En outre, la société a créé un outil de compatibilité pour le portage de code écrit dans le langage CUDA populaire de Nvidia pour les GPU. Cela donne une grande longueur d’avance aux développeurs qui ont de l’expérience ou des logiciels déjà écrits en CUDA.

Étant donné qu’elle vient de sortir, la performance finale et l’efficacité réelle de la boîte à outils oneAPI restent à voir. Cependant, il est clair qu’Intel va de l’avant avec sa stratégie d’unification de son ensemble de plus en plus diversifié d’architectures de puces via une plate-forme logicielle unifiée unique. Conceptuellement, c’est une idée très attrayante depuis que la société l’a dévoilée pour la première fois il y a plusieurs années – j’espère que la réalité se révélera tout aussi attrayante.

Bob O’Donnell est le fondateur et analyste en chef de TECHnalysis Research, LLC une société de conseil en technologie qui fournit des services de conseil stratégique et d’études de marché à l’industrie de la technologie et à la communauté financière professionnelle. Vous pouvez le suivre sur Twitter @bobodtech.


Rate this post
Publicité
Article précédentTwitter va fermer l’application de streaming Periscope d’ici mars | Technologie / Gadgets
Article suivantRésultat: Victor Adeboyejo marque le vainqueur alors que Barnsley devance Preston
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici