Plus tôt cette semaine, Microsoft a participé au symposium Hot Chips 2020 pour présenter sa répartition désormais traditionnelle du silicium de la console, cette fois en se concentrant sur la composition de base du processeur Xbox Series X «  Project Scarlett  » et sur sa comparaison avec ses prédécesseurs. Non seulement nous en avons appris davantage sur les propriétés de la puce, mais nous avons également eu un aperçu des conditions du marché entourant et influençant sa conception. La conclusion est inéluctable: l’électronique grand public de pointe peut toujours offrir des gains générationnels en termes de performances – la loi de Moore n’est pas morte – mais les coûts augmentent et ceux-ci ont une influence fondamentale sur la façon dont Microsoft a façonné sa nouvelle console.

En débutant la présentation, les ingénieurs silicium de Microsoft ont révélé la disposition du processeur Xbox Series X – le die-shot – montrant comment tous les composants individuels s’emboîtent en un seul 360,4 mm2 tranche de silicium. Montrer la quantité d’espace alloué au CPU, au GPU et aux autres composants clés nous donne une idée de leur importance pour la conception globale, et l’équilibre ressemble à ce que nous avons vu dans les consoles AMD existantes. Environ 47% de la surface totale est consacrée aux 56 unités de calcul graphique AMD RDNA 2 (dont quatre sont désactivées afin de permettre aux puces présentant des défauts mineurs de se frayer un chemin dans les consoles de production) avec environ 11% de l’espace accordé à ce que Microsoft décrit comme des clusters de processeurs Zen 2 de classe serveur. Une quantité similaire de surface est également consommée par les contrôleurs de mémoire GDDR6 – il y en a dix au total – et bien qu’ils adressent 16 Go de RAM totale dans une console de vente au détail, les canaux sont également bons pour 40 Go de mémoire dans le devkit Project Scarlett, et nous devons supposer qu’une fois intégrées dans le cloud Azure, les puces utiliseront un autre type de configuration de mémoire non commerciale.

Faire référence aux clusters de processeurs en tant que classe serveur a causé une certaine confusion car la configuration de base et la configuration du cache sont remarquablement proches de la conception Renoir d’AMD (Microsoft a un nom de code «  Hercules  » en interne pour la conception du processeur) utilisé dans sa gamme d’ordinateurs portables Ryzen 4000 , par opposition aux monstrueuses offres Epyc à plusieurs cœurs qui sont réellement utilisées dans les environnements d’entreprise. Il est beaucoup plus probable ici que la désignation de classe serveur se réfère simplement aux fonctionnalités de sécurité et à la prise en charge de la mémoire nécessaires pour intégrer le silicium Scarlett dans le cloud Azure. L’importance de la prise en charge du cloud du processeur ne peut être sous-estimée: la puce peut exécuter et diffuser des jeux de nouvelle génération, bien sûr, mais elle peut également virtualiser quatre instances Xbox One S.

YouTube video

Pour voir ce contenu, veuillez activer les cookies de ciblage.

Une présentation vidéo de la présentation Xbox Series X Hot Chips 2020.

Publicité

Nous pouvons également supposer que ces processeurs de classe serveur prendront également leur place en tant que serveurs Windows standard lorsque ne pas utilisé pour les jeux – et si ce niveau de validation de la puce a été atteint, il existe des possibilités intéressantes de déployer la puce pour l’entreprise Surface. Un nouveau tout-en-un Surface Studio avec un mode Xbox serait un produit unique et accrocheur, par exemple. Avec une Xbox Series S maintenant presque confirmée par une fuite de contrôleur / emballage, un SoC plus petit et plus économe en énergie pourrait également fonctionner parfaitement dans un ordinateur portable ou un PC à petit facteur de forme. En termes simples, il y a des possibilités ici.

Le cœur de toute la présentation Hot Chips est la façon dont les coûts dans l’industrie des semi-conducteurs semblent quelque peu difficiles, nécessitant une innovation dans la conception du processeur. Les perspectives sont sombres à certains égards, mais optimistes à d’autres. La bonne nouvelle est que selon Microsoft, la loi de Moore n’est pas morte. La densité des transistors s’améliore encore et la comparaison de la série X avec le silicium Xbox One vintage 2013 permet de faire des comparaisons remarquables. Tout d’abord, en termes de taille physique, le processeur Series X est en fait plus petite que la Xbox One: 360,4 mm2 contre 375 mm2. Le nombre de transistors en seulement sept ans est passé de 4,8 milliards à 15,4 milliards – un multiplicateur de 3,2x. La puissance de calcul du GPU est passée de 1,3 téraflops à 12,2, une amélioration de 9,3x. Même les comparaisons avec la Xbox One X de 2017 semblent bonnes – un multiplicateur de 2,3x sur les transistors et une augmentation de 2x pour le calcul.

L’évolutivité est là, mais le paysage a changé. Le processeur 16nmFF de la Xbox One X était plus petit que celui de la Xbox One d’origine mais plus cher à produire, et le coût a encore augmenté lors de la transition vers le nouveau processus 7 nm amélioré. Dans le passé, le coût par transistor était plus bas – maintenant, c’est le contraire. Pendant ce temps, il y a d’autres pressions à affronter. Une réduction de 30% du coût de la mémoire d’une année sur l’autre est tombée à seulement 5%, ce qui signifie que non seulement le silicium est plus cher, des améliorations de la capacité de mémoire en ligne avec l’augmentation 8x de la Xbox 360 à la Xbox One ne sont plus possibles. Microsoft ne peut pas faire grand-chose pour lutter contre l’énigme du coût par transistor – bien que du matériel dédié à des éléments tels que l’ombrage à taux variable et le traçage de rayons aide certainement – mais la nécessité est la mère de l’invention, et c’est pourquoi Microsoft a développé un échantillonnage de retour de shader.

Mourir
Un aperçu de la disposition du processeur Xbox Series X.

L’idée de base est assez simple: les textures sont stockées à différents niveaux de qualité – ou mip. La taille des données de texture augmente déjà à mesure que nous passons à l’ère de la résolution 4K.L’idée est donc simplement de diffuser en continu les portions de données de texture qui sont réellement nécessaires, offrant ce que Microsoft dit être jusqu’à un multiplicateur de 2,5x en mémoire. Cela fait partie de l’architecture Velocity de Microsoft, qui vise à maximiser l’investissement de Microsoft dans le stockage SSD. Là, au moins, l’économie semble plus positive. Bien que la transition du disque dur au SSD soit un succès initial, la réduction des coûts d’année en année avec le flash NAND semble positive – Microsoft affirme qu’elle est de l’ordre de 23%. Bien que ce soit potentiellement un moyen de réduire les prix au fil du temps, il se peut que cela ouvre la porte à des SKU de console de plus grande capacité qui ne coûtent pas cher.

L’architecture Xbox Velocity ouvre également la porte à de nouvelles fonctionnalités telles que Quick Resume, qui, à mon avis, mérite un peu plus d’attention. Lors de notre visite chez Microsoft en mars, nous avons pu voir la console de la série X basculer entre les états de jeu à partir d’un certain nombre de titres Xbox One X fonctionnant avec une rétrocompatibilité. La quantité de mémoire système allouée aux jeux Xbox One X est de 9 Go, et il faut environ 6,5 secondes pour basculer entre eux – ce qui signifie que le processus d’économie de 9 Go et de diffusion dans un état précédemment mis en cache est étonnamment rapide, en particulier lors du traitement de l’écriture les données prendront probablement plus de ces 6,5 secondes que la lecture. Je suis très optimiste quant à ce que le stockage SSD peut faire pour l’expérience de la console, mais je pense qu’il faudra peut-être du temps aux développeurs pour faire la transition de leurs moteurs pour en tirer le meilleur parti. Un chargement perceptiblement «  instantané  » peut être possible, mais il reste à voir si nous en verrons réellement une grande partie à court terme – et je pense que cela s’appliquera aux deux machines de nouvelle génération en fonction de certaines des discussions que j’ai eu avec des développeurs tiers.

Pour en revenir à la discussion sur les Hot Chips, nous en apprenons plus sur le GPU, principalement à partir d’un schéma de principe de la disposition des cœurs de shader. Ceux qui s’attendent à un changement révélateur pour RDNA 2 de la configuration de base vue dans la série RX 5700 d’AMD peuvent être déçus – la disposition de base et l’allocation du cache semblent correspondre, le seul changement notable provenant de l’ajout de blocs de traçage de rayons. Il y a eu une certaine confusion ici avec les métriques de gigaray qui dépassent largement celles de Nvidia pour le RTX 2080 Ti – mais elles sont calculées de manière très différente et ne sont pas comparables. Nous avons vu Minecraft DXR fonctionner sur la série X et il fonctionne à 1080p entre 30 et 60 images par seconde – tout à fait dans le cadre des offres RTX de la génération actuelle de Nvidia. Je suis plus impressionné qu’une expérience RT entièrement tracée ait été possible sur la série X avec seulement un mois de travail de développement (bien qu’avec la base de code Minecraft RTX existante comme base) et avec la prise en charge intrinsèque de Xbox pour l’accès «  au métal  », Je suis vraiment impatient de voir ce que les développeurs proposent.

Des Prix
Les prix du silicium augmentent considérablement, les prix des mémoires ne diminuent plus aussi rapidement. Cependant, le flash NAND continue de baisser de prix.

Il en va de même pour l’audio 3D, qui m’a beaucoup fait réfléchir au marketing et à la présentation. Sony a fait un pitch remarquable pour une révolution dans l’audio 3D avec PlayStation 5 avec son Tempest Engine, en parlant de centaines de sources audio positionnées avec précision dans l’espace 3D – pourtant Microsoft a essentiellement fait le même discours avec son propre matériel, qui a également le support HRTF que le Tempest Engine a. Microsoft n’a fait aucune promesse spécifique concernant le mappage de l’audio 3D sur le HRTF spécifique de l’individu, mais là encore, Sony ne nous a pas vraiment dit comment il prévoyait d’obtenir ces données pour chaque joueur. Je serai intéressé de voir comment tout cela bouge une fois que les consoles seront sorties et que le logiciel sera disponible.

Dans l’ensemble, au-delà de certaines spécificités intéressantes – et de la révélation du coup de puce du processeur Scarlett – une grande partie de ce que couvre la présentation Hot Chips faisait partie intégrante de l’événement de révélation de mars auquel nous avons assisté, mais la compréhension de la façon dont l’économie a joué un rôle dans façonner le design est précieux. Non seulement cela, mais le travail de Microsoft avec l’architecture Xbox Velocity et DirectStorage passera également au PC. En fait, l’arrivée de l’API DirectX 12 Ultimate semble arrondir de nombreuses innovations de nouvelle génération trouvées dans la série X et garantir que la plate-forme PC ne soit pas laissée pour compte. Microsoft estime clairement qu’il gère l’innovation au-delà de la seule console Xbox – et c’est une responsabilité dont Sony n’a pas vraiment à se soucier, expliquant peut-être certains de ses choix de conception les plus exotiques.

En tant que journaliste, ce que j’ai apprécié à propos de la révélation technologique initiale de la série X et de la présentation Hot Chips, c’est à quel point Microsoft a été transparent sur les capacités de sa nouvelle machine, comment elle a été conçue et pourquoi. Personne ne parle de «  sauce secrète  » ou de fonctionnalités qui changent la donne jusqu’à présent non divulguées avec Xbox, car tout est là-bas à l’air libre – ce que je peux confirmer après avoir également consulté la documentation des développeurs. Il s’agit de la Xbox Series X et nous savons maintenant tout ce que Microsoft a concocté pour sa nouvelle machine, et je me demande si Sony suivra – peut-être en commençant par le démontage du matériel dont Mark Cerny a parlé dans sa présentation Road to PlayStation 5. Cela dit, bien que les discussions sur les spécifications soient intéressantes, la conversation est peut-être passée à d’autres questions – comme les jeux auxquels nous pourrons jouer dans la fenêtre de lancement, et bien sûr, combien il en coûtera pour acheter le prochain- rêve de gen.