introduction

TechPowerUp est l’une des sources de critiques de cartes graphiques les plus citées sur le Web, et nous nous efforçons de maintenir à jour nos méthodes de test, notre sélection de jeux et, surtout, notre banc de test. Aujourd’hui, je suis heureux d’annoncer notre tout nouveau système de test VGA de mars 2021, qui a l’une des nombreuses premières pour TechPowerUp. Il s’agit de notre premier banc d’essai de cartes graphiques alimenté par un processeur AMD. Nous utilisons le processeur 8 cœurs Ryzen 7 5800X, basé sur l’architecture «Zen 3». La nouvelle configuration de test prend entièrement en charge l’interface de bus PCI-Express 4.0 x16, afin de maximiser les performances de la dernière génération de cartes graphiques par NVIDIA et AMD. La plate-forme active également la fonction Redimensionnable BAR par PCI-SIG, permettant au processeur de voir toute la mémoire vidéo comme un seul bloc adressable, ce qui pourrait potentiellement améliorer les performances.

Un nouveau système de test annonce un nouveau test complet de chaque carte graphique utilisée dans nos graphiques de performances. Cela nous permet de supprimer certaines des anciennes cartes graphiques, ainsi que des tests de jeu; faire de la place pour des cartes et des jeux plus récents. Cela nous permet également d’actualiser notre système d’exploitation, nos outils de test, de mettre à jour les jeux avec la dernière version, ainsi que d’explorer de nouveaux paramètres de jeu tels que le lancer de rayons en temps réel et les nouvelles API.

Un rebench VGA est une tâche monumentale pour TechPowerUp. Cette fois, je teste 26 cartes graphiques dans 22 jeux à 3 résolutions, ou 66 tests de jeu par carte, ce qui correspond à 1716 exécutions de référence en tout. De plus, nous avons doublé nos tests de Raytracing, quatre titres au lieu de deux. Nous avons également apporté quelques modifications à nos tests de consommation d’énergie, qui sont désormais plus détaillés et plus approfondis que jamais.

Dans cet article, je vais partager quelques réflexions sur ce qui a été changé, pourquoi, et vous donner un premier aperçu des performances obtenues sur le nouveau système de test.

Matériel

Vous trouverez ci-dessous les spécifications matérielles du nouveau système de test VGA de mars 2021.

Système de test – VGA 2021.1
Processeur: AMD Ryzen 7 5800X à 4,8 GHz
(Zen 3, 16 Mo de mémoire cache)
Carte mère: MSI B550-A Pro
BIOS 7C56vA5 / AGESA 1.2.0.0
Mémoire: Thermaltake TOUGHRAM, 16 Go de mémoire DDR4
À 4000 MHz 19-23-23-42 1T
Tissu Infinity à 2000 MHz (1: 1)
Refroidissement: Corsair iCue H100i RGB Pro XT
Tout-en-un de 240 mm
Espace de rangement: Disque SSD Crucial MX500 2 To
Source de courant: Seasonic Prime Ultra Titane 850 W
Cas: darkFlash DLX22
Système opérateur: Windows 10 Professionnel 64 bits
Version 20H2 (mise à jour d’octobre 2020)
Conducteurs: AMD: 21.2.3 bêta
NVIDIA: 461,72 WHQL

L’AMD Ryzen 7 5800X est devenu le processeur le plus rapide que nous pouvons recommander aux joueurs pour jouer à n’importe quelle résolution. Nous aurions pu utiliser le Ryzen 9 5900X à 12 cœurs, ou même maximiser cette plate-forme avec le 5950X à 16 cœurs; mais ni l’un ni l’autre ne seraient plus rapides au jeu, et les deux seraient nettement plus chers. AMD veut certainement vous vendre le processeur le plus cher (trop cher?), Mais en fait le Ryzen 7 5800X est l’option la plus rapide, grâce à son architecture CCD unique. Notre objectif avec les systèmes de test GPU au cours de la dernière décennie a été cohérent: utiliser le processeur de bureau grand public le plus rapide. Au fil des ans, cela signifiait une puce Core i7 K-series LGA115x de 300 $; évoluant vers le i9-9900K $ 500. Le 5900X ne se vend pas à un prix proche de cette marque, et nous préférerions ne pas utiliser un processeur trop cher, simplement parce que nous le pouvons. Vous remarquerez également que nous avons sauté la mise à niveau vers le processeur Core i9-10900K à 10 cœurs «Comet Lake» de notre ancien i9-9900K, car nous n’avons constaté aucune augmentation significative et des gains de performances de jeu négligeables, en particulier compte tenu du grand OC sur le 9900K. Les deux noyaux supplémentaires s’accroupissent pour presque toutes les situations de jeu. C’est la deuxième raison, outre la tarification, pour laquelle nous avons décidé de ne pas utiliser le Ryzen 9 5900X.

Nous continuons à utiliser notre kit de mémoire double canal de 16 Go Thermaltake TOUGHRAM de confiance, qui nous a bien servi pendant de nombreuses années. 32 Go n’est pas nécessaire pour les jeux, donc je ne voulais pas faire allusion à cela, en particulier aux lecteurs moins expérimentés qui vérifient le système de test. Nous utilisons la configuration de mémoire la plus souhaitable pour Zen 3, afin de réduire les latences à l’intérieur du processeur: Infinity Fabric à 2000 MHz, mémoire cadencée à DDR4-4000, en synchronisation 1: 1 avec l’horloge Infinity Fabric. Les synchronisations sont à une configuration CL19 standard, que l’on trouve facilement sur des modules de mémoire abordables – dépenser plus pour des synchronisations très serrées est généralement exagéré et ne vaut pas la peine pour les performances supplémentaires.

Le MSI B550-A PRO était un choix facile pour une carte mère. Nous voulions une carte économique pour le 5800X et nous ne nous soucions pas du tout du RVB ou de tout autre bling. La carte peut gérer les paramètres de processeur et de mémoire que nous voulions pour ce banc d’essai, le VRM chauffe à peine. Il ne vient pas non plus avec aucune gymnastique PCIe – un simple slot PCI-Express 4.0 x16 câblé au CPU sans aucun changement de voie en cours de route. La fente est renforcée de métal et semble pouvoir prendre un certain nombre d’abus au fil du temps. Même si je dois admettre que j’échange des cartes des centaines de fois par an, probablement plus de 1000, et cela n’a jamais été un problème, la force d’insertion devient juste un peu plus douce, ce que je trouve vraiment sympa.

Logiciels et jeux

  • Windows 10 a été mis à jour à 20H2
  • Le pilote graphique AMD utilisé pour tous les tests est désormais 21.2.3 Beta
  • Toutes les cartes NVIDIA utilisent 461,72 WHQL
  • Tous les jeux existants ont été mis à jour vers leur dernière version disponible

Les titres suivants ont été supprimés:

  • Anno 1800: vieux, pas si populaire, CPU limité
  • Assassin’s Creed Odyssey: ancien, DX11, remplacé par Assassin’s Creed: Valhalla
  • Hitman 2: ancien, remplacé par Hitman 3
  • Project Cars 3: pas très populaire, DX11
  • Star Wars: Jedi Fallen Order: horrible EA Denuvo rend les changements matériels très pénibles, DX11 uniquement, Unreal Engine 4, dont nous avons plusieurs autres titres.
  • Strange Brigade: vieux, pas populaire du tout

Les titres suivants ont été ajoutés:

  • Assassin’s Creed Valhalla
  • Cyberpunk 2077
  • Hitman 3
  • Escadrons Star Wars
  • Watch Dogs Légion

J’ai considéré Horizon Zero Dawn, mais je l’ai rejeté car il utilise le même moteur de jeu que Death Stranding. Ne testera pas World of Warcraft ou Call of Duty en raison de leur nature toujours en ligne, qui applique à tout moment des correctifs de jeu qui gênent les performances. Godfall: mauvais jeu, exclusivité Epic, flop commercial.

La liste complète des jeux est maintenant: Assassin’s Creed Valhalla, Battlefield V, Borderlands 3, Civilization VI, Control, Cyberpunk 2077, Death Stranding, Detroit Become Human, Devil May Cry 5, Divinity Original Sin 2, DOOM Eternal, F1 2020, Far Cry 5, Gears 5, Hitman 3, Metro Exodus, Red Dead Redemption 2, Sekiro, Shadow of the Tomb Raider, Star Wars Squadrons, The Witcher 3, Watch Dogs: Legion.

Tracé laser

Nous avons précédemment testé le raytracing en utilisant Metro Exodus and Control. Pour cette série de nouveaux tests, j’ai ajouté Cyberpunk 2077 et Watch Dogs Legion. Bien que Cyberpunk ne prenne pas en charge RT sur AMD, j’ai toujours l’impression que c’est l’un des titres les plus importants pour tester RT.

Bien que Godfall et DIRT 5 prennent également en charge le raytracing, aucun de ces titres n’a eu un succès commercial suffisant pour justifier son inclusion dans la suite de tests.

Test de consommation d’énergie

Ces changements sont déjà en ligne depuis quelques critiques, je voulais toujours les détailler un peu plus dans cet article.

Après nos premières critiques sur Big Navi, j’ai réalisé que quelque chose n’allait pas avec la méthode de test de consommation d’énergie que j’utilise depuis des années, sans problème. Il semblait que la Radeon RX 6800 XT était tellement plus économe en énergie que la RTX 3080 de NVIDIA. Elle est certainement plus efficace, grâce au processus 7 nm et aux améliorations monumentales d’AMD dans l’architecture, mais le plomb n’avait tout simplement pas l’air correct. Après une enquête plus approfondie, j’ai réalisé que le RX 6800 XT obtenait un goulot d’étranglement du processeur dans Metro Last Light, même à une résolution plus élevée, alors que la carte NVIDIA fonctionnait sans goulot d’étranglement. Cela signifiait bien sûr que la carte NVIDIA consommait plus d’énergie dans ce test, car elle pouvait fonctionner plus rapidement.

Le problème ici est que j’ai utilisé les chiffres de consommation d’énergie de Metro pour les résultats “Performance per Watt”, en supposant que le test chargeait la carte au maximum. La raison sous-jacente de l’écart est la surcharge DirectX 11 plus élevée d’AMD, qui ne s’est manifestée que suffisamment pour faire la différence une fois qu’AMD disposait de cartes capables de rivaliser dans le segment haut de gamme.

Bien que notre configuration de mesure physique précédente était meilleure que ce que la plupart des autres évaluateurs utilisent, j’ai toujours voulu quelque chose avec un taux d’échantillonnage plus élevé, avec un meilleur enregistrement des données et un pipeline d’analyse plus flexible. Auparavant, nous enregistrions à 12 échantillons par seconde, mais nous ne pouvions stocker que le minimum, le maximum et la moyenne. Le démarrage et l’arrêt du processus de mesure étaient également une opération manuelle.

Le nouveau système d’acquisition de données utilise également un équipement de laboratoire professionnel et collecte des données à 40 échantillons par seconde, soit 4 fois plus vite que le PCAT de NVIDIA. Chaque point de données est enregistré numériquement et stocké à des fins d’analyse. Comme auparavant, toutes les mesures de puissance de notre carte graphique sont “carte uniquement”, pas “tout le système”, pas “puce GPU uniquement” (qui est le nombre affiché dans le panneau de configuration AMD Radeon Settings).

Le fait d’avoir toutes les données enregistrées signifie que nous pouvons enfin cartographier la consommation d’énergie au fil du temps, ce qui donne un bon aperçu, ci-dessous un exemple d’ensemble de données pour RTX 3080.

Le graphique «Performance par Watt» a été simplifié en «Efficacité énergétique» et est désormais basé sur la puissance et le FPS réels obtenus lors de notre test de consommation d’énergie «Gaming» (Cyberpunk 2077, à 1440p, voir ci-dessous).

Les tests de puissance individuels ont également été affinés:

  • Les tests “inactifs” mesurent maintenant à 1440p, alors qu’ils utilisaient auparavant 1080p. Il s’agit de suivre les taux d’adoption croissants des moniteurs haute résolution.
  • “Multi-moniteur” est désormais de 2560×1440 sur DP + 1920×1080 sur HDMI – pour tester le fonctionnement de la gestion de l’alimentation avec des résolutions mixtes sur des sorties mixtes.
  • “Lecture vidéo” enregistre la consommation électrique d’une vidéo 4K30 FPS, encodée avec H.264 AVC à un débit binaire de 64 Mbps, assez similaire à la plupart des services de streaming. J’ai envisagé d’utiliser quelque chose comme madVR pour améliorer encore la qualité vidéo, mais je l’ai rejeté parce que je pensais que c’était trop de niche.
  • La consommation d’énergie “Gaming” utilise désormais Cyberpunk 2077, à 1440p avec les paramètres Ultra – ce ne sera certainement pas un goulot d’étranglement du processeur. Le lancer de rayons est désactivé et nous nous sommes assurés de chauffer correctement la carte avant de prendre des données. Ceci est très important pour toutes les analyses comparatives GPU – dans les premières secondes, vous obtiendrez des taux de suralimentation irréalistes et la température plus basse permettra au silicium de fonctionner avec une efficacité plus élevée, ce qui correspond aux chiffres de consommation d’énergie.
  • “Maximum” utilise Furmark, à 1080p, qui pousse toutes les cartes dans son limiteur de puissance – un autre point de données important.
  • Un peu en bonus, et je n’étais vraiment pas sûr que ce soit aussi utile, j’ai ajouté une autre version de Cyberpunk à 1080p, plafonnée à 60 FPS, pour simuler un scénario d’utilisation “V-Sync”. L’exécution à V-Sync supprime non seulement les déchirures, mais réduit également la consommation d’énergie de la carte graphique, parfait pour les titres solo plus lents, où vous n’avez pas besoin du FPS le plus élevé et économisez plutôt de l’énergie, et avez moins de chaleur déversée dans votre salle. Juste pour clarifier, techniquement, nous fonctionnons à une limite souple de 60 FPS, de sorte que les cartes plus faibles qui ne peuvent pas atteindre 60 FPS (GTX 1650S et GTX 1660) ne fonctionneront pas à 60/30/20 FPS V-Sync, mais aussi haut que ils peuvent.
  • Enfin, une mesure “Spikes” a été ajoutée, qui rapporte le pic de 20 ms le plus élevé enregistré dans toute cette séquence de test, généralement le pic apparaît au début de Furmark, avant que le circuit de limitation de puissance de la carte puisse réagir aux nouvelles conditions. Sur le RX 6900 XT, j’ai mesuré bien au-dessus de 600 W, ce qui peut déclencher les protections de certaines alimentations, entraînant un arrêt soudain de la machine. Cela m’est arrivé plusieurs fois (avec un bloc d’alimentation différent du Seasonic), donc ce n’est pas un test théorique.

Échec de la Radeon VII

Puisque nous fonctionnons avec Redimensionnable BAR activé, nous devons également démarrer avec UEFI (et non CSM). Quand il était temps de retester la Radeon VII, je n’ai eu aucun POST et il semblait que la carte était morte. Comme il y a beaucoup de drame autour des cartes Radeon VII qui meurent soudainement, en masse, j’ai déjà commencé à chercher un remplaçant mais je voulais lui donner une autre chance, dans une autre machine – cela fonctionnait parfaitement. WTF?

Après quelques recherches sur Google, j’ai trouvé notre article, détaillant le manque de support UEFI sur la Radeon VII. C’était donc le problème, la carte n’avait tout simplement pas la mise à jour du BIOS publiée par AMD après notre article. Eh bien, FML, la page avec la mise à jour du BIOS n’existe plus sur le site Web d’AMD.

Ah bon? Quelqu’un de l’équipe Web a pris la décision “oh, je vais simplement supprimer ces pages qui contiennent un correctif important pour que le produit fonctionne”, sur un produit qui n’a même pas deux ans? (lancé le 7 février 2019, page supprimée au plus tard le 8 novembre 2020).

Heureusement, j’ai trouvé le BIOS mis à jour dans notre collection de BIOS VGA, la carte fonctionne parfaitement maintenant.

Les résultats des performances sont sur la page suivante. Si vous avez d’autres questions, n’hésitez pas à nous le faire savoir dans la section commentaires de cet article.

Leave a Reply