↩ Accueil

Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierHardware & Co

Test • Comparatif de 60 CPU au sein de 13 générations rouges et bleues

Par : Eric B.
30 avril 2024 à 00:00

2017 fut une année spéciale dans le microcosme du microprocesseur pour PC de bureau, puisqu'elle a vu le retour d'AMD au premier plan avec l'intronisation de la microarchitecture Zen, pensée par Jim Keller, présent dans tous les précédents "bons coups" des rouges. Elle fait surtout suite à une décennie terrible pour le concepteur, incapable de luter efficacement face à Intel avec ses architectures Phenom puis Bulldozer. Heureusement pour le consommateur, Zen fut une réussite indéniable et la concurrence est depuis féroce ! Nous vous proposons donc un petit retour dans le passé avant de repartir sur un nouveau protocole de tests destinés aux nouveautés (Zen 5 & Arrow Lake) qui seront lancées plus tard dans l'année. Ainsi, sur les 14 générations qui se sont affrontées depuis 2017, nous avons réussi à en réunir 13, de quoi atteindre pas moins de 60 références en compétition au sein de ce dossier et ainsi jauger l'évolution du rapport de force entre Intel et AMD depuis ce tournant.


Les processeurs testés

Pour ce dossier, comme indiqué en introduction, nous avons retenu 6 générations de processeurs grand publics AMD et 7 du côté d'Intel. Nous avons également ajouté 2 générations sur la plateforme HEDT des bleus, voyons donc cela, en commençant par l'armada rouge.

Logo AMD Ryzen

L'entrée en matière se fait au travers des processeurs Ryzen 1000, lancés en 2017. Ces derniers s'appuient sur l'architecture Zen qui a signé le renouveau d'AMD côté CPU après une décennie noire. Cette dernière, couplée à un procédé de gravure en net progrès (14 nm de Samsung sous licence pour réalisation au sein de Global Foundries, l'ex entité fonderie d'AMD). Si les progrès ont été phénoménaux en comparaison des générations précédentes, la sortie quelque peu "rushée" de ces processeurs a conduit à quelques soucis en terme de gestion mémoire (corrigés depuis par mises à jour successives des AGESA) et de gestion de la fréquence. Les APU Raven Ridge lancée ultérieurement et reprenant l'architecture Zen couplée à Vega pour la partie graphique, disposeront en effet d'un Boost bien plus évolué. L'Athlon 240GE présent au sein de ce dossier utilise d'ailleurs ce die Raven Bridge castré.

 Les Ryzen 2000 s'appuient de leur côté sur Zen+, qui est en fait l'adaptation de l'architecture Zen originelle sur un procédé de gravure plus abouti (GF 14 nm → 12 nm). Cela se traduit ainsi par un IPC (taux d'instructions par cycle d'horloge, indicateur de l'efficacité d'une architecture) inchangé, mais des performances en hausse au moyen de fréquences boostées. Ainsi, AMD a pu utiliser des réglages de latences plus agressifs (via l'AGESA), améliorant au passage la compatibilité mémoire, et implémentant un mécanisme de turbo plus abouti (Precision Boost 2). On peut donc considérer Zen+ comme Zen, tel qu'il aurait dû sortir si AMD l'avait pu un an plus tôt, c'est pourquoi nous avons retenu ces puces plutôt que les Ryzen 1000. Zen est le symbole du renouveau d'AMD côté CPU en 2017, après une décennie noire. À noter également que s'ils ne sont pas inclus dans notre test, les Ryzen 2200G et 2400G utilisent non pas Zen+, mais bien Zen (avec toutefois la version évoluée du turbo) couplé à un IGP (Integrated Graphics) de génération Vega à l'instar de l'Athlon 240GE.

Zen 4Viennent ensuite les Ryzen 3000 en 2019, s'appuyant cette fois sur l'architecture Zen 2. Véritable évolution architecturale, avec entre autres choses une progression notable de la taille du cache L3 et du pipeline d'exécution des instructions utilisant la précision à virgule flottante. Ils introduisent également une nouvelle conception en chiplet, dissociant ainsi les dies selon l'usage et permettant de mixer les procédés de fabrication selon ces derniers, perfectionnant ainsi l'approche entamée sur les Threadripper HEDT. Ainsi, l'I/O die (CIOD) est fabriqué par GF en 12 nm, alors que celui de calcul (CCD) est fabriqué en 7 nm par TSMC. Selon les références, le processeur peut contenir un ou deux CCD, doublant ainsi potentiellement le nombre de cœurs. A l'instar des Ryzen 2000, les 3000 comprennent au sein de la gamme deux APU (3200G et 3400G), qui ne partagent pas la même "génération", puisque nous avons à faire dans leur cas au couple Zen+ / Vega, au travers d'une puce monolithique.

Les Ryzen 4000 sont une série un peu particulière commercialisée l'année suivante (2020), puisqu'il s'agit d'une génération qui n'a été que peu vendue au détail dans un premier temps, en étant prioritairement réservée aux OEM et servant principalement à réaligner la nomenclature des APU et des CPU. S'appuyant sur un die monolithique alliant CPU Zen 2 (toujours !) et iGPU Vega gravé en 7 nm par TSMC, il existe toutefois des références dont le GPU a été désactivé pour plus de micmac. Nous souhaitions par exemple intégrer le récent (2022) Ryzen 5 4500, qui constitue souvent l'entrée de gamme des rouges à l'heure actuelle, malheureusement AMD n'a pas été en mesure de nous procurer un exemplaire. Nous essaierons toutefois d'en obtenir un par d'autres moyens dans le futur.

Arrivent ensuite les Ryzen 5000 fin 2020, faisant appel cette fois à la microarchitecture Zen 3. Cette dernière, va se montrer beaucoup plus efficace dans le domaine ludique, par la fusion de tous les cœurs d'un CCD au sein d'un seul et même CCX (Core CompleX), alors qu'il en fallait 2 interconnectés par l'Infinity Fabric depuis les débuts de Zen. Les latences d'accès à des données partagées depuis le L3 sont significativement améliorées du fait de cette union, et les tâches faiblement parallélisées peuvent profiter d'un cache L3 plus important, puisque ce dernier était précédemment privé par CCX. A cela s'ajoute des progrès tant au niveau du Front-end que du Back-end, améliorant l'IPC, tandis que le procédé de fabrication reste inchangé, avec des chiplets toujours gravés respectivement en 7 et 12 nm. A noter qu'une déclinaison 3D V-Cache a été lancée 1 an 1/2 plus tard, permettant d’accroître largement la quantité de L3 embarqué, en faisant une option redoutable pour le jeu - au détriment des fréquences. Enfin, les APU de la gamme utilisent cette fois bel et bien l'architecture courante (Zen 3), mais toujours couplée à un GPU Vega, au sein d'un die monolithique gravé là aussi en 7 nm par TSMC.

Les Ryzen 6000 n'ayant pas été déclinés sur plateforme de bureau, nous passons directement à la série 7000 qui introduit Zen 4 en 2022. Si l'approche en chiplet est conservée, les procédés de gravure évoluent notablement avec du 5 nm pour les CCD et 6 nm pour le CIOD, tous deux en provenance de TSMC. A noter que l'I/O die intègre à présent un IGP RDNA 2, permettant de se passer de carte graphique pour ceux n'ayant besoin que d'affichage et potentiellement d'encodeur/décodeur vidéo. L'architecture progresse quelque peu, en particulier au niveau du Front-end afin d'améliorer l'utilisation des unités de calculs rajoutées lors du passage à Zen 3. Ainsi, les gains d'IPC sont principalement issus de la prédiction de branchements, améliorant la prise en charge du parallélisme à l'échelle des instructions... mais ce sont surtout les fréquences réalisant un bond considérable du fait de l'utilisation des nouveaux procédés de gravure, qui apportent les gains les plus significatifs en matière de performance. A l'instar de la génération 5000, des versions dotées de 3D V-Cache ont été lancées durant les mois suivants.

Enfin, les Ryzen 8000 constituent la version desktop des APU de Zen 4 lancés en 2023. Ce changement de numérotation est d'autant plus incompréhensible qu'on était enfin parvenu à une resynchronisation des architectures CPU au sein d'une génération. Seules des raisons marketing peuvent expliquer ce choix de nomenclature bien malheureux. Pour le reste, il s'agit ici de dies monolithiques (Phoenix et Phoenix 2) dont le cache L3 a été divisé par 2 et disposant un processeur graphique de génération RDNA 3. A noter que Phoenix 2 intègre des coeurs Zen 4c, versions sous cadencées mais plus denses des coeurs Zen 4 traditionnels, permettant ainsi de réduire quelque peu la surface de silicium nécessaire. Voilà pour les rouges, passons à l'armada bleue à présent.

Intel Core

Commençons par la mise en bouche, à savoir la génération 7 de processeurs Core, commercialisée en 2017 et s'appuyant sur Skylake-X et Kaby Lake-X. Ces versions X sont destinées à la plateforme HEDT (haut de gamme) LGA2066 et sont bien différentes. Skylake (sans X), toute nouvelle architecture d'Intel fut lancée en août 2015 sur plateforme LGA1151 puis Kaby Lake début 2017, ne changeant rien à l'architecture CPU (mais en améliorant l'IGP et la plateforme) et profitant juste de fréquences un peu plus élevées (speed bump). La déclinaison haut de gamme de Skylake (avec le X cette fois) que l'on retrouve sur les 7940X et 7900X, reprend l'architecture mainstream éponyme en gonflant les caches et remplaçant l'interconnexion entre coeurs (Ring -> Mesh) alors que Kaby Lake-X (7740X) est une copie conforme de son pendant mainstream disposant juste d'une enveloppe thermique supérieure permettant de gagner encore en fréquence.

La génération 8 (Coffee Lake) constitue en un élargissement de Skylake/Kaby Lake, passant de 4 coeurs maximum à 6. Si elle utilise toujours une plateforme LGA1151, cette dernière n'est pas rétro compatible avec la précédente. Pas de déclinaison HEDT cette fois. On passe donc très vite à la génération 9 qui reprend toujours l'architecture Skylake mais en ajoutant encore 2 coeurs supplémentaires, soit 8 en tout. A cours d'idée pour lui trouver un nom, Intel l'a nommée Coffee Lake Refresh.

On en arrive à la génération 10, qui reprend encore et toujours la microarchitecture CPU Skylake, élargit le nombre de cœurs à 10, dispose d'un IGP amélioré, de quelques failles de sécurité mitigées et d'un procédé de gravure 14 nm optimisé. Intel s'est montré plus original que refresh du refresh, ce fut donc Comet Lake. Toujours dans le cadre de cette génération 10, les références HEDT (sur plateforme LGA 2066) utilisent de leur côté la microarchitecture Cascade Lake lancée en 2019. Mais il s'agit là aussi d'un renommage d'une précédente microarchitecture, à savoir Skylake-X, intronisée sur les 7000X.

La génération suivante sur plateforme grand public est logiquement la série 11, non de code Rocket Lake lancée en 2021, et qui diffère enfin de la microarchitecture Skylake. Il ne s'agit toutefois en rien d'une nouveauté, puisque nous avons affaire ici au "rétroportage" en 14 nm de l'architecture Sunny Cove lancée en 2018 pour les puces mobiles, et utilisant la gravure 10 nm. Cette dernière étant jugée à l'époque encore trop "juste" pour le niveau de performance souhaité (comprendre la fréquence atteignable) sur les processeurs de bureau, Cypress Cove a donc vu le jour. Du changement donc, mais pas de toute dernière fraîcheur.... D'autant plus que les bleus ont revu leur version du 14 nm afin de sacrifier son efficience énergétique contre une stabilité à monter dans les tours ! Certes, cela permet de limiter la casse face aux puces rouges de même génération (à nombre équivalent de cœurs), mais au prix d'une puissance électrique démesurée.

C'est par contre bien différent avec la génération 12, intronisée à la fin de la même année 2021, Alder Lake de son petit nom et qui va cumuler les évolutions. Tout d'abord, du fait de ses progrès, le 10 nm est enfin jugé apte pour le grand bain des PC de bureau et se voit renommé Intel 7 pour l'occasion. Ensuite, Intel inaugure une conception hybride mélangeant deux types de cœurs en sont sein. Ceux dit Performance qui s'appuient sur la microarchitecture Golden Cove, évolution de Cypress Cove, et ceux Efficient animés par Gracemont, succédant à feu la série des Atom basse consommation (Intel communiquait tout de même sur des performances de l'ordre de Skylake pour ces cœurs efficients !). De quoi remettre les bleus en selle, eux qui avaient été sérieusement désarçonnés par Zen 2 et pratiquement KO face à Zen 3.

Ensuite, la génération 13 a vu le jour en 2022, et fait appel aux microarchitectures Raptor Cove et (toujours) Gracemont pour les P-Core / E-Core. En pratique, il s'agit ici d'une évolution plus qu'autre chose, mais pas sans effet. Ainsi, le cache L2 est doublé pour chaque Cluster (4 cœurs) d'E-Cores et progresse de 60 % pour chaque P-Core. À cela s'ajoute des améliorations sensibles au niveau des fréquences, par le biais d'un procédé de gravure Intel 7 raffiné et des optimisations micro-électroniques du Raptor... sans modification architecturale autre : l'art du refresh à son pinacle !

La génération 14 aurait du voir l'avènement de Meteor Lake sur plateforme de bureau, mais Intel à nouveau en proie à des soucis de mise au point de son procédé de gravure (Intel 4 ici) l'a purement et simplement annulé sur PC fixe, réservant cette nouvelle microarchitecture au portable. Hors de question pour autant de rester sans nouveauté côté bleu : ce sera donc à nouveau un speed bump de la précédente génération, avec toutefois quelques références dotées de davantage de coeurs au sein de la gamme. Voilà pour cette dernière génération de processeurs de bureau Intel, en attendant plus ou moins patiemment la prochaine.

Après cette brève mais nécessaire remise en contexte terminée, détaillons à présent les caractéristiques principales des CPU testés au sien du tableau suivant.

CPU Micro Architecture (ou nom de code) Fréquence Turbo max. (GHz) Cœurs Performance Coeurs Efficients Threads Cache L3 (Mo) Canaux mémoire Puissance max. courte durée (Watts) Puissance max. longue durée (Watts)
Ryzen 7 8700G Zen 4 5,1 8 - 16 16 2 - 88
Ryzen 5 8600G Zen 4 5,0 6 - 12 16 2 - 88
Ryzen 5 8500G Zen 4 5,0 2 4 12 16 2 - 88
Ryzen 9 7950X3D Zen 4 5,7 16 - 32 128 2 - 162
Ryzen 9 7950X Zen 4 5,7 16 - 32 64 2 - 230
Ryzen 9 7900X Zen 4 5,6 12 - 24 64 2 - 230
Ryzen 7 7800X3D Zen 4 5,0 8 - 16 96 2 - 162
Ryzen 7 7700X Zen 4 5,4 8 - 16 32 2 - 142
Ryzen 5 7600X Zen 4 5,3 6 - 12 32 2 - 142
Ryzen 5 7500F Zen 4 5,0 6 - 12 32 2 - 88
Ryzen 9 5950X Zen 3 4,9 16 - 32 64 2 - 142
Ryzen 9 5900X Zen 3 4,8 12 - 24 64 2 - 142
Ryzen 7 5800X3D Zen 3 4,5 8 - 16 96 2 - 142
Ryzen 7 5800X Zen 3 4,7 8 - 16 32 2 - 142
Ryzen 7 5700G Zen 3 4,6 8 - 16 16 2 - 88
Ryzen 5 5600X Zen 3 4,6 6 - 12 32 2 - 88
Ryzen 9 3950X Zen 2 4,7 16 - 32 64 2 - 142
Ryzen 9 3900X Zen 2 4,6 12 - 24 64 2 - 142
Ryzen 7 3800X Zen 2 4,5 8 - 16 32 2 - 142
Ryzen 5 3600X Zen 2 4,4 6 - 12 32 2 - 128
Ryzen 5 3400G Zen + 4,2 4 - 8 4 2 - 88
Ryzen 3 3300X Zen 2 4,3 4 - 8 16 2 - 88
Ryzen 3 3100 Zen 2 3,9 4 - 8 16 2 - 88
Ryzen 7 2700X Zen + 4,3 8 - 16 16 2 - 142
Ryzen 5 2600X Zen + 4,2 6 - 12 16 2 - 128
Ryzen 7 1800X Zen 4,0 8 - 16 16 2 - 128
Ryzen 5 1600X Zen 4,0 6 - 12 16 2 - 128
Ryzen 5 1500X Zen 3,7 4 - 8 16 2 - 65
Athlon 240GE Zen 3,5 2 - 4 4 2 - 47
Core i9-14900KS Raptor Lake Refresh 6,2 8 16 32 36 2 253 253
Core i9-14900K Raptor Lake Refresh 6,0 8 16 32 36 2 253 253
Core i7-14700K Raptor Lake Refresh 5,6 8 12 28 33 2 253 253
Core i5-14600K Raptor Lake Refresh 5,3 6 8 20 24 2 181 181
Core i5-14500 Raptor Lake Refresh 5,0 6 8 20 24 2 154 65
Core i5-14400F Raptor Lake Refresh 4,7 6 4 16 20 2 148 65
Core i3-14100F Raptor Lake Refresh 4,7 4 - 8 12 2 - 58
Core i9-13900KS Raptor Lake 6,0 8 16 32 36 2 253 253
Core i9-13900K Raptor Lake 5,8 8 16 32 36 2 253 253
Core i7-13700K Raptor Lake 5,4 8 8 24 30 2 253 253
Core i7-13700 Raptor Lake 5,2 8 8 24 30 2 219 65
Core i5-13600K Raptor Lake 5,1 6 8 20 24 2 181 181
Core i5-13400F Raptor Lake 4,6 6 4 16 20 2 148 65
Core i3-13100F Raptor Lake 4,5 4 - 8 12 2 89 58
Core i9-12900KS Alder Lake 5,5 8 8 24 30 2 241 241
Core i9-12900K Alder Lake 5,2 8 8 24 30 2 241 241
Core i7-12700K Alder Lake 5,0 8 4 20 25 2 190 190
Core i5-12600K Alder Lake 4,9 6 4 16 20 2 150 150
Core i5-12400F Alder Lake 4,4 6 - 12 18 2 117 65
Core i3-12100 Alder Lake 4,3 4 - 8 12 2 89 60
Pentium G7400 Alder Lake 3,7 2 - 4 6 2 46 46
Core i9-11900K Rocket Lake 5,3 8 - 16 16 2 251 125
Core i5-11600K Rocket Lake 4,9 6 - 12 12 2 251 125
Core i9-10980XE Cascade Lake 4,8 18 - 36 24,75 4 165 165
Core i9-10900K Comet Lake 5,3 10 - 20 20 2 250 125
Core i7-10700K* Comet Lake 5,1 8 - 16 16 2 229 125
Core i5-10600K Comet Lake 4,8 6 - 12 12 2 182 125
Core i9-9900K Coffee Lake-R 5,0 8 - 16 16 2 119 95
Core i9-7940X Skylake-X 4,4 14 - 28 19,25 4 165 165
Core i9-7900X Skylake-X 4,5 10 - 20 14 4 140 140
Core i7-7740X Kaby Lake-X 4,5 4 - 8 8 2 112 112

N'ayant pas de Core i7-10700K a disposition, nous avons utilisé un Core i7-10700 sur lequel nous avons poussé les limites de consommation au niveau de son grand frère. Si cela n'en fait pas un modèle K, il s'en approche beaucoup lors des tests les plus parallélisés, moins en monothread du fait de fréquences notablement plus basses dans ces conditions. C'est pourquoi vous retrouvez cette référence identifiée par une * dans nos graphiques.

Maintenant que vous savez tout ou presque sur les processeurs inclus dans ce dossier, il est temps de passer au protocole de test page suivante.


Configurations et protocole de test

Pour ce dossier, nous réutilisons le protocole de test que nous avons  avons figé cette année : tout d'abord, nous utilisons la toute dernière version en date de Windows 11 (22H2), qui a eu le temps de mûrir pour expurger les bugs de jeunesse. Nous employons une GeForce RTX 4090 FE, afin de repousser très largement la limitation GPU qui pourrait empêcher de réellement différencier les processeurs les plus rapides entre eux, y compris en FHD pour certains jeux. Concernant les tests Linux, nous utilisons Ubuntu, dans sa version 22.10. D'un point de vue général, la "philosophie" de notre protocole est la suivante : faire la part belle aux applications courantes les plus gourmandes et tirant parti des puces multicœurs. Le nombre de tests réalisés est donc réduit (nous ne cherchons pas l'exhaustivité), en choisissant ceux nous semblant pertinents et surtout représentatifs des gains à attendre d'un processeur multicœurs véloce. En effet, gagner par exemple plusieurs minutes pour une tâche de rendu ou d'encodage, ne se ressent pas du tout de la même façon côté utilisateur, que de gagner par exemple une seconde pour une mise en page, mais qui pourrait pourtant impacter l'indice de performance global de manière similaire, sans que cela ne soit réellement pertinent.

Voici les applications utilisées :

  • AIDA64 - 6.85.6345
  • CPU-Z Test 17.01.64
  • Cinebench R23.200
  • 7-zip 22.01
  • Stockfish 15.1
  • Blender - 3.4.1
  • After Effects - 23.2.1
  • VEGAS Pro - 20.0.370
  • DxO PhotoLab - 6.4.0
  • Lightroom Classic - 12.2.1
  • HandBrake - 1.6.1
  • Cinema 4D 2023.1.4
  • Arnold for Maya - 5.2.2.4
  • Visual Studio 2022 - 17.5.2
  • GCC - 12.2.0
  • TensorFlow 2.12.0
  • Anno 1800 - 17.1.1232159
  • Cyberpunk 2077 - 1.62
  • Doom Eternal - 6.66 Rev 2
  • F1 2022 - 1.19.959964
  • Far Cry 6 - 1.7.0
  • Grand Theft Auto V - 1.0.2944.0
  • HITMAN 3 - 3.150.0
  • Microsoft Flight Simulator - 1.31.22.0
  • Project CARS - 1.0.0.0.0724
  • Total War : Warhammer III - 3.1.0
  • Watch Dogs : Legion - 1.5.6
  • X-Plane 12 - 12.05

Nous désactivons les différentes "optimisations" des constructeurs au sein du bios des cartes mères, afin de retrouver le comportement des CPU au plus près des spécifications de leurs concepteurs.

Pour rappel, la gestion de la limite de puissance diffère entre les 2 constructeurs. Ainsi, AMD utilise une valeur unique nommée PPT (Power Package Tracking), qui va s'appliquer systématiquement (hors overclocking). Intel de son côté, définit 2 valeurs qu'il nomme depuis Alder Lake, Maximum Turbo Power (PL2 pour Power Limit 2) et Processor Base Power (PL1).

La première citée correspond à la limite de puissance que le CPU va se voir attribué durant un laps de temps donné (Tau), avant de basculer vers la seconde, qui correspond donc à la limite de puissance à longue durée. Depuis la Gen 12, les processeurs K disposent de la même valeur dans les 2 cas. Pour les autres puces des bleus, nous fixons la valeur TAU à 56 s et les PL1 / PL2 aux spécifications d'Intel (vous retrouverez les valeurs spécifiques de chaque processeur au sein du tableau en page précédente) :

• Composants communs

GeForce RTX 4090 FESeasonic Prime TXWD Black SN850

Afin d'évaluer nos différents processeurs, nous avons retenu des éléments de configuration type, indépendamment de la plateforme, afin de respecter l'équité entre les différentes configurations. La carte graphique, comme indiquée précédemment, est donc la référence la plus rapide à l'heure actuelle, à savoir une GeForce RTX 4090. Les tests sont systématiquement exécutés sur un très véloce SSD Western Digital Black SN850 1 To, connecté à un port NVMe câblé en PCIe 4.0 (4 lignes). Enfin, l'alimentation est un modèle Seasonic Prime PX de 1 000 W, disposant de la certification 80+ Platinum et adapté à des configurations pouvant engloutir de nombreux Watts.

Côté mémoire, G.Skill nous a procuré des kits mémoires nous permettant de mener à bien nos tests et ceci qu'il s'agisse de DDR4 comme DDR5, adaptés à une configuration Intel (disposant d'un profil XMP) comme AMD (profil EXPO). Jetons donc un coup d'œil à cela.

  • G.Skill Trident Z RGB / DDR4-3200 / 14-14-14-34
  • G.Skill Flare X5 / DDR5-6000 / 30-38-38-96
  • G.Skill Trident Z5 RGB / DDR5-7200 / 34-45-45-115

Concernant les fréquences de fonctionnement de la mémoire, il existe plusieurs approches possibles : soit respecter à la lettre les spécifications officielles des concepteurs, souvent très conservatrices puisque devant prendre en considération le côté exotique de certaines barrettes, soit au-delà et souvent plus en phase avec l'usage qui sera fait par de nombreux acquéreurs. Nous avons opté pour cette dernière approche, en choisissant une fréquence de fonctionnement commune (pour un même type de mémoire) entre les concurrents, puisque l'on teste ici les CPU et ce même si la capacité à gérer des fréquences mémoire élevées n'est pas identique entre plateformes.

Compte tenu de la particularité de la plateforme LGA1700 d'Intel, pouvant utiliser soit de la DDR4 soit de la DDR5, nous avons décidé (arbitrairement nous en convenons) de coupler les processeurs K à la dernière citée et les autres à la première. Cela nous a paru logique vis-à-vis des prix respectifs des composants. Toutefois, vous retrouverez 2 lignes pour le Core i5-12400F, celles incluant la mention (DDR5) vous permettant de juger l'impact de la mémoire sur ce type de processeur. Toutefois, notre carte mère ayant rendu l'âme entretemps, la Gen 14 fut entièrement testée avec de la DDR5.

G.Skill Trident Z RGB G.Skill Flare X5 G.Skill Trident Z5 RGB

• Plateforme LGA1700 (DDR5)

ASUS ROG MAXIMUS Z790 HERO (BIOS 0904) / ASUS TUF GAMING Z790 Pro WiFi (BIOS 1641)
G.SKILL Trident Z5 RGB - 2 x 16 Go @DDR5-6000 (30-38-38)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Maximus Z790 Hero Asus TUF Gaming Z790-Pro WiFi

Les processeurs K des Gen 12/13 ont été testés sur la Hero et toute la Gen 14 sur la TUF Gaming. Les 13400F et 13700 l'on également été sur cette dernière.

• Plateforme LGA1700 (DDR4)

MSI MAG B660M Mortar WiFi DDR4 (BIOS 7D42v1C)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

MSI MAG B660M Mortar WiFI DDR4

Tous les processeurs non K des Gen 12 et 13 ont été testés sur cette carte mère à l'exception des 13400F/13700.

• Plateforme LGA1200

ASUS ROG MAXIMUS XIII HERO (BIOS 1701)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Maximus XIII Hero

• Plateforme LGA1151

ASUS ROG MAXIMUS XI HERO (BIOS 2004)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-2933 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Maximus XI Hero

Il ne nous a pas été possible de stabiliser 3200 MHz pour la DDR4 en dual channel sur cette plateforme (alors que cela ne posait pas de souci précédemment...)

• Plateforme LGA2066

Gigabyte AORUS X299 Gaming 7 (BIOS F9r)
G.SKILL Trident Z RGB - 4 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Gigabyte AORUS X299 Gaming 7

• Plateforme AM5

ASUS ROG CROSSHAIR X670E EXTREME (BIOS 1410) / ASROCK B650 Pro RS (BIOS 2.08)
G.SKILL Flare X5 - 2 x 16 Go @DDR5-6000 (30-38-38)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Crosshair X670E Extreme AsRock B650 Pro RS

Les Ryzen 8000G et 7500F ont été testés sur la B650 Pro RS.

• Plateforme AM4

ASUS ROG CROSSHAIR VIII DARK HERO (BIOS 4402) / ASUS ROG Strix B450-F Gaming (BIOS 5404)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Crosshair VIII Dark Hero Asus ROG Strix B450-F Gaming

Les Ryzen 1000 et Athlon 240GE ont été testé sur la B450-F Gaming.

• Dissipateur

Le refroidissement CPU est assuré par un excellent modèle de chez Noctua : le NH-U12A, capable de concurrencer la plupart des AIO avec les processeurs mainstream modernes, et très pratique à utiliser dans le cadre de nos tests, via les kits de fixations du constructeur lui permettant de s'adapter à toutes les plateformes. La pâte thermique est également d'origine Noctua, il s'agit de la non moins excellente NT-H2.

Noctua NH-U12A

• Logiciels

Windows 11 - Build 22621.1413
Pilotes Nvidia 531.29
Pilotes chipset AMD 5.02.19.2221
Pilotes chipset Intel 10.1.19199.8340

Nous employons Windows 11 en version Pro qui est un environnement propice à l'utilisation de toutes les capacités de nos CPU, en particulier les multicœurs massifs, qui pouvaient s'avérer quelque peu bridés par le scheduler de Windows plus anciens. Il gère également bien mieux l'affectation des processus au sein des processeurs Ryzen, ainsi que la latence au niveau des changements de fréquence. De même, l'hétérogénéité des processeurs Intel est bien mieux prise en compte. Les mises à jour ont été installées jusqu'au 11/04/2023 (hors jeux), puis bloquées pour maintenir la même configuration entre CPU. Nous rechargeons une image disque initiale à chaque changement de carte mère / microarchitecture.

• Benchmarks Linux

Acheter un CPU doté de très nombreux cœurs en 2023 n'est pas forcément exclusif à un usage ludique windowsien. Or, dans divers domaines, dont la programmation, nombreux sont les professionnels ou professionnels en devenir à s'aventurer sur l'OS manchot. Nous avons décidé pour cette nouvelle fournée de tests d'en reconduire certains sous Linux, notre image maison ayant migré sous Ubuntu, du fait d'un suivi logiciel plus régulier indispensable à la compatibilité de nos nouveaux venus. Nous nous appuyons sur la version 22.10, toutes les mises à jour jusqu'au 21/04/2023 ayant été appliquées.

Concernant les différents tests, nous avons utilisé les exécutables compilés en 64-bit (si existants) des différentes applications. Nous limitons l'usage de RAM à la même valeur entre plateformes au niveau des logiciels, afin de ne pas créer de distorsion à ce niveau, si d'aventure les capacités totales n'étaient pas identiques. Lorsque des options d'accélération GPU sont disponibles au sein des logiciels, ces dernières sont systématiquement désactivées pour se concentrer sur les prestations CPU "pures". Nous désactivons au sein des cartes mères tous les contrôleurs inutilisés (stockage, Wi-Fi, BT, etc.) ainsi que les LED ou autres artifices visuels. Tous les benchs sont reproduits entre 2 et 3 fois (selon la répétabilité du test) et le score de la meilleure de ces passes est reporté dans les graphiques, en excluant les scores faisant état d'un écart par trop "anormal".

Pour le domaine ludique, nous reportons cette fois la moyenne (5 passes) arrondie à l'entier le plus proche, mais aussi la valeur (arrondie également) du premier centile (1% Low) d'images par seconde. Nous utilisons la définition 1920x1080, qui est d'une part la plus répandue (de très (très) loin) et qui permet d'autre part de différencier les CPU entre eux, en s'affranchissant au maximum de la limitation GPU, via l'utilisation d'une carte graphique très véloce (l'objectif de ce test étant bien d'évaluer les CPU et non les GPU). C'est fini pour la description du protocole, mettons donc en action ces CPU.


Tests synthétiques

Nous débutons nos tests synthétiques par AIDA64 et ses outils de "bande passante mémoire" dans un premier temps. La configuration retenue pour les processeurs est pour rappel la suivante : 3200 MHz (14-14-14) -hormis le 9900K- pour la DDR4, côté DDR5 c'est 6000 MHz (30-38-38).

237b3a85177e35da1b05624781563a88

Poursuivons avec deux benchmarks synthétiques permettant une comparaison plus aisée des utilisateurs avec leur propre matériel. Le premier test est issu du mondialement célèbre CPU-Z. Nous reportons à la fois les résultats monothread et multithreads.

9c6ae9ab048c35196093dbce2675b0fa

Le second test est le non moins célèbre Cinebench R23. et comme pour le test précédent nous reportons les résultats en ne sollicitant qu'un seul cœur puis tous.

0c3dacb37039e13f877acb8deccaf221

Voilà, c'est terminé pour les benchs synthétiques, passons à présent aux tests pratiques.


Performances productives

Vous retrouverez dans le graphique suivant les résultats de nos 16 tests pratiques couvrant un large éventail d'activités.

07843c01bcd7526c4a728dcc304f0c8f

Afin d'établir une hiérarchie rapide, nous avons calculé un indice en pondérant le résultat de chaque test précédent.

eac1a3d23b1f0cdd1a47a3c16629cc0f

Voilà pour les tâches que l'on qualifiera de sérieuses, mais comment diable se comportent nos nouveaux venus quand il s'agit de s'adonner à des activités plus fun ? Voyons cela page suivante.


Performances ludiques

Quid des performances ludiques mesurées avec nos différents protagonistes ? A noter que le Pentium G7400 n'a pas réussi à lancer Microsoft Flight Simulator, le chargement se terminant systématiquement par un plantage. Le jeu indique toutefois lors de sa phase d'initialisation que le processeur ne respecte pas le minimum requis, ce n'est donc pas surprenant mais fait étrange, l'Athlon 240GE reprenant une configuration semblable 2C/4T et voyant apparaitre le même message, parvient tout de même à conclure le test.

7f1133311475e1578a515010f0a12275

Avant toute chose, rappelons que nous choisissons ici de nous positionner volontairement en situation de limitation CPU, en utilisant des scènes et réglages adaptés, le tout couplé avec une carte graphique clairement surdimensionnée pour la définition utilisée. En condition plus "réaliste", ces situations interviennent bien plus rarement et le GPU s'avère généralement limitant bien avant le CPU, lissant ainsi les écarts entre la plupart des références testées. Toutefois, ce mode opératoire permet d'évaluer nos CPU dans des situations difficiles qui pourraient survenir à l'avenir, avec la complexification croissante des jeux.

A l'instar des tests de production, nous avons réalisé également un indice pour hiérarchiser les différents processeurs selon leurs aptitude au jeu. Pour rappel, le Pentium G7400 est affligé d'un zéro pointé sur Microsoft Flight Simulator, ce qui impact son indice.

4ddd07956ac4ef62ff5fc3d9b4a68132

Voilà pour les performances en jeu, passons aux mesures de consommation page suivante.


Consommation, efficacité & températures

Intéressons-nous à présent au besoin énergétique des différents processeurs. Nous mesurons ici la consommation totale à la prise, mais aussi sur les lignes 12 V dédiées au CPU. Précisons que nous nous limitons à présent aux seuls connecteurs ATX 4/8 broches, pour nous concentrer exclusivement sur la puissance absorbée par les processeurs, mais ces derniers peuvent également l'être par le biais du connecteur à 24 pins. Il est toutefois difficile pour ce dernier d'isoler la puissance absorbée par les seuls CPU d'où notre choix. C'est ce qui explique certaines disparités que vous constaterez selon les plateformes au niveau de la consommation à la prise et celle que nous indiquons 12 V (au-delà de la consommation des autres éléments et des pertes dues à l'efficacité de l'alimentation). Commençons par la consommation au repos.

13f5577c6fe7d5b06b4963a11be443cb

En charge à présent, durant la seconde passe de l'encodage H.264.

f0ee74dadeb28123baaef6aa5a2b9258

Nous croisons enfin les résultats de performance obtenus durant. l'encodage avec la puissance absorbée pour établir un indice d'efficacité énergétique.

99ba1ecd8e69c1eca4c8aa13e0126f99

 Finissons par les températures mesurées là aussi durant l'opération d'encodage (il s'agit de la valeur de crête mesurée).

eeb7a6e35ec5cd68eccc898f15b623bf

Voilà, nous en avons fini avec ce comparatif, alors que penser de l'évolution durant ces plus de 7 années passées ? En termes d'usage productif, le processeur le plus rapide de notre échantillon de tests à savoir le R9 7950X, est 14 fois plus rapide que l'Athlon 240GE (le moins rapide de l'échantillon) ce qui est vertigineux. Toutefois, la comparaison est biaisée puisque d'un côté on trouve une puce positionnée à l'entrée de gamme dés son lancement, alors qu'il s'agit de l'autre côté du vaisseau amiral d'AMD (avec la version X3D). Pour être un peu plus fairplay, on peut opposer cette fois le 7740X, qui n'est "qu'un" 7700K cadencé légèrement plus, ce dernier étant le flagship de la plateforme Kaby Lake d'Intel, lancée en Janvier 2017. Bien que moins impressionnant, l'écart reste colossal avec un rapport de plus de 5. On est loin des 10/15 % supplémentaires qui ont prévalu précédemment entre chaque génération depuis Sandy Bridge jusqu'à Kaby Lake. Cela montre donc tout l'intérêt de cette concurrence pour le progrès. On nuancera tout de même cette assertion en mettant aussi en exergue le fait que la consommation entre ces 2 références a également plus que doublée dans le même temps, et ce même si l'efficacité énergétique a elle aussi connu une progression similaire. Les derniers pourcents de performance coûtent très cher en termes de puissance électrique absorbée, il serait donc peut-être temps que les géants du microprocesseurs acceptent que 5% de moins, ce n'est pas la mort en soi. Finissons avec le côté ludique, les gains sont cette fois moindres mais loin d'être négligeables pour autant, puisque le 7800X3D est par exemple plus de deux fois plus rapide que le 7700X, tout du moins si on s'en tient au Full HD via une carte graphique démesurée pour cette définition. Dans des conditions plus "réalistes", l'écart serait encore bien moindre.


Nous remercions naturellement nos partenaires pour la mise à disposition des éléments ayant permis la réalisation de ce dossier.

  •  

Test • AMD Radeon RX 7900 GRE : que vaut-elle face à la RX 7800 XT ?

Par : Eric B.
1 décembre 2023 à 13:00

Duel fratricide sous le signe du lapin !

Alors que Navi 32 se faisait  plus qu'attendre, AMD lançait fin juillet une carte pour le moins inattendue : la RX 7900 GRE pour Golden Rabbit Edition. Derrière ce nom plutôt étrange, se cachait en fait la volonté initiale de ne commercialiser ce produit à la vente unitaire qu'en Chine. Cette dernière étant entrée dans l'année du lapin depuis le 22 janvier 2023, cela explique le terme Rabbit. Au programme, un Navi 31 partiellement désactivé afin d'en faire une carte RDNA 3 haut de gamme, mais plus accessible que les RX 7900 XT/XTX, avec un MSRP fixé à 649 $. Cette référence a toutefois été rapidement disponible dans d'autres contrées au sein de configurations complètes, puis au travers de bundles incluant carte mère et alimentation. La politique commerciale semble avoir encore été assouplie depuis, puisqu'il est possible depuis un bon mois de se la procurer unitairement hors de Chine. L'occasion donc de tester cette référence et surtout de la comparer à la RX 7800 XT lancée entre-temps et occupant à priori le même créneau. Quelle option est la plus pertinente entre ces deux alternatives, et comment se comporte-t-elle face aux cartes vertes ? Quid de la consommation électrique et des autres aspects environnementaux ? Réponses à ces questions et bien d'autres au sein de ce dossier.


Navi 31

Pour ceux intéressés par l’architecture RDNA 3, nous vous renvoyons à la page que nous lui avons consacrée lors de notre dossier récapitulant les performances des cartes de nouvelles générations. Comme nous l’indiquions en débutant ce dossier, AMD utilise Navi 31 pour animer la RX 7900 GRE. Il s'agit du premier GPU multi-die employant 2 types de chiplets. Les MCD (Memory Cache Die) intégrant 2 contrôleurs mémoires 32-bit et 16 Mo de cache L3 (Infinity Cache) et gravés en 6 nm par TSMC, pour une surface unitaire de 37,5 mm². Dans cette déclinaison, Navi 31 en embarque 4 fonctionnels contre respectivement 5 et 6 pour les 7900 XT et XTX. Ensuite, le GCD (Graphics Compute Die) comporte la partie "logique" du GPU : il est gravé cette fois en 5 nm pour une surface de 304 mm², mais n'est que partiellement activé, comme nous allons le détailler dans le tableau suivant.

Navi 31 RX 7900 XTX RX 7900 XT RX 7900 GRE
Shader Engine 4 4 4
CU 96 84 80
SP 6 144 5 376 5 120
FP32 12 288 10752 10 240
TMU 384 336 320
Ray Accelerators 96 84 80
ROP 192 192 192
L2 (Mo) 6 6 6
L3 (Mo) 96 80 64
Bus mémoire (bits) 384 320 256

AMD n'active que 80 des 96 CU présents au sein du GCD, soit une réduction de près de 17 %. Elle reste toutefois proche de la RX 7900 XT à ce niveau. Le bus mémoire et le cache L3 se voient quant à eux amputés d'un tiers par rapport à la version intégrale embarquée sur la 7900 XTX, du fait des "seuls" 4 MCD actifs. Attention, il s'agit ici des caractéristiques "physiques" du GPU, la limite de puissance et par extension les fréquences de fonctionnement, ont bien entendu eux aussi un impact significatif, d'autant qu’elles sont ici plutôt restrictives sur ce modèle de référence, comme vous le verrez plus bas.

RADEON RX 7900 GRE MBA

C'est la boutique Infomax située au niveau de la célèbre rue Montgallet à Paris, qui nous a procuré cet exemplaire de test. Nous les remercions donc chaleureusement pour ce prêt. Il s'agit d'un modèle MBA (Made By AMD) qui peut être acquis au tarif de 799 € au moment d'écrire ces lignes. On est donc largement au-dessus du MSRP, toutefois les prix semblent baisser dans d'autres pays européens depuis quelques jours pour cette référence, à voir ce qu'il en sera en France dans les semaines qui viennent. Mais revenons à la carte à proprement parler, qui ressemble comme deux gouttes à une RX 7900 XT MBA, qui aurait subi un petit régime. Elle est donc très réussie visuellement, ce critère étant toutefois purement subjectif et propre aux goûts de chacun. La carte utilise trois ventilateurs de 80 mm à 9 pales cerclées entre elles. Le carter en aluminium teinté noir, donne un aspect très qualitatif à la carte.

Radeon RX 7900 GRE Made By AMD : face avant

La face avant de la RADEON RX 7900 GRE MBA

La face opposée est intégralement recouverte par une plaque de finition métallique conservant le noir. La carte mesure 26,9 cm de long (le PCB est un peu plus court) et accuse 1145 grammes à la pesée, soit une valeur identique à celle de la RX 7800 XT en matière de longueur, tout en étant légèrement plus lourde (25 grammes) que cette dernière.

Radeon RX 7900 GRE Made By AMD : face arrière

Et la face arrière

La carte vue de côté laisse apparaitre les 2 connecteurs d’alimentation à 8 broches, capable de délivrer jusqu’à 150 W chacun, le slot PCIe pouvant apporter jusqu’à 75 W supplémentaires. De quoi laisser théoriquement une grosse marge pour l’overclocking par rapport au TBP (Total Board Power) de la carte, officiellement défini à 260 W. Faut-il encore qu'AMD le permette. À noter également que si la carte utilise 2 équerres de fixation, son encombrement réel est légèrement supérieur, puisqu'il faudra compter un demi slot supplémentaire pour la loger. On distingue enfin le radiateur affichant une grosse densité d'ailettes, AMD perpétuant le fait d'en teinter 3 en rouge pour rappeler qu'il s'agit ici de la troisième génération RDNA.

Radeon RX 7900 GRE Made By AMD : connecteurs d'alimentation

Le connecteur d’alimentation

La connectique vidéo est composée de trois Display Port 2.1, dont un par l'entremise d'un connecteur USB Type-C, complétés par un HDMI 2.1A. Les deux équerres de fixation sont pleines, l'intégralité de l'air chaud est donc rejetée à l'intérieur du boitier par le haut de la carte.

Radeon RX 7900 GRE Made By AMD : connecteurs vidéo

La connectique vidéo

Poursuivons avec le comportement mesuré au travers de GPU-Z. A première vue, ce dernier n’a aucun souci pour reconnaitre les éléments principaux de la carte, puisqu'on retrouve bien les 5 120 SP (10 240 ALU FP32) et 320 TMU. Côté ROP, il n'en identifie toutefois que 80, alors qu'à priori (AMD n'est pas explicite à ce sujet) le nombre de ces derniers est inchangé par rapport aux deux autres 7900, GPU-Z devraient donc afficher une valeur de 192. Nous utilisons pourtant la dernière version en date, sensée entre autres choses supporter officiellement la RX 7900 GRE. Quoi qu'il en soit, les 16 Go de GDDR6 adressés en 256-bit, sont par contre bel et bien détectés. Ils sont cadencés à 2 250 MHz, soit un débit par pin de 18 Gbps. Le GPU dispose d’une consigne de boost fixée à 2 245 MHz, soit la valeur de référence, comme on peut l'attendre d'un modèle MBA. Cela ne reste toutefois qu'une "consigne", divers algorithmes entrant en jeu pour adapter la fréquence à la qualité de la puce et aux conditions d'utilisation. Voyons donc en détail quelles fréquences sont réellement appliquées pour cette RX 7900 GRE MBA.

La RX 7900 GRE vue par GPU-Z

GPU-Z de la Radeon RX 7900 GRE MBA

Au repos, GPU-Z reporte une fréquence très faible pour le GPU et la mémoire, caractéristique des Radeon modernes. Ce constat pour la GDDR6 n’est toutefois valable qu’avec une fréquence de rafraîchissement verticale de 60 Hz pour notre écran UHD ou lorsque la VRR d'un écran compatible est activée, même si dans certains cas d'usage multi-écrans, cela ne suffit pas. Plus de détail à ce sujet en page consommation. En charge, notre carte passe très brièvement à 2 613 MHz (uniquement mesurés via un fichier "log", nous ne sommes de notre côté pas parvenus à capturer mieux que 2 392 MHz), avant de chuter très nettement. Elle se stabilise sous les 2 GHz lorsqu’une charge très sévère est maintenue. Ainsi, sous A Plague Tale : Requiem, nous mesurons une fréquence moyenne de 1 993 MHz après 30 min d'exécution, soit 250 MHz au-dessous de la consigne. Vous retrouverez plus de détails à ce sujet sur cette page.

Les fréquences de la RX 7900 GRE

Les fréquences de fonctionnement de la Radeon RX 7900 GRE MBA

C’est tout pour cette Radeon RX 7900 GRE Made by AMD, passons au protocole de test.


Protocole de test

Ce test visant à départager les GPU entre eux, nous tâchons de les mettre en situation en limitant autant que possible les influences d’autres facteurs. Nous optons donc pour une configuration particulièrement musclée, avec un Core i9 de génération Raptor Lake. Nous désactivons l’Hyper-Threading afin de privilégier la répétabilité des mesures et les performances (en libérant de l’enveloppe de puissance), tout en disposant de suffisamment de threads pour les moteurs 3D les plus gourmands à ce niveau. Enfin, nous activons le Resizable BAR dans le bios, afin de profiter de cette fonctionnalité pour les cartes le supportant. Nous couplons à ce processeur de la mémoire très véloce fournie par G.Skill, pour tirer parti au mieux de ce dernier.

• Hardware

Intel Core i9-13900KS (HT Off)
ASUS MAXIMUS Z690 Hero
G.Skill Trident Z5 RGB [2 x 16 Go 7200@34-45-45-2T]
Western Digital Black SN850X - 1 To (OS) / Corsair MP 600 Core - 4 To (Jeux)
BeQuiet ! Dark Power Pro 13 - 1300 W
Asus PG43UQ

Asus Maximus Z690 Hero G.Skill Trident Z5 RGB Dark Power Pro 13 1300 W

Asus nous a également procuré un moniteur ROG Swift PG43UQ pour nos tests. Ce modèle UHD d’une diagonale élevée permet de mieux traquer les éventuels défauts ou optimisations par trop agressives des concepteurs de GPU, dans leurs tentatives pour pousser toujours plus loin les performances. L’Adaptive Sync est désactivée durant les mesures en jeu et nous utilisons une fréquence de rafraîchissement de 144 Hz en UHD. Nous utilisons également ponctuellement un second moniteur, le MSi Optix NXGR253R, pour mesurer la consommation au repos en multi-écrans, et ce dans de différentes conditions, y compris avec un rafraîchissement vertical très élevé (360 Hz). Nous réactivons également ponctuellement l'Adaptive Sync pour mesurer son effet lors de la consommation au repos des cartes.

Nous avons réuni pour ce test l'échantillon de cartes suivantes. Entre parenthèses, sont indiquées les fréquences GPU et mémoire maximales en MHz. Pour rappel, la fréquence GPU variera plus ou moins largement à la baisse, pour les cartes dotées d’un "boost" par rapport à cette valeur indiquée, selon la charge, température et/ou consommation. Cette indication n’est donc là qu’à titre purement informatif et ne correspond pas forcément à la fréquence réellement appliquée durant les tests.

AMD Radeon RX 6800 (2 232 / 1 988)
AMD Radeon RX 6800 XT (2 425 / 1 988)
AMD Radeon RX 6900 XT (2 532 / 1 988)
Gigabyte Radeon RX 7800 XT Gaming Pro (2 738 / 2 238)
AMD Radeon RX 7900 GRE Made By AMD (2 613 / 2 238)
AMD Radeon RX 7900 XT Made By AMD (2 952 / 2 487)
Nvidia GeForce RTX 4070 Founders Edition (2 820 / 1 313)
Gainward GeForce RTX 4070 Ti Phoenix (2 880 / 1 313)

Il n'existe pas de Founders Edition pour la GeForce RTX 4070 Ti, nous avons donc utilisé notre Gainward Phoenix Golden Sample mise à jour avec un firmware respectant scrupuleusement les spécifications de référence et fournie par le constructeur (que nous remercions). De quoi représenter cette référence dans nos différents tests, sans biais lié à un quelconque overclocking de série. Les températures et nuisances sonores sont par contre spécifiques à ce modèle. N'ayant plus à disposition la Radeon RX 7800 XT MBA, Gigabyte nous a procuré un modèle custom pour la remplacer. Cette dernière est toutefois overclockée tout en disposant d'une limite de puissance nettement plus élevée, lui permettant d'être plus rapide que le modèle de référence. Ne disposant pas pour l'heure d'outil pour flasher cette carte avec le BIOS d'une MBA, il faudra donc garder en tête lors des comparatifs, qu'il s'agit ici d'une carte overclockée, ce qui n'est pas le cas des autres réunies lors de ce test.

• Software

  • Windows 11 Pro 23H2
  • AMD Adrenalin 23.11.1
  • NVIDIA 546.17

Nous utilisons Windows 11, ce qui implique nécessairement une version 64-bit afin d’exploiter une quantité conséquente de mémoire vive et ne pas limiter les jeux qui en auraient besoin à ce niveau. Les dernières mises à jour de l’OS et de DirectX sont bien sûr installées avant de procéder aux séries de tests des cartes graphiques : pas d’évolution logicielle (jeux/OS/applications) -hormis les pilotes graphiques bien entendu- entre toutes les cartes composant l’échantillon retenu. Côté pilotes, nous utilisons les derniers disponibles au moment des mesures. Les réglages par défaut sont utilisés pour tous les constructeurs, voici ce que cela donne pour les cartes du caméléon :

Réglages pilotes Nvidia

Réglages par défaut des pilotes GeForce

Ci-dessous les réglages par défaut des Radeon :

Pilotes AMD 23.x.x

Réglages par défaut des pilotes Radeon

• Protocole

Concernant les différents benchmarks/logiciels utilisés, nous exécutons ces derniers au minimum 3 fois et retenons le meilleur score de la série. Pour les performances en jeu, les résultats ont été obtenus via Frameview 1.4.9419.33427627 (une interface graphique pour PresentMon ajoutant des données de monitoring) sur un déplacement reproductible, et correspondent à la moyenne de 3 "passes" minimum. La température de la pièce est maintenue à 20°C durant tous les tests.

L’échantillon de test est composé au total de 21 jeux, ils utilisent tous un moteur 3D différent, afin de mesurer l’efficacité de nos cartes dans de nombreuses situations réellement différenciées. Cela nous permet de vous proposer les résultats obtenus pour 20 jeux en rastérisation et 18 utilisant le Ray Tracing. Nous essayons de suivre l’actualité vidéoludique en remplaçant régulièrement des références par de nouvelles, en nous assurant que les titres choisis conviennent à cet exercice (répétabilité, absence de limitation, etc.). Nous avons retenu les définitions 2560 x 1440 (QHD) et 3840 x 2160 (UHD) qui siéent aux cartes testées. Notons tout de même que les tests en UHD avec RT actif sont réalisés avec l'apport des technologies d'upscaling disponibles (charge trop lourdes sinon pour de telles cartes), les différents niveaux de qualité sélectionnés étant précisés au sein des graphiques.


Spécifications

Avant d'aborder les spécifications des différentes cartes lancées, un mot rapide sur les GPU et procédés de fabrication associés. Commençons par le cas le plus simple, à savoir Intel qui se contente pour l'heure de 2 GPU : l'ACM-G10 pour les solutions moyen de gamme et performance (ARC A770/750 et futures A5xx) et l'ACM-G11 pour l'entrée de gamme (ARC A3xx). Intel est un fondeur, mais plutôt que de faire appel à ses propres capacités de production, il sous-traite la gravure de ces 2 puces à TSMC via  son procédé de fabrication N6, une optimisation du nœud 7 nm. Clairement dépassé en termes de densité ou de performance par le 5 nm et maintenant 3 nm du géant taïwanais des semiconducteurs, ce procédé de fabrication à l'avantage d'être bien moins cher. ACM-G10 est une puce plutôt conséquente, avec un peu plus de 400 mm² de surface et pas moins de 21,7 milliards de transistors. Son petit frère se contente de 157 mm² pour 7 milliards de transistors.

Nvidia de son côté a fait un choix totalement différent, en basculant l'intégralité de sa gamme sur le 4N de TSMC, une déclinaison "personnalisée" du très performant 5 nm. Pas moins de 5 GPU différents ont été conçus, allant d'AD102 intégrant plus de 76 milliards de transistors sur une superficie de 608 mm² et animant la RTX 4090, au petit AD107 se contentant de 159 mm² pour presque 19 milliards et affecté cette fois à la RTX 4060. Entre ces 2 extrêmes se trouvent les puces AD103 (RTX 4080), AD104 (RTX 4070 Ti / RTX 4070) et AD106 (RTX 4060 Ti) par ordre décroissant de superficie et complexité. Ces 5 références monopolisent le haut du classement en matière de densité de transistors par mm², multipliant pratiquement par trois cette valeur en comparaison du précédent N8 de Samsung, du fait de la différence conséquente entre ces 2 nœuds de gravure, et ce contrairement à ce que laisseraient penser leurs nomenclatures commerciales respectives. Le N8 est en fait une optimisation du Node 10nm, Nvidia "enjambant" donc le 7 nm pour passer directement au 5 nm.

AMD a lui opté pour un "en même temps" que ne renierait pas un homme politique français, ayant été élu à deux reprises à la magistrature suprême. Le N5 de TSMC est donc dévolu aux GCD, alors que les MCD doivent de leur côté se contenter du N6, tout comme Navi 33. Ce dernier, purement monolithique, mesure 204 mm² pour 13,3 milliards de transistors et se charge d'animer la RX 7600. À l'autre bout de la gamme, les 6 MCD plus le GCD d'un Navi 31 complet occupent une superficie totale de presque 530 mm², pour 57,7 milliards de transistors. La densité est donc légèrement moindre que sur les puces intégralement en 4N du caméléon, mais finalement pas si éloignée malgré le mix des nœuds de gravure. Cela tendrait à corroborer l'assertion d'AMD quant aux faibles gains (en densité au moins) à attendre d'une gravure plus fine pour certains éléments constitutifs d'un GPU. Et Navi 32 des RX 7700 XT et 7800 XT alors ? Il couple un GCD de 200 mm² gravé en 5 nm, à 4 MCD gravés en 6 nm par TSMC. La partie logique étant fortement réduite sur le nouveau GCD, la densité va finalement se positionner entre celle de Navi 33 et Navi 31.

GPU
Process
Nombre de transistors Superficie die Densité (Millions de transistors par mm²)
AD102 4N TSMC 76,3 milliards 608,5 mm² 125,4
AD106 4N TSMC 22,9 milliards 187,8 mm² 121,9
AD104 4N TSMC 35,8 milliards 294,5 mm² 121,6
AD103 4N TSMC 45,9 milliards 378,6 mm² 121,2
AD107 4N TSMC 18,9 milliards 158,7 mm² 119,1
Navi 31 N5 + N6 TSMC 57,7 milliards 529,5 mm² 109
Navi 32 N5 + N6 TSMC 28,1 milliards 350 mm² 80,3
GA100 7N TSMC 54.2 milliards 826 mm² 65,6
Navi 33 N6 TSMC 13,3 milliards 204 mm² 65,2
ACM-G10 N6 TSMC 21,7 milliards 406 mm² 53,4
Navi 21 N7P TSMC 26,8 milliards 520 mm² 51,6
Navi 22 N7P TSMC 17,2 milliards 335 mm² 51,3
Navi 24 N6 TSMC 5,4 milliards 107 mm² 50,5
Navi 23 N7P TSMC 11,1 milliards 237 mm² 46,8
ACM-G11 N6 TSMC 7,2 milliards 157 mm² 45,9
GA102 8N Samsung 28,3 milliards 628,4 mm² 45
GA104 8N Samsung 17,4 milliards 392 mm² 44,4
GA106 8N Samsung 12 milliards 276 mm² 43,5
Navi 10 N7P TSMC 10,3 milliards 251 mm² 41
Vega 20 N7FF TSMC 13.2 milliards 331 mm² 39,9
GP102 16FFC TSMC 12 milliards 471 mm² 25,5
Vega 10 14LPP GF 12.5 milliards 495 mm² 25,3
GP100 16FFC TSMC 15,3 milliards 610 mm² 25,1
TU104 12FFC TSMC 13,6 milliards 545 mm² 25
TU102 12FFC TSMC 18,6 milliards 754 mm² 24,7
TU106 12FFC TSMC 10,8 milliards 445 mm² 24,3

Détaillons à présent les caractéristiques des cartes employant ces GPU en comparaison d’un certain nombre de cartes des segments performance, haut de gamme, et enthusiast, des générations précédentes.

Cartes GPU Fréq. Boost GPU (MHz) Fréq. Mémoire (MHz)

SP
/
CC

ALU FP32 ROP VRAM (Go) Bus mem. (bits) Calcul SP (Tflops) Bande Passante mémoire (Go/s) TGP (W)
RX Vega56 Vega 10 1 471 800 3 584 3 584 64 8 2 048 10,5 410 210
RX Vega64 Vega 10 1 546 946 4 096 4 096 64 8 2 048 12,7 484 295
Radeon VII Vega 20 1 750 1 000 3 840 3 840 64 16 4 096 13,4 1 024 300
RX 5700 Navi 10 1 725 1 750 2 304 2 304 64 8 256 7,9 448 180
RX 5700 XT Navi 10 1 905 1 750 2 560 2 560 64 8 256 9,8 448 225
RX 6700 Navi 22 2 174 1 988 2 304 2 304 64 10 160 10 318 175
RX 6700 XT Navi 22 2 424 1 988 2 560 2 560 64 12 192 12,4 382 230
RX 6750 XT Navi 22 2 495 2 238 2 560 2 560 64 12 192 12,8 430 250
RX 6800 Navi 21 1 815 1 988 3 840 3 840 96 16 256 13,9 509 250
RX 6800 XT Navi 21 2 015 1 988 4 608 4 608 128 16 256 18,6 509 300
RX 6900 XT Navi 21 2 015 1 988 5 120 5 120 128 16 256 20,6 509 300
RX 6950 XT Navi 21 2 100 2 238 5 120 5 120 128 16 256 21,5 573 335
RX 7700 XT Navi 32 2 544 2 238 3 456 6 912 96 12 192 35,2 430 245
RX 7800 XT Navi 32 2 430 2 425 3 840 7 680 96 16 256 37,3 621 263
RX 7900 GRE Navi 31 2 245 2 238 5 120 10 240 192 16 256 46,0 573 260
RX 7900 XT Navi 31 2 400 2 487 5 376 10 752 192 20 320 51,6 796 315
RX 7900 XTX Navi 31 2 500 2 487 6 144 12 288 192 24 384 61,4 955 355
ARC A750 ACM-G10 2 400 2 000 3 584 3 584 112 8 256 17,2 512 225
ARC A770 ACM-G10 2 400 2 000 / 2 188 4 096 4 096 128 8 / 16 256 19,7 512 / 560 225
GTX 1070 GP104 1 683 2 002 1 920 1 920 64 8 256 6,5 256 150
GTX 1070 Ti GP104 1 683 2 002 2 432 2 432 64 8 256 8,2 256 180
GTX 1080 GP104 1 733 1 251 2 560 2 560 64 8 256 8,9 320 180
GTX 1080 Ti GP102 1 582 1 376 3 584 3 584 88 11 352 11,3 484 250
RTX 2070 TU106 1 620 1 750 2 304 2 304 64 8 256 7,5 448 175
RTX 2070 SUPER TU104 1 770 1 750 2 560 2 560 64 8 256 9,1 448 215
RTX 2080 TU104 1 710 1 750 2 944 2 944 64 8 256 10,1 448 215
RTX 2080 SUPER TU104 1 815 1 938 3 072 3 072 64 8 256 11,2 496 250
RTX 2080 Ti TU102 1 545 1 750 4 352 4 352 88 11 352 13,5 616 250
RTX 3070 GA104 1 725 1 750 2 944 5 888 96 8 256 20,3 448 220
RTX 3070 Ti GA104 1 770 1 188 3 077 6 144 96 8 256 21,7 608 290
RTX 3080 GA102 1 710 1 188 4 352 8 704 96 10 320 29,8 760 320
RTX 3080 12 Go GA102 1 710 1 188 4 480 8 960 96 12 384 30,6 912 350
RTX 3080 Ti GA102 1 665 1 188 5 120 10 240 112 12 384 34,1 912 350
RTX 3090 GA102 1 695 1 219 5 248 10 496 112 24 384 35,6 936 350
RTX 3090 Ti GA102 1 860 1 313 5 376 10 752 112 24 384 40 1 008 450
RTX 4070 AD104 2 475 1 313 2 944 5 888 64 12 192 29,1 504 200
RTX 4070 Ti AD104 2 610 1 313 3 840 7 680 80 12 192 40,1 504 285
RTX 4080 AD103 2 505 1 400 4 864 9 728 112 16 256 48,7 717 320
RTX 4090 AD102 2 520 1 313 8 192 16 384 176 24 384 82,6 1 008 450

Rappelons qu'il est très difficile d'inférer les performances pratiques d'une carte graphique sur la seule base des valeurs brutes annoncées. Plusieurs raisons à cela, dont les fréquences réellement appliquées (qui diffèrent plus ou moins largement de celles officielles), mais aussi les subtilités architecturales quant aux conditions d'exécution de certaines unités ou l'impact par exemple des larges caches sur la bande passante effective. Toujours est-il que la 7900 GRE dispose d'un avantage conséquent (+ 23 %) en ce qui concerne la puissance de calcul théorique par rapport à la 7800 XT. Ce n'est toutefois valable que si les fréquences réellement appliquées de part et d'autres sont celles officielles, ce qui n'est que rarement le cas, comme nous l'indiquions page précédente. Qui plus est, si bus mémoire et cache L3 sont identiques à ceux de la 7800 XT, elle doit composer avec des puces mémoires moins véloces, conduisant à une bande passante mémoire en berne de 8 %. Exécutons quelques tests synthétiques pour tâcher d'y voir un peu plus clair.

Tests synthétiques

Nous utilisons la suite de tests Geeks 3D pour estimer les performances synthétiques de la nouvelle venue, lors de l’exécution de certaines tâches particulières. Ainsi, PixMark Julia FP32 permet de mesurer la puissance de calcul brute en simple précision (FP32) et le fillrate qui en découle. Il dépend donc à la fois des unités de calcul et des ROP. Le test GiMark, s’attache de son côté à évaluer les performances de nos cartes au niveau de la géométrie (génération de primitives 3D). Enfin, TessMark permet de son côté de mesurer les capacités en tessellation des différentes cartes. Ces tests étant relativement brefs et spécifiques (n’utilisant donc qu’une partie des ressources totales des GPU), ils permettent aux modèles limités par leur température et/ou puissance électrique maximale autorisée de conserver des fréquences plus élevées que lors d’une session de jeu par exemple.

En matière de puissance de calcul brute, sur ce test la RX 7900 GRE prend un avantage de 15 % par rapport à la 7800 XT overclockée de Gigabyte. C'est encore mieux côté géométrie, puisque l'avantage passe cette fois à 39 %. Enfin, elle devance sa rivale rouge du jour de 24 % en tessellation. Tout est beau sous le soleil donc ? Eh bien oui pour des tests ne saturant pas l'enveloppe de puissance accordée comme c'est le cas ici, permettant ainsi de conserver des fréquences d'exécution élevées. Nous verrons ce qu'il en est en jeu un peu plus tard dans ce test. Il faut également garder à l'esprit que ces tests utilisent des scènes spécifiques, accentuant exagérément certains calculs pour permettre de les différentier. Ce n'est pas vraiment l'usage typique d'un rendu 3D, même si cela permet de mettre en évidence certaines limitations de telle ou telle architecture (ou GPU).

ab04a473d0315f94e3ca16fbd5515250

Passons à présent à des tests synthétiques issus de 3DMark, en s’attachant à vérifier les capacités des cartes graphiques sur divers points. DXR, au nom explicite, sollicite de manière intensive les capacités d’accélération du Ray Tracing par le GPU, au travers de l’API de Microsoft. Si RDNA 3 dispose d'unités plus performantes que RDNA 2, la quantité de ces dernières entre bien évidemment aussi en compte. Ainsi la 7900 GRE dispose de 80 unités de ce type, soit la même valeur que la RX 6900 XT. Le gain est toutefois réduit, car les fréquences de fonctionnement de cette dernière sont supérieures à la belle du jour dans ce test, compensant en grande partie le différentiel générationnel. L'avantage sur la 7800 XT est tout de même de 19 % qui n'en a "que" 60, mais fonctionnant à des fréquences plus élevées.

Mesh Shader évalue la capacité de traitement de ces derniers par les GPU modernes. Le test permet de comparer les performances avec et sans Mesh Shaders actifs, mais cette représentation ne permet pas une comparaison pertinente entre cartes. Nous affichons donc les performances de chaque référence avec Mesh Shaders actifs. L'avantage de la 7900 GRE sur la 7800 XT se limite ici à 7 %. Le test PCIe mesure le débit de l’interface éponyme et confirme ici l’usage de 16 lignes PCIe 4.0 pour tous, tout en notant que les cartes d’AMD disposent systématiquement d’un petit avantage à ce niveau.

Le test Sampler Feedback, mesure de son côté l’impact de cette fonctionnalité introduite par les cartes Turing, via le Texture Space Shading. La RX 7800 XT talonne cette fois la RX 7900 GRE. Enfin, le test VRS, abréviation de Variable Rate Shading, permet de mesurer le gain apporté par cette fonctionnalité lorsqu’elle est activée. Là aussi, le test affichant une comparaison entre 2 passes, nous préférons reporter ici le score atteint par chaque carte une fois la fonctionnalité activée, permettant ainsi une comparaison brute entre elles. Pas de changement de hiérarchie notable par rapport au test précédent, si ce n'est un avantage légèrement plus important (6 %) pour la 7900 GRE.

d3a0dc6bd857645b0756fe16b318514e

Voilà pour les spécifications des différentes cartes et leurs performances synthétiques, passons page suivante à l'analyse de leurs fréquences en jeu.


Évolution des fréquences et overclocking

Afin de tirer le maximum de leurs cartes, les concepteurs de GPU utilisent une technique de boost consistant à s’affranchir des marges de sécurité liées à l’environnement de fonctionnement. Ainsi, le GPU est calibré pour donner son maximum par défaut (variable selon la qualité du silicium), mais des limites vont lui être appliquées en matière de puissance électrique absorbée et de température de fonctionnement maximale. Il s'agit des garde-fous, qui vont s’assurer que le GPU reste dans des plages de fonctionnement compatibles avec sa fiabilité, en jouant sur la courbe fréquence/tension appliquée à ce dernier. Nous enregistrons donc la fréquence de fonctionnement du GPU en tâche de fond sous forte charge (A Plague Tale : Requiem en QHD), et ce durant 30 min.

Alors comment se comporte la RX 7900 GRE MBA ? La courbe de puissance électrique absorbée par la carte est une ligne horizontale presque parfaite, une fois la montée en température réalisée. C'est le signe indubitable d'une carte atteignant et se conformant à son plafond énergétique. Notons que la valeur indiquée est inférieure au TBP, toutefois les valeurs remontées par l'API ne sont pas toujours très fiables, même si ici, nos mesures PCAT corroborent également une valeur inférieure aux 260 Watts officiellement communiqués. Après une pointe à 2613 MHz, la carte est toute de suite rappelée à l'ordre par son enveloppe de puissance, avec pour conséquence une chute vertigineuse de 500 MHz. Après un premier palier, elle va repartir à la baisse et se stabiliser sous les 2 GHz. Au bout des 30 min du test, la fréquence moyenne mesurée est de 1 993 MHz, bien en-deçà de la consigne de 2 245 MHz. C'est une valeur relativement faible pour une carte moderne, nul doute que le GPU peut faire mieux que cela, mais il faudra pour cela lui lâcher la bride au niveau de la limite de puissance. Rendez-vous en fin de page pour cela.

Suivi de la fréquence en jeu pour la RX 7900 GRE MBA

Évolution de la fréquence GPU de la RX 7900 GRE MBA sous "A Plague Tale : Requiem"

Il s’agit d’une situation particulièrement intense, le bridage par le TGP/TBP impactant fortement les fréquences sur la durée d'un jeu aussi gourmand. Pour avoir une vue un peu plus globale du sujet, nous reportons dans le tableau suivant les valeurs de fréquences moyennes (du GPU), mesurées durant les séquences de test. Ces dernières, bien que plus courtes (généralement entre une à cinq minutes selon le titre), permettent de se faire une idée du comportement de la carte dans des situations plus variées, que l’unique cas de scènes très lourdes au sein d'un jeu très lourd et ce pour une durée prolongée.

Fréquence moyenne du GPU (MHz) RX 7900 GRE MBA
A Plague Tale : Requiem 2 046
Alan Wake II 2 112
Cyberpunk 2077 2 049
Dead Space 2 202
Doom Eternal 2 058
Dying Light 2 2 080
Elden Ring 2 146
F1 23 2 004
Far Cry 6 2 158
Forspoken 2 161
Forza Motorsport 2 171
Hitman III 2 122
Lord of the Fallen 2 103
Ratchet & Clank : Rift Apart 2 124
Red Dead Redemption 2 2 158
Resident Evil 4 2 092
Returnal 2 111
Starfield 2 161
Total War : Pharaoh 2 106
Warhammer 40,000: Darktide 2 082
Watch Dogs : Legion 2 077
Moyenne 2 111

La moyenne obtenue est de 2 111 MHz. Si cela reste encore bien au-dessous de la consigne de boost, c'est tout de même bien mieux que les 1993 MHz précédents.

Overclocking

Puisqu'AMD bride la carte en sortie de boite, peut-on la libérer de ce carcan énergétique et pour quel résultat en pratique ? Pour cela, il faut aller faire un petit tour dans l'onglet performance des pilotes. La première option à modifier pour ceux qui ne veulent pas se casser la tête, est d'augmenter la limite de consommation au maximum (+15 %).

La section overclocking des pilotes de la RX 7900 GRE MBA

La section OC des pilotes pour la RX 7900 GRE

Une fois cette opération effectuée, la fréquence GPU sous A Plague Tale: Requiem va progresser de plus de 180 MHz en comparaison de son niveau à condition équivalente (charge soutenue). Pour aller plus loin, il est possible d'overclocker la mémoire, malheureusement AMD bride cette possibilité à 3 %, alors que ce point serait plus que bénéfique pour cette carte. Peut-être pour éviter qu'elle ne vienne trop chatouiller une RX 7900 XT une fois overclockée ? Quoi qu'il en soit, il est possible d'améliorer encore les performances, en procédant à l'undervolting du GPU (ce qui va décaler la courbe fréquence/tension), permettant d'atteindre pratiquement les 2,3 GHz cette fois, lors d'une charge soutenue.

RX 7900 GRE overclockée

À gauche en poussant uniquement la limite de consommation, à droite en y ajoutant overclocking et undervolting

Que gagne-t-on à pousser ainsi la carte ? En se limitant à augmenter la puissance maximale autorisée, le nombre d'images par seconde va progresser de 4,6 % pour une consommation électrique augmentant, elle, de 40 W (+ 17 %). Pas très rentable d'un point de vue énergétique. En procédant ensuite au surcadençage du GPU et de la mémoire, couplé à l'undervolting du premier cité, on parvient cette fois à des gains plus intéressant de 8,9 %. La consommation électrique est inchangée par rapport à la valeur précédente (288 W, soit + 17 % par rapport à la carte @stock), puisque nous avons conservé la même limite de puissance. La température du GPU n'évolue pas non plus, mais les nuisances sonores progressent significativement à + 2,8 dBA. La RX 7900 XT reste hors de portée (+ 18%), bien aidée par sa bande passante mémoire largement supérieure, même après surcadençage de la GDDR6 sur la 7900 GRE. Voilà pour cette partie, il est temps à présent de passer aux performances ludiques page suivante.


Performances ludiques en rastérisation

Comment se positionne donc la RX 7900 GRE au sein de l'échantillon de tests ? Cette dernière va généralement devancer légèrement la RX 7800 Gaming OC de Gigabyte, même si ce n'est pas systématique et dépendra bien entendu des différents jeux. Pour rappel, nous comparons ici une 7900 GRE MBA (non overclockée pour le coup), à une carte overclockée par défaut et disposant d'une limite de puissance bien plus élevée. Ce n'est pas sans conséquence sur les fréquences appliquées (et donc in fine les performances), il faut donc bien garder en tête ce fait. Quoi qu'il en soit et face à d'autres cartes de référence, elle se positionne entre les RTX 4070 et RTX 4070 Ti, s'avérant donc totalement incapable de suivre le rythme de sa grande sœur, et ce malgré un nombre d'unités de calcul pas si éloigné de celui de cette dernière. Elle paie ici à nouveau ses fréquences réduites du fait de la limite de puissance, ainsi qu'une bande passante mémoire bien moindre.

9ba18ce993731930e73b6e9d3790cc13

Qu'est-ce que ça change en montant en définition ? Eh bien en fait pas grand-chose, puisqu'elle ne parvient pas à prendre un ascendant plus flagrant sur la RX 7800 XT OC. On notera par contre qu'avec cette définition plus élevée, sa grande sœur creuse quelque peu l'écart, ce qui n'est pas le cas de la RTX 4070 Ti, l'influence de la bande passante mémoire se faisant davantage sentir en UHD.

7e76ee1f008582b93179710b501f9b4c

Performances ludiques en ray Tracing

En activant le Ray Tracing au niveau de détail maximum (hors Path Tracing) en 2560 x 1440, la RX 7900 GRE va avoir tendance à s'en sortir un chouia mieux que sa petite sœur, sans que cela soit flagrant pour autant. Elle profite du nombre plus important de Ray Accelerators au sein de son GPU, même si les fréquences plus basses contrebalancent une bonne partie de cet effet. En élargissant la comparaison à la marque concurrente, la RX 7900 GRE est cette fois devancée régulièrement par la RTX 4070 FE.

c8765d1e3bf3d27a104ca4f78468efd3

Ces cartes étant trop justes pour activer le Ray Tracing en UHD nativement, nous activons simultanément les technologies d'upscaling disponibles dans les jeux (la meilleure pour chaque constructeur). À ce petit jeu, la présence largement plus répandue du DLSS 3 que le FSR 3 (qui plus est utilisable sur les concurrentes alors que l'inverse n'est pas vrai), donne aux verts un avantage considérable. À noter qu'ils serait possible d'utiliser les pilotes spécifiques d'AMD pour activer le Fluid Motion Frames dans certains d'entre eux, mais l'utilisation de cette technologie nécessite d'activer la V-Sync pour fonctionner correctement, sans compter une dégradation visuelle notable du fait de l'absence de vecteurs de mouvements dans l'algorithme d'upscaling associé. Il s'agit donc plus d'une preview technologique qu'une solution mâture, c'est pourquoi nous ne l'avons pas retenue pour l'heure. Un dernier point, lorsque le FSR n'était pas disponible dans le jeu, nous avons utilisé soit l'upscaling propriétaire du jeu pour ceux en étant dotés, soit le RSR via les pilotes, donnant un résultat visuel comparable au FSR (1) et donc inférieur au FSR 2. Pour revenir à la RX 7900 GRE, à nouveau elle a un mal fou à se différencier de notre RX 7800 XT overclockée.

1ca692a2bf928dfa0bf7d49d50412fb9

Voilà pour les prestations ludiques, récapitulons tout cela page suivante.


Indices de performance

Le résultat de chaque test est plus important et judicieux qu'un indice global, mais ce dernier permet d'établir une hiérarchie facilement compréhensible, aussi imparfaite soit-elle. Voyons donc comment se comporte la nouvelle venue : nous avons réalisé pour cela des indices pour chaque carte en appliquant une pondération identique pour chaque jeu et en attribuant la valeur 100 à la RX 6800.

Sur notre indice rastérisation à 20 jeux, la RX 7900 GRE va prendre un ascendant de 2 % sur la RX 7800 XT de Gigabyte. Pour  appel cette dernière est overclockée et dispose d'une limite de puissance bien plus élevée que le modèle MBA, lui conférant ainsi un avantage. Ainsi, lors de notre précédent test, la 7800 XT MBA devançait de 3 % la RX 6800 XT tout en finissant à 9 % derrière la RX 6900 XT. La carte de Gigabyte porte son avance sur la première cité à 6% et ne concède que 2 % à la seconde.

Nous avons remplacé un certain nombre de titres au sein de notre échantillon de tests entre les 2 dossiers, les écarts sont donc à prendre avec une certaine prudence, pour autant, l'avantage de la RX 7900 GRE sur une 7800 XT MBA ne changerait pas drastiquement, tout au plus 5/6 % si on se base sur les différentiels précédemment indiqués. Les 2 références sont donc relativement proches et la montée en définition n'y change rien, puisque la belle du jour souffre aussi d'une bande passante mémoire moindre que celle de sa petite sœur.

Si on s'intéresse cette fois aux performances en Ray Tracing, on peut discerner un très léger mieux en QHD (+ 2,77 %), mais on est à ce niveau dans la marge d'erreur des mesures. Qui plus est, en couplant une montée en définition avec une technique d'upscaling, les performances sont alors encore plus proches que précédemment ( + 1,7 %). Inutile de tourner autour du pot, la RX 7900 GRE est un peu plus rapide que la RX 7800 XT, mais les écarts sont limités y compris entre deux cartes qui ne seraient pas overclockées par défaut. Il faudra donc départager ces deux modèles via d'autres critères, que les seules performances brutes en jeu.

f23946ea667897d8f66f37573b7f2464

Pour tâcher de mettre en évidence l'impact d'activation du RT (réglé au maximum hormis Cyberpunk 2077 en Ultra et sans Path Tracing pour ce dernier et Alan Wake II), en comparant les performances pour chaque jeu testé dans les 2 modes de rendu. Décidément, il est toujours aussi difficile de départager cette RX 7900 GRE de la RX 7800 XT Gaming OC de Gigabyte, puisqu'elles restent collées l'une à l'autre selon ce critère. À noter que le graphique en UHD est particulier, puisqu'il compare les performance en UHD et rastérisation sans upscaling, avec celles obtenues en RT mais avec l'appui des DLSS et FSR pour atteindre la définition sélectionnée. Cela montre que du côté des rouges, on arrive via cette technique à revenir tant bien que mal au niveau de performance moyen obtenu en rastérisation, alors que du côté des verts, on peut profiter des effets RT et de performances en hausse (merci le Frame Generation).

3b3a0dbdf350430ea50a9be830bdc3bb

Benchmark

Nous utilisons le test Time Spy Extreme dédié à DX12 en UHD dans 3DMark et nous reportons le score Graphic du test. Nous avons également inclus Port Royal et Relic of Life du fait du support du Ray Tracing sur les dernières Radeon et ARC, en sus des GeForce récentes. Speed Way fait également partie de nos mesures, s'appuyant sur DX12 Ultimate : il fait usage de toutes les fonctionnalités possibles via cette API, incluant le RT, les Mesh Shaders, VRS et autres. Pour finir, nous ajoutons deux tests dédiés à la réalité virtuelle, par le biais de VR Mark. Sans surprise, il est toujours impossible de différencier significativement les RX 7900 GRE et Gigabyte RX 7800 XT Gaming OC.

b3b81101a988274c9053ca60e8b0e43b

Voilà pour cette partie performance, passons aux mesures environnementales page suivante.


Nuisances sonores

Nous positionnons le sonomètre à 30 cm de la carte graphique, légèrement plus haut que cette dernière. Afin de limiter au maximum les nuisances externes aux cartes, nous coupons temporairement pendant la mesure, les ventilateurs du CPU. Nous utilisons un sonomètre Casella Tech CEL-620A1, certifié et calibré pour une plage de mesures comprises entre 20 et 140 dB(A).


Au repos, toutes les cartes coupent leur ventilation, les rendant alors totalement inaudibles, une très bonne chose ! En jeu, la RX 7900 GRE est une bonne élève, puisqu'elle se montre bien plus discrète que sa grande sœur et même (très légèrement pour le coup) que la Gigabyte RX 7800 XT MBA (bios silent). Elle s'avère même plus discrète que la RX 7800 XT MBA, si on se fie aux mesures de cette dernière réalisées lors de notre précédent test.

2c784b830c3c6a096e40403806691e4c

Températures

Nous utilisons les sondes internes monitorées via GPU-Z en tâche de fond, et ce durant 20 min de charge GPU sévère, avant de relever la température des processeurs graphiques. Nous laissons ensuite les cartes au repos durant 20 min, avant de relever à nouveau la température des GPU. Au repos, toutes les cartes s’en sortent correctement, et ce malgré un fonctionnement passif. La RX 7900 GRE est d'ailleurs dans le peloton de tête. En charge, cette dernière va se montrer un peu plus fraîche que sa grande sœur, même si elle voit la carte de Gigabyte faire mieux. Elle se consolera en battant à nouveau la RX 7800 XT MBA, toujours d'après notre précédent test de cette dernière.

8d6c0593edce6e21f2e52c7282209d96

Imagerie thermique

Pour préciser notre avis quant à l’efficacité thermique du refroidisseur de la carte évaluée ce jour, rien de mieux qu’une petite séance d’imagerie infrarouge à l’aide de notre caméra thermique Fluke Ti110.

La Radeon RX 7900 GRE MBA va se comporter tout à fait correctement au repos, avec une plaque arrière se limitant à 36°C au maximum. Cette dernière empêche une vue précise du PCB, il est toutefois visible au niveau du connecteur PCIe et affiche des valeurs de cet ordre. En charge, la plaque arrière va atteindre cette fois 74°C à son point le plus chaud, quant au PCB il atteint les 73°C au niveau du slot PCIe. Ce sont des valeurs plutôt élevées, probablement dues à l'arbitrage d 'AMD concernant le profil de ventilation, privilégiant ostensiblement le silence à la fraîcheur.

Image thermique de la RX 7900 GRE au reposImage thermique de la RX 7900 GRE en charge

Images thermiques de la Radeon RX 7900 GRE MBA (au repos et en charge)

Poursuivons nos mesures par la consommation en charge des cartes testées.


Consommation des cartes

Pour déterminer la consommation des cartes graphiques (seules), nous utilisons PCAT, un kit composé d’un riser PCIe connecté à un module s’intercalant entre le bloc d’alimentation et la carte graphique. Toutes les sources de puissances sont donc enregistrées au travers d’un petit logiciel via une connexion USB. Par mesure de sécurité, nous contrôlons certaines mesures de manière aléatoire, via notre précédent kit (riser + pinces ampèremétriques), pour nous assurer de la fiabilité des données remontées.

Consommation au repos

Nous avons multiplié les situations afin de vérifier le comportement des cartes au repos selon le nombre d'écrans utilisés et leur type. Avec une fréquence de rafraichissement vertical à 60 Hz, c'est plutôt serré entre Radeon et GeForce de dernière génération, si on omet la RTX 4070 Ti de Gainward, qui n'est pas très vertueuse à ce niveau. En passant la fréquence de rafraîchissement de notre écran UHD à 144 Hz, les Radeon voient leur consommation s'emballer (du fait d'une fréquence mémoire bloquée à sa valeur maximale), toutefois, il est possible de revenir à une situation nominale en activant le VRR (Freesync dans les pilotes de ces dernières) si l'écran dispose d'une telle fonctionnalité.

En utilisant cette fois deux écrans (1 UHD & 1 FHD) à 60 Hz, on va retrouver une situation globalement similaire à celle avec un seul écran à cette fréquence de rafraîchissement vertical, avec quelques watts de plus au compteur et des Radeon plus frugales que leurs concurrentes. Avec l'activation du 144 Hz sur l'écran principal, ces dernières repassent en consommation élevée (encore une fois du fait de la fréquence VRAM appliquée), l'activation de Freesync rétablissant la situation pour RDNA 3, mais pas les cartes RDNA 2. À noter que nous avons poussé nos mesures un peu plus loin en passant le second écran à 360 Hz (le premier toujours à 144 Hz), la consommation augmente considérablement pour toutes les cartes, même si les GeForce s'en sortent mieux globalement. Il est même possible de réduire encore leur consommation via le VRR, ce qui n'est pas contre pas le cas des Radeon et ce quelque soit leur génération cette fois.

77992884611c3fde9a4927421a0845b7

Consommation en charge

En charge, nous introduisons une petite nouveauté, puisqu’en sus d'un jeu gourmand en rastérisation et d'un autre en Ray Tracing, nous incluons à présent la moyenne de consommation établie sur les 20 jeux constituant notre échantillon de tests en rastérisation. La RX 7900 GRE MBA se montre plutôt raisonnable avec 248 W, dans les eaux de la RX 6800 à qui elle succède, et du même ordre que la RX 7800 XT MBA lors de son test. A contrario, la Gigabyte RX 7800 XT Gaming OC demande 40 W de plus, se rapprochant donc davantage de la RX 7900 XT.

d61068afa66e703c88c8595b3cd7945e

Nous verrons ce qu’il en est des conséquences de ces puissances absorbées sur l’efficience globale un peu plus bas, mais avant cela, rappelons que depuis que nous utilisons PCAT, nous ne nous contentons pas de relever la consommation au sein d’un ou deux jeux, mais de l’intégralité de ces derniers. Pour avoir une vue plus exhaustive, voici donc le tableau récapitulant les consommations moyennes relevées (la plus élevée parmi les "passes" de chaque jeu (et la plus élevée entre rastérisation et RT si les 2 modes de rendu sont testés)).

Puissance absorbée par la carte (Watts) RX 7900 GRE MBA
A Plague Tale : Requiem 248
Alan Wake II 248
Cyberpunk 2077 249
Dead Space 248
Doom Eternal 249
Dying Light 2 248
Elden Ring 249
F1 23 249
Far Cry 6 247
Forspoken 248
Forza Motorsport 247
Hitman III 248
Lord of the Fallen 245
Ratchet & Clank : Rift Apart 250
Red Dead Redemption 2 248
Resident Evil 4 249
Returnal 249
Starfield 248
Total War : Pharaoh 248
Warhammer 40,000: Darktide 248
Watch Dogs : Legion 246
Moyenne 248

On note qu'il n'y a pratiquement pas d'amplitude selon les titres, preuve supplémentaire de la sévère limitation de la carte du côté de son enveloppe de puissance électrique autorisée. Pour boucler le sujet consommation, nous vous proposons le suivi durant 30 min d’une charge soutenue (A Plague Tale : Requiem en UHD) ci-dessous et qui confirme les points précédents.

Suivi de la puissance électrique absorbée par la RX 7900 GRE

Consommation en charge sous A Plague Tale : Requiem de la RX 7900 GRE MBA

Efficacité énergétique

Afin d’évaluer l’efficacité énergétique des cartes, nous réalisons un indice basé sur les performances et puissances absorbées durant l'exécution de nos tests. Bien entendu, ces indices ne représentent que la situation au travers des jeux mesurés, durant ces scènes et avec les niveaux de détails sélectionnés, tout ceci pouvant varier assez largement dans des conditions de test différentes. Pour pallier à une partie de cette variance, nous ajoutons également la moyenne des indices énergétiques de chaque jeu en UHD (rastérisation). La RX 7900 GRE fait grosso modo jeu égal avec sa grande sœur et s'avère bien plus efficiente que la Gigabyte RX 7800 XT Gaming OC. Si on se fie à notre test du modèle MBA, la RX 7900 GRE devrait conserver l'avantage sur cette dernière en version MBA, les cartes Ada Lovelace étant encore plus efficientes de leur côté.

f99a6dfe885d320aafef5c454cb34898

Avant de passer au verdict, intéressons nous à d’autres usages que le jeu page suivante.


Usage créatif / productif

Un GPU, cela ne sert pas uniquement au jeu. Que peut-on donc attendre de cette nouvelle génération de cartes dans ce domaine, en comparaison de leurs devancières ? Pour donner une petite idée des capacités à ce niveau, nous avons préparé un échantillon de tests, couvrant une (petite) partie des usages possibles avec un GPU en dehors du jeu.

Blender

Premier logiciel utilisé pour nos tests, Blender et son moteur de rendu Cycle, capable d’utiliser les GPU au travers d’Optix (GeForce), HIP (Radeon) et oneAPI (Intel Arc). Nous utilisons le benchmark qui va rendre 3 scènes différentes afin d'avoir une idée concrète des forces en présence.

1db8d104fd4f81c92ac800d5c2a8d777

Quel que soit le test retenu, les GeForce écrasent la concurrence, dans ce qui est indubitablement un point fort des verts, à savoir son support des applications professionnelles via son écosystème logiciel particulièrement développé à ce niveau. Qui plus est, ces rendus faisant appel au Path Tracing, la supériorité architecturale des verts pour ce type de rendu contribue fortement à cette hiérarchie à sens unique. Si on se focalise sur l'offre rouge cette fois, la Radeon RX 7900 GRE devance la RX 7800 XT Gaming OC avec une avantage variant entre 8 et 12 pourcents, soit des valeurs un peu plus élevées que celles mesurées en jeu.

Cinebench 2024

Second logiciel de notre échantillon de test, Cinebench est le benchmark issu du logiciel Cinema 4D de Maxon utilisant son propre moteur de rendu Redshift. Nous utilisons la dernière version en date qui propose à présent les tests des GPU, à l'exception des Intel ARC (peut-être à l'avenir via une mise à jour ?).

7942384be25142c431fc37caf78a62f3

Tout comme pour Blender, la série 40 des GeForce domine sous Cinebench, sans être aussi écrasante pour autant. La RX 7900 GRE MBA devance de 6 % la RX 7800 XT de Gigabyte, toute en finissant derrière les RX 6800 XT et 6900 XT.

DaVinci Resolve Studio

Finissons ces tests en utilisant DaVinci Resolve Studio, une référence pour le traitement des vidéos. Dans un premier temps, nous réalisons un projet à partir de rushs ProRES en UHD. Nous appliquons ensuite divers effets (flou gaussien, effets de style, etc.) et encodons le tout en H.264 pour un usage Vimeo 2160P, via un conteneur "MOV". Nous utilisons ensuite pour les tests suivants, un fichier brut ProRES en 8K (44 s pour limiter la taille déjà gigantesque), que nous allons exporter en 8K dans un conteneur "MP4", via un encodage H.265 puis AV1 (pour les cartes qui en sont capables), afin de solliciter les encodeurs de nos GPU.

5bafdf3bfb55b5d1775df2c5509c58e1

Notez que nous mesurons ici le temps d’export, mais pour une comparaison équitable, il ne faut pas se contenter de ce paramètre, mais aussi de la qualité obtenue. Cette opération longue et fastidieuse n’est pas réalisable lors d’un tel dossier, mais il nous parait important de le rappeler. Pour les tâches d’encodage pur, les dernières puces d'AMD s'avèrent très légèrement plus rapides que celle de Nvidia n'employant qu'un seul encodeur (4070), à contrario de la RTX 4070 Ti qui domine les débats avec son second actif. A noter qu'avec cette version des pilotes et de Resolve, les RX 7900 se montrent moins performantes que la RX 7800 XT en AV1 malgré de multiples essais. Ce n'était pas le cas de notre tests précédents avec des versions antérieures de ces derniers. Lors de l’exécution de notre projet Vimeo ayant recours en sus aux unités de calcul pour appliquer les différents effets, la hiérarchie se base davantage sur la puissance brute de calcul des différentes cartes, la RX 7900 GRE devançant donc légèrement la RX 7800 XT OC.

Consommation & efficacité énergétique

Quid des puissances électriques absorbées lors de l’exécution de ces logiciels ? Non seulement les cartes Ada se montrent terriblement performantes pour ces tâches, mais en plus elles le font avec souvent un appétit électrique moindre que la concurrence, RDNA 3 inclus. Parmi ces dernières, les RX 7900 GRE et Gigabyte RX 7800 XT Gaming OC jouent à saute-mouton selon les tests.

26f040c88cf7e6a8e356bcd801087022

Vu les performances  atteintes et les puissances électriques mesurées, il n'y avait pas l'ombre d'un doute quant à la nature de la hiérarchie à attendre pour l'efficience énergétique pour ce genre d'activité. Ada domine donc de la tête et des épaules, alors que du côté rouge, la RX 7900 GRE décroche de la Gigabyte RX 7800 XT Gaming OC pour les opérations d'encodage en AV1, du fait de la contre-performance indiquée précédemment.

65016a3c204eb557053ae4096c0e2b6d

Voilà pour les prestations en "production", place au verdict page suivante.


Verdict

Nous voici parvenus au terme de ce dossier, et le moins que l'on puisse dire, c'est qu'il est difficile de trouver un réel intérêt à cette RX 7900 GRE. Pas que la carte soit mauvaise dans l'absolu, loin de là, elle fait juste doublon avec la RX 7800 XT pour un tarif bien plus élevé, tout du moins en France pour le moment. À tarif similaire, l'équation serait bien différente, détaillons donc tout cela.

Banière RX 7900 GRE

Que penser de la RX 7900 GRE? On pouvait être pour le moins surpris de l'absence de successeur à la RX 6800 lors de l'introduction de RDNA 3, la RX 7900 GRE lancée presque 9 mois plus tard a comblé cette absence. Les arbitrages pratiqués sur Navi 31 par AMD pour cette dernière et la nature de Navi 32, ont rendu toutefois son positionnement plus que délicat. Navi 21 dans sa configuration RX 6800, disposait à la fois d'un bus mémoire et d'un cache L3 plus larges que Navi 22. Il n'en est rien pour cette génération. La question qui vient donc à l'esprit est : pourquoi ne pas l'avoir lancée bien avant la commercialisation de la RX 7800 XT, au moins pour assurer l'intermède ? La réponse est probablement multiple, et doit probablement être considérée au travers du prisme de l'écoulement des stocks de cartes Navi 21 restant sur les bras d'AMD après l'explosion de la bulle du mining. Il se peut aussi que les rendements eussent été suffisamment bons pour ne pas dégager assez de GPU ne répondant pas aux normes des RX 7900 XTX et XT, pour une commercialisation mondiale d'une telle référence. Seul AMD connait le fin mot de l'histoire.   

Quoi qu'il en soit,  la RX 7900 GRE destinée tout d'abord à la Chine, se retrouve à présent dans nos contrées alors que la RX 7800 XT est déjà commercialisée depuis septembre. Nous estimons l'avantage de la première sur la seconde, dans le cas de cartes de référence, à 5/6 % maximum. C'est bien trop faible au regard du différentiel tarifaire pratiqué en France. (799 € vs 600 €). Dans d'autres pays en Europe, la carte peut se dénicher aux alentours des 600 € également. À ce tarif, elle constitue alors une alternative très crédible à la RX 7800 XT, avec une meilleure efficience. Il est possible d'ailleurs d'augmenter significativement les performances en mettant un peu les mains dans le cambouis. On regrettera tout de même les limites imposées par AMD au niveau de la fréquence mémoire. La GDDR6 s'overclocke généralement plutôt bien, et la bande passante mémoire fait clairement défaut à cette RX 7900 GRE. Un choix probablement dicté par la volonté d'éviter que l'on puisse trop approcher la RX 7900 XT avec une GRE tweakée, mais 3 % de marge, c'est sérieusement par trop conservateur pour ne pas dire mesquin.

Nous remercions naturellement Infomax et nos partenaires pour la mise à disposition du matériel ayant permis la réalisation de ce dossier.

  •  

Test • Intel Core i9-14900KS : est-ce bien raisonnable ?

Par : Eric B.
14 mars 2024 à 16:00

2024 sera l'année des nouvelles microarchitectures CPU du côté rouge comme bleu. Pour autant, Intel n'en a pas encore fini avec sa 14ème génération. Après avoir élargi la gamme via des puces plus abordables, le géant du microprocesseur propose aujourd'hui le vaisseau amiral avec le Core i9-14900KS. Ces versions S (pour Special Edition) sont en fait des puces triées sur le volet (binning) selon leur capacité à monter en fréquence. Cela permet ainsi aux bleus d'afficher pas moins de 6,2 GHz en pointe pour le nouveau venu, accompagné d'une hausse de 25 W du TDP (qui est très largement outrepassé en fonctionnement réel). Qu'apporte cette nouvelle référence au 14900K déjà commercialisé depuis plusieurs mois ? Quid de la consommation électrique déjà gargantuesque sur le précédent flagship ? Réponse à ces questions et bien d'autres au sein de ce dossier.


Intel 14th Gen

Comme indiqué en introduction de ce dossier, les séries S ou Special Edition, sont des puces sélectionnées par Intel pour permettre d'atteindre des fréquences officielles plus élevées que les versions K "traditionnelles". C'est du reste la seule différence, hormis un TDP en hausse pour accompagner celle des fréquences. Ainsi, les Core i9-14900K et KS partagent exactement les mêmes caractéristiques, à savoir 8 coeurs "Performance" et 16 coeurs "Efficient" accompagnés d'un cache L3 de 36 Mo. Intel indique un prix client (recommended customer price) pour cette nouvelle référence à 699 $, soit le même que celui du 13900KS à son lancement et une grosse centaine de Dollars plus cher que le 14900K. Récapitulons donc la gamme au sein du tableau suivant :

Référence Cœurs / Threads

E-Core Freq. max

P-Core Freq. Max Cache L2 Cache L3 Puissance (courte durée) Puissance (longue durée) Prix
i9-14900KS 8P+16E / 32 4,5 GHz 6,2 GHz 32 Mo 36 Mo 253 W 253 W 699 $
i9-14900K 4,4 GHz 6,0 GHz 589 $
i9-14900KF 564 $
i9-14900 4,3 GHz 5,8 GHz 219 W 65 W 549 $
i9-14900F 524 $
i9-14900T 4,0 GHz 5,5 GHz 106 W 35 W 549 $
i7-14700K 8P+12E / 28 4,3 GHz 5,6 GHz 28 Mo 33 Mo 253 W 253 W 409 $
i7-14700KF 384 $
i7-14700 4,2 GHz 5,4 GHz 219 W 65 W 384 $
i7-14700F 359 $
i7-14700T 3,7 GHz 5,2 GHz 106 W 35 W 384 $
i5-14600K 6P+8E / 20 4,0 GHz 5,3 GHz 20 Mo 24 Mo 181 W 181 W 319 $
i5-14600KF 294 $
i5-14600 3,9 GHz 5,2 GHz 154 W 65 W 255 $
i5-14600T 3,6 GHz 5,1 GHz 92 W 35 W
i5-14500 3,7 GHz 5,0 GHz 11,5 Mo 154 W 65 W 232 $
i5-14500T 3,4 GHz 4,8 GHz 92 W 35 W
i5-14400 6P+4E / 16 3,5 GHz 4,7 GHz 9,5 Mo 20 Mo 148 W 65 W 221 $
i5-14400F 196 $
i5-14400T 3,2 GHz 4,5 GHz 82 W 35 W 221 $
i3-14100 4P / 8 - 4,7 GHz 5 Mo 12 Mo 110 W 60 W 134 $
i3-14100F 58 W 109 $
i3-14100T 69 W 35 W 134 $
Processor 300 2P / 4 3,9 GHz 2,5 Mo 6 Mo - 46 W 82 $
Processor 300T 3,4 GHz 35 W

Pour rappel, les versions F voient leur IGP désactivé, quant aux versions T, leur TDP est réduit à 35 W.  Même si tous les processeurs de cette gamme sont officiellement des puces au nom de code Raptor Lake (Refresh), en pratique elles vont mixer cette génération à Alder Lake, comme en témoigne la taille des caches L2 pour les Core i5-14500 et moindre. Poursuivons à présent par la description du dernier né de la gamme.

Core i9-14900KS

Le Core i9-14900KS étant le nouveau vaisseau amiral, Intel réutilise son packaging spécifique (similaire à celui des 12900KS et 13900KS) pour marquer le coup et lui donner un petit côté élitiste : à savoir une boite carton aimantée s'ouvrant en portefeuille. A l'intérieur, se trouve une seconde boite en plastique cette fois et représentant un Wafer qui s'ouvre en pivotant légèrement le couvercle supérieur. En retirant ensuite ce dernier, on accède au processeur.

Intel Core i9-14900KS : boite

Ce dernier est un CPU LGA1700 tout ce qu'il y a de plus classique, seul le marquage permet de le différencier des autres modèles. Il en est de même pour la face arrière, identique à toutes les puces utilisant le die Raptor Lake (8P+16E).

Intel Core i9-14900KS : face avantIntel Core i9-14900KS : face arrière

Que nous apprend CPU-Z sur le nouveau venu ? La configuration hétérogène est bien entendu de mise, puisque l'on retrouve les 8 cœurs "performance" accompagnés de 16 cœurs efficients, à l'instar des 13900K/13900KS/14900K. Le cache de niveau 3 est constitué de 36 Mo, quant au L2, il s'appuie sur 2 Mo par cœur performant et 4 Mo par partition de 4 cœurs efficients, soit un total de 32 Mo pour le CPU dans son intégralité. Le TDP indiqué est de 150 W, en hausse de 25 W par rapport à celui du 14900K. Toutefois, cette valeur ne veut plus dire grand chose sur un processeur K récent, puisque ces derniers peuvent conserver leur puissance maximale (bien supérieure au TDP) de manière illimitée, pour peu que l'on arrive à les refroidir correctement, ce qui n'est pas une mince affaire. Le Core i9-14900KS dispose donc d'une enveloppe de puissance de 253 W, inchangée par rapport à son petit frère malgré des fréquences plus élevées. Si cela ne pose pas de souci avec peu de coeurs sollicités puisque l'on atteint bien les 6,2 GHz en crête annoncée, cela s'avère plus compliqué si tous les coeurs sont soumis à une charge sévère. On peut toutefois de manière très brève atteindre les 5,9 GHz indiqués par Intel dans de telles conditions.

Intel Core i9-14900KS : les fréquences

Fréquences du Core i9-14900KS (Repos, 1 cœur actif, tous cœurs actifs)

Cela ne dure qu'un instant avant que les fréquences baissent significativement, puisque le CPU s'avère alors à l'étroit dans son enveloppe de puissance par défaut. Intel indique qu'il est possible d'augmenter les performances en appliquant le profil Extreme Power Delivery. Kesako ? En fait il s'agit ni plus ni moins que de porter la limite de puissance à 320 W. Par défaut, de nombreuses cartes mères vont encore plus loin puisqu'elles ne fixent pas de limite (ou une valeur très élevée comme 4096 W par exemple). Pour simuler ces comportements, nous avons donc sélectionné PL1 = PL2 = 320 W puis 500 W. En pratique les fréquences grimpent bien, mais elles vont toujours s'avérer inférieures aux 5,9 GHz lors d'une charge très lourde. Pourquoi ? Eh bien tout simplement parce que 320 W s'avèrent pour certains usages encore trop justes (eh oui !) et que de toute façon, nous n'arrivons plus à refroidir suffisamment le processeur pour ne pas entrainer de throttle thermique au bout de quelques secondes et ce malgré l'usage d'un AIO Alphacool Eisbaer Aurora.

Intel Core i9-14900KS : les fréquences

Fréquences du Core i9-14900KS charge tous coeurs soutenue (253 W, 320 W & 500 W)

HWiNFO64 permet de monitorer un peu plus finement tout cela. En pleine charge sous 253 W, les P-Cores vont osciller entre 5,1 et 5,2 GHz alors que les E-Cores vont de leur côté adopter une cadence variant entre 4,1 GHz et 4,3 GHz. A 320 et 500 watts, les coeurs "P" vont cette fois osciller entre 5,2 et 5,5 GHz, quant aux coeurs "E", ils adopteront une fréquence pouvant aller de 4,2 GHz à 4,4 GHz. Dans ces deux cas, la limite thermique de 100°C est atteinte générant le ralentissement des fréquences, mais HWiNFO64 confirme également qu'il y a toujours par moment une contrainte au niveau de la puissance maximale admissible à 320 W. Durant cette session de test, nous avons mesuré (en augmentant la valeur à 500 W) jusqu'à 352 W absorbés (via les sondes internes monitorées par HWiNFO64) et même par moment durant d'autres tests, jusqu'à 378 W en crête.

Intel Core i9-14900KS : les fréquences

Fréquences du Core i9-14900KS via HWiNFO64 (253 W / 320 W / 500 W)

Pour en finir avec les fréquences de la partie CPU, nous utilisons également une boucle de divisions flottantes au moyen de l'utilitaire stress sous Linux. Au bout de 70 secondes (afin de limiter les variations dues à un potentiel boost trop court), nous échantillonnons 30 mesures de fréquences (du cœur le plus rapide) espacées de 200 ms entre chaque, puis reportons la médiane des maxima obtenus. Nous répétons l'opération complète à chaque changement du nombre de threads sollicités. Nous comparons les fréquences atteintes à 253 W et 320 W, sachant que pour ce test la puissance absorbée est moindre que celle induite par la charge nous permettant le monitoring sous HWiNFO64. La courbe à 500 W ne diffère donc ici en rien de celle à 320 W. Jusqu'à 17 threads, les deux options de puissance conduisent aux mêmes résultats, au-delà, le Core i9-14900KS est de plus en plus limité par son enveloppe de puissance maximale et doit compenser en réduisant ses fréquences.

f6afd22f0720115b222cdb273d33d3e7

Voilà, c'est terminé pour ce processeur, passons en page suivante à la description du protocole de test.


Configurations et protocole de test

Pour ce dossier, nous réutilisons le protocole de test que nous avons figé pour un an : tout d'abord, nous utilisons Windows 11 (22H2), qui a eu le temps de mûrir pour expurger les bugs de jeunesse. Nous employons une GeForce RTX 4090 FE, afin de repousser très largement la limitation GPU qui pourrait empêcher de réellement différencier les processeurs les plus rapides entre eux, y compris en FHD pour certains jeux. Concernant les tests Linux, nous utilisons Ubuntu, dans sa version 22.10. D'un point de vue général, la "philosophie" de notre protocole est la suivante : faire la part belle aux applications courantes les plus gourmandes et tirant parti des puces multicœurs. Le nombre de tests réalisés est donc réduit (nous ne cherchons pas l'exhaustivité), en choisissant ceux nous semblant pertinents et surtout représentatifs des gains à attendre d'un processeur multicœur véloce. En effet, gagner par exemple plusieurs minutes pour une tâche de rendu ou d'encodage, ne se ressent pas du tout de la même façon côté utilisateur, que de gagner par exemple une seconde pour une mise en page, mais qui pourrait pourtant impacter l'indice de performance global de manière similaire, sans que cela ne soit réellement pertinent.

Voici les applications utilisées :

  • AIDA64 - 6.85.6345
  • CPU-Z Test 17.01.64
  • Cinebench R23.200
  • 7-zip 22.01
  • Stockfish 15.1
  • Blender - 3.4.1
  • After Effects - 23.2.1
  • VEGAS Pro - 20.0.370
  • DxO PhotoLab - 6.4.0
  • Lightroom Classic - 12.2.1
  • HandBrake - 1.6.1
  • Cinema 4D 2023.1.4
  • Arnold for Maya - 5.2.2.4
  • Visual Studio 2022 - 17.5.2
  • GCC - 12.2.0
  • TensorFlow 2.12.0
  • Anno 1800 - 17.1.1232159
  • Cyberpunk 2077 - 1.62
  • Doom Eternal - 6.66 Rev 2
  • F1 2022 - 1.19.959964
  • Far Cry 6 - 1.7.0
  • Grand Theft Auto V - 1.0.2944.0
  • HITMAN 3 - 3.150.0
  • Microsoft Flight Simulator - 1.31.22.0
  • Project CARS - 1.0.0.0.0724
  • Total War : Warhammer III - 3.1.0
  • Watch Dogs : Legion - 1.5.6
  • X-Plane 12 - 12.05

Nous désactivons les différentes "optimisations" des constructeurs au sein du bios des cartes mères, afin de retrouver le comportement des CPU au plus près des spécifications de leurs concepteurs.

Pour rappel, la gestion de la limite de puissance diffère entre les 2 constructeurs. Ainsi, AMD utilise une valeur unique nommée PPT (Power Package Tracking), qui va s'appliquer systématiquement (hors overclocking). Intel de son côté, définit 2 valeurs (en réalité davantage mais facultatives pour certaines ou non exposées) qu'il nomme depuis Alder Lake, Maximum Turbo Power (PL2 pour Power Limit 2) et Processor Base Power (PL1).

La première citée correspond à la limite de puissance que le CPU va se voir attribuée durant un laps de temps donné (Tau), avant de basculer vers la seconde, qui correspond donc à la limite de puissance à longue durée. Depuis la Gen 12, les processeurs K disposent de la même valeur dans les 2 cas. Pour les autres puces des bleus, nous fixons la valeur TAU à 56 secondes (valeur qui n'est pas respectée pour les processeurs non K se contentant de 28 s) et les PL1 / PL2 aux spécifications d'Intel (vous retrouverez les valeurs spécifiques de chaque processeur dans le tableau en page précédente) :

• Composants communs

GeForce RTX 4090 FESeasonic Prime TXWD Black SN850

Afin d'évaluer nos différents processeurs, nous avons retenu des éléments de configuration type, indépendamment de la plateforme, afin de respecter l'équité entre les différentes configurations. La carte graphique, comme indiquée précédemment, est donc la référence la plus rapide à l'heure actuelle, à savoir une GeForce RTX 4090. Les tests sont systématiquement exécutés sur un très véloce SSD Western Digital Black SN850 1 To, connecté à un port NVMe câblé en PCIe 4.0 (4 lignes). Enfin, l'alimentation est un modèle Seasonic Prime PX de 1 000 W, disposant de la certification 80+ Platinum et adapté à des configurations pouvant engloutir de nombreux Watts.

Côté mémoire, G.Skill nous a procuré des kits mémoires nous permettant de mener à bien nos tests et ceci qu'il s'agisse de DDR4 comme DDR5, adaptés à une configuration Intel (disposant d'un profil XMP) comme AMD (profil EXPO). Jetons donc un coup d'œil à cela.

  • G.Skill Trident Z RGB / DDR4-3200 / 14-14-14-34
  • G.Skill Flare X5 / DDR5-6000 / 30-38-38-96

Concernant les fréquences de fonctionnement de la mémoire, il existe plusieurs approches possibles : soit respecter à la lettre les spécifications officielles des concepteurs, souvent très conservatrices puisque devant prendre en considération le côté exotique de certaines barrettes, soit au-delà et souvent plus en phase avec l'usage qui sera fait par de nombreux acquéreurs. Nous avons opté pour cette dernière approche, en choisissant une fréquence de fonctionnement commune (pour un même type de mémoire) entre les concurrents, puisque l'on teste ici les CPU et ce même si la capacité à gérer des fréquences mémoire élevées n'est pas identique entre plateformes.

Compte tenu de la particularité de la plateforme LGA 1700 d'Intel, pouvant utiliser soit de la DDR4 soit de la DDR5, nous avons décidé (arbitrairement nous en convenons) de coupler les processeurs K à la dernière citée et les autres à la première. Cela nous a paru logique vis-à-vis des prix respectifs des composants. Toutefois, vous retrouverez 2 lignes pour le Core i5-12400F, celles incluant la mention (DDR5) vous permettant de juger l'impact de la mémoire sur ce type de processeur.

Un petit souci avec notre carte mère supportant la DDR4 nous a contraint à tester les références "non K" de la génération 14 avec une carte mère DDR5, il faut donc prendre en compte cet élément en comparant ces derniers aux modèles des générations ultérieures. A noter toutefois que nous avons retesté le Core i5-13400F avec la même carte mère (DDR5) afin d'obtenir un comparatif plus pertinent face au Core i5-14400F.

G.Skill Trident Z RGB G.Skill Flare X5 G.Skill Trident Z5 RGB

• Plateforme LGA1700 (DDR5)

ASUS ROG MAXIMUS Z790 HERO (BIOS 0904) + Asus TUF Gaming Z790-Pro WiFi (BIOS 1641) pour Gen 14 (& 13400F)
G.SKILL Trident Z5 RGB - 2 x 16 Go @DDR5-6000 (30-38-38)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus Maximus Z790 Hero

• Plateforme LGA1700 (DDR4)

MSI MAG B660M Mortar WiFi DDR4 (BIOS 7D42v1C)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

MSI MAG B660M Mortar WiFI DDR4

• Plateforme LGA1200

ASUS ROG MAXIMUS XIII HERO (BIOS 1701)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Maximus XIII Hero

• Plateforme LGA2066

Gigabyte AORUS X299 Gaming 7 (BIOS F9r)
G.SKILL Trident Z RGB - 4 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Gigabyte AORUS X299 Gaming 7

• Plateforme AM5

ASUS ROG CROSSHAIR X670E EXTREME (BIOS 1202/1410) + ASRock B650 Pro RS (bios 2.09.AS03)
G.SKILL Flare X5 - 2 x 16 Go @DDR5-6000 (30-38-38)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Crosshair X670E Extreme

• Plateforme AM4

ASUS ROG CROSSHAIR VIII DARK HERO (BIOS 4402)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

 Asus ROG Crosshair VIII Dark Hero

• Dissipateur

Le refroidissement CPU est assuré par un excellent modèle de chez Noctua : le NH-U12A, capable de concurrencer la plupart des AIO avec les processeurs mainstream modernes, et très pratique à utiliser dans le cadre de nos tests, via les kits de fixations du constructeur lui permettant de s'adapter à la plupart des plateformes. La pâte thermique est également d'origine Noctua, il s'agit de la non moins excellente NT-H2.

Noctua NH-U12A

• Processeurs testés

Après cette nécessaire remise en contexte terminée, détaillons à présent les caractéristiques principales des CPU testés au sein du tableau suivant.

CPU Micro Architecture (ou nom de code) Fréquence Turbo max. (GHz) Cœurs Performance Coeurs Efficients Threads Cache L3 (Mo) Canaux mémoire Puissance max. courte durée (Watts) Puissance max. longue durée (Watts)
Ryzen 7 8700G Zen 4 5,1 8 - 16 16 2 - 88
Ryzen 5 8600G Zen 4 5,0 6 - 12 16 2 - 88
Ryzen 5 8500G Zen 4 5,0 2 4 12 16 2 - 88
Ryzen 9 7950X3D Zen 4 5,7 16 - 32 128 2 - 162
Ryzen 9 7950X Zen 4 5,7 16 - 32 64 2 - 230
Ryzen 9 7900X Zen 4 5,6 12 - 24 64 2 - 230
Ryzen 7 7800X3D Zen 4 5,0 8 - 16 96 2 - 162
Ryzen 7 7700X Zen 4 5,4 8 - 16 32 2 - 142
Ryzen 5 7600X Zen 4 5,3 6 - 12 32 2 - 142
Ryzen 9 5950X Zen 3 4,9 16 - 32 64 2 - 142
Ryzen 9 5900X Zen 3 4,8 12 - 24 64 2 - 142
Ryzen 7 5800X3D Zen 3 4,5 8 - 16 96 2 - 142
Ryzen 7 5800X Zen 3 4,7 8 - 16 32 2 - 142
Ryzen 7 5700G Zen 3 4,6 8 - 16 16 2 - 88
Ryzen 5 5600X Zen 3 4,6 6 - 12 32 2 - 88
Ryzen 9 3950X Zen 2 4,7 16 - 32 64 2 - 142
Ryzen 9 3900X Zen 2 4,6 12 - 24 64 2 - 142
Ryzen 7 3800X Zen 2 4,5 8 - 16 32 2 - 142
Ryzen 5 3600X Zen 2 4,4 6 - 12 32 2 - 128
Ryzen 5 3400G Zen + 4,2 4 - 8 4 2 - 88
Ryzen 3 3300X Zen 2 4,3 4 - 8 16 2 - 88
Ryzen 3 3100 Zen 2 3,9 4 - 8 16 2 - 88
Ryzen 7 2700X Zen + 4,3 8 - 16 16 2 - 142
Ryzen 5 2600X Zen + 4,2 6 - 12 16 2 - 128
Core i9-14900KS Raptor Lake Refresh 6,2 8 16 32 36 2 253 253
Core i9-14900K Raptor Lake Refresh 6,0 8 16 32 36 2 253 253
Core i7-14700K Raptor Lake Refresh 5,6 8 12 28 33 2 253 253
Core i5-14600K Raptor Lake Refresh 5,3 6 8 20 24 2 181 181
Core i5-14500 Raptor Lake Refresh 5,0 6 8 20 24 2 154 65
Core i5-14400F Raptor Lake Refresh 4,7 6 4 16 20 2 148 65
Core i3-14100F Raptor Lake Refresh 4,7 4 - 8 12 2 - 58
Core i9-13900KS Raptor Lake 6,0 8 16 32 36 2 253 253
Core i9-13900K Raptor Lake 5,8 8 16 32 36 2 253 253
Core i7-13700K Raptor Lake 5,4 8 8 24 30 2 253 253
Core i7-13700 Raptor Lake 5,2 8 8 24 30 2 219 65
Core i5-13600K Raptor Lake 5,1 6 8 20 24 2 181 181
Core i5-13400F Raptor Lake 4,6 6 4 16 20 2 148 65
Core i3-13100F Raptor Lake 4,5 4 - 8 12 2 89 58
Core i9-12900KS Alder Lake 5,5 8 8 24 30 2 241 241
Core i9-12900K Alder Lake 5,2 8 8 24 30 2 241 241
Core i7-12700K Alder Lake 5,0 8 4 20 25 2 190 190
Core i5-12600K Alder Lake 4,9 6 4 16 20 2 150 150
Core i5-12400F Alder Lake 4,4 6 - 12 18 2 117 65
Core i3-12100 Alder Lake 4,3 4 - 8 12 2 89 60
Pentium G7400 Alder Lake 3,7 2 - 4 6 2 46 46
Core i9-11900K Rocket Lake 5,3 8 - 16 16 2 251 125
Core i5-11600K Rocket Lake 4,9 6 - 12 12 2 251 125
Core i9-10980XE Cascade Lake 4,8 18 - 36 24,75 4 165 165
Core i9-10900K Comet Lake 5,3 10 - 20 20 2 250 125
Core i7-10700K* Comet Lake 5,1 8 - 16 16 2 229 125
Core i5-10600K Comet Lake 4,8 6 - 12 12 2 182 125

N'ayant pas de Core i7-10700K a disposition, nous avons utilisé un Core i7-10700 sur lequel nous avons poussé les limites de consommation au niveau de son grand frère. Si cela n'en fait pas un modèle K, il s'en approche beaucoup lors des tests les plus parallélisés, moins en monothread du fait de fréquences notablement plus basses dans ces conditions. C'est pourquoi vous retrouvez cette référence identifiée par une *.

• Logiciels

Windows 11 - Build 22621.1413
Pilotes Nvidia 531.29
Pilotes chipset AMD 5.09.20.417
Pilotes chipset Intel 10.1.19199.8340

Nous employons Windows 11 en version Pro qui est un environnement propice à l'utilisation de toutes les capacités de nos CPU, en particulier les multicœurs massifs, qui pouvaient s'avérer quelque peu bridés par l'ordonnanceur de Windows plus anciens. Il gère également bien mieux l'affectation des processus au sein des processeurs Ryzen, ainsi que la latence au niveau des changements de fréquence. De même, l'hétérogénéité des processeurs Intel est bien mieux prise en compte. Les mises à jour ont été installées jusqu'au 11/04/2023 (hors jeux), puis bloquées pour maintenir la même configuration logicielle entre CPU. Nous rechargeons une image disque initiale à chaque changement de carte mère / microarchitecture.

• Benchmarks Linux

Acheter un CPU doté de très nombreux cœurs en 2023 n'est pas forcément exclusif à un usage ludique windowsien. Or, dans divers domaines, dont la programmation, nombreux sont les professionnels ou professionnels en devenir à s'aventurer sur l'OS manchot. Nous avons décidé pour cette nouvelle fournée de tests d'en reconduire certains sous Linux, notre image maison ayant migré sous Ubuntu, du fait d'un suivi logiciel plus régulier indispensable à la compatibilité de nos nouveaux venus. Nous nous appuyons sur la version 22.10, toutes les mises à jour jusqu'au 21/04/2023 ayant été appliquées.

Concernant les différents tests, nous avons utilisé les exécutables compilés en 64-bit (si existants) des différentes applications. Nous limitons l'usage de RAM à la même valeur entre plateformes au niveau des logiciels, afin de ne pas créer de distorsion à ce niveau, si d'aventure les capacités totales n'étaient pas identiques. Lorsque des options d'accélération GPU sont disponibles au sein des logiciels, ces dernières sont systématiquement désactivées pour se concentrer sur les prestations CPU "pures". Nous désactivons au sein des cartes mères tous les contrôleurs inutilisés (stockage, Wi-Fi, BT, etc.) ainsi que les LED ou autres artifices visuels. Tous les benchs sont reproduits entre 2 et 3 fois (selon la répétabilité du test) et le score de la meilleure de ces passes est reporté dans les graphiques, en excluant les scores faisant état d'un écart par trop "anormal".

Pour le domaine ludique, nous reportons cette fois la moyenne (5 passes) arrondie, mais aussi la valeur (arrondie également) du premier centile (1% Low) d'images par seconde. Nous utilisons la définition 1920x1080, qui est d'une part la plus répandue (de très (très) loin) et qui permet d'autre part de différencier les CPU entre eux, en s'affranchissant au maximum de la limitation GPU, via l'utilisation d'une carte graphique très véloce (l'objectif de ce test étant bien d'évaluer les CPU et non les GPU).

C'en est fini de la description du protocole, mettons donc en action ces processeurs.


Tests synthétiques

Nous débutons nos tests synthétiques par AIDA64 et ses outils dédiés à la mémoire dans un premier temps. La configuration retenue pour les processeurs est pour rappel la suivante : 3200 MHz (14-14-14) pour la DDR4, côté DDR5 c'est 6000 MHz (30-38-38). Pas de surprises à attendre ici, le nouveau venu ne progresse que très légèrement en latence du fait de ses fréquences en pointe plus élevées.

82cd6e5dc6efc9bc35077dc08418cf91

Poursuivons avec deux benchmarks synthétiques permettant une comparaison plus aisée des utilisateurs avec leur propre matériel. Le premier test est issu du mondialement célèbre CPU-Z. Nous reportons à la fois les résultats monothread et multithreads. Dans le premier cas, le Core i9-14900KS parvient à créer un petit écart de 3 % face au 14900K, mais l'écart se réduit à 1 % lorsque toutes les unités sont sollicitées et que la limite de puissance intervient.

13673c04116bc1f1010814e2bb240a2b

Le second test est le non moins célèbre Cinebench R23 et comme pour le test précédent, nous reportons les résultats en ne sollicitant qu'un seul cœur puis tous. Les mêmes causes conduisent aux même effets ici aussi avec des écarts comparables.

a9b3dcb8b47d9fdaa3939ff4d858cd63

Voilà, c'est terminé pour les benchs synthétiques, passons à présent aux tests pratiques.


Performances productives

Vous retrouverez dans le graphique suivant les résultats de nos 16 tests pratiques couvrant un large éventail d'activités. A noter que pour donner une petite idée des gains potentiels à attendre en libérant la limite de puissance, nous avons ajouté une ligne à 320 W en remplaçant le refroidisseur à air par un AIO Alphacool Eisbaer Pro Aurora 280 mm.

90f7895e455ee06858b0212472bb56f3

Afin d'établir une hiérarchie rapide, nous avons calculé un indice en pondérant le résultat de chaque test précédent. Alors comment se comporte le nouveau flagship des bleus ? Autant être très clair : à 253 W il est virtuellement impossible de différencier ce dernier du 14900K sur notre échantillon de tests qui fait la part belle aux sollicitations massivement parallèles. Pour ceux qui aiment les chiffres, l'avantage du nouveau venu est d'à peine 0,3 %. Et si on lâche la bride du 14900KS ? L'écart progresse à 2,8 % par rapport à la version "K", pas folichon non plus et s'explique par l'incapacité de notre refroidisseur (pourtant une des meilleurs si ce n'est le meilleur AIO du marché) à éviter le throttling thermique. Ceux désirant aller plus loin devront sérieusement envisager un delid du processeur pour solutionner la problématique thermique. Reste que cette opération invalide la garantie.

4249306065633d2f7c995c54c69e1606

Voilà pour les tâches que l'on qualifiera de sérieuses, mais comment diable se comportent le nouveau venu quand il s'agit de s'adonner à des activités plus fun ? Voyons cela page suivante.


Performances ludiques

Quid des performances ludiques mesurées avec nos différents protagonistes ? À noter que le Pentium G7400 n'a pas réussi à lancer Microsoft Flight Simulator, le chargement se terminant systématiquement par un plantage. Le jeu indique toutefois lors de sa phase d'initialisation que le processeur ne respecte pas le minimum requis, ce n'est donc pas si surprenant. Le résultat varie selon les titres, les jeux étant particulièrement sensibles aux fréquences de fonctionnement et ne sollicitant que très rarement l'intégralité des threads d'un tel processeur, nous ne sommes pas confrontés ici à une quelconque limite de puissance ou température. En conséquence, changer le refroidisseur ou libérer la puissance n'a aucun impact sur les résultats. Nous n'avons donc pas inclus dans les graphiques (déjà bien assez hauts comme ça) la ligne correspondante à cette option au sein de la page précédente.

fe6084f07df44eaf5ace4cf70f8221e1

Avant toute chose, rappelons que nous choisissons ici de nous positionner volontairement en situation de limitation CPU, en utilisant des scènes et réglages adaptés, le tout couplé avec une carte graphique clairement surdimensionnée pour la définition utilisée. En condition plus "réaliste", ces situations interviennent bien plus rarement et le GPU s'avère généralement limitant bien avant le CPU, lissant ainsi les écarts entre la plupart des références testées. Toutefois, ce mode opératoire permet d'évaluer nos CPU dans des situations difficiles qui pourraient survenir à l'avenir, avec la complexification croissante des jeux.

À l'instar des tests de production, nous avons réalisé également un indice pour hiérarchiser les différents processeurs selon leurs aptitudes au jeu. Pour rappel, le Pentium G7400 est affligé d'un zéro pointé sur Microsoft Flight Simulator, ce qui impacte largement son indice. Le Core i9-14900KS parvient à prendre 2,3 % d'avance sur le 14900K. Face aux Ryzen 7000X3D, il ne leur lâche plus que 0,9 % et 1,2 %, on arrive donc à une quasi égalité sur cet échantillons de 12 jeux en situation de limitation CPU.

6417d819aec41b7e21999c6a7afae6b2

Voilà pour les performances en jeu, passons aux mesures de consommation page suivante.


Consommation, efficacité & températures

Intéressons-nous à présent au besoin énergétique des différents processeurs. Nous mesurons ici la consommation totale à la prise, mais aussi sur les lignes 12 V dédiées au CPU. Précisons que nous nous limitons à présent aux seuls connecteurs ATX 4/8 broches, pour nous concentrer exclusivement sur la puissance absorbée par les processeurs, mais ces derniers peuvent également l'être par le biais du connecteur à 24 pins. Il est toutefois difficile pour ce dernier d'isoler la puissance réellement absorbée par les seuls CPU d'où notre choix, même s'il n'est pas parfait. C'est ce qui explique certaines disparités que vous constaterez selon les plateformes au niveau de la consommation à la prise et celle que nous indiquons 12 V (au-delà de la consommation des autres éléments et des pertes dues au bloc d'alimentation).

Commençons par la consommation au repos. Précisons que les processeurs de 14e génération (et le 13400F) ont été testés sur l'Asus TUF Gaming Z790-Pro WiFi et non le modèle Hero ou la MSI MAG B660M Mortar ayant servi de base aux autres tests. Si cela ne change rien côté performances, ce n'est pas le cas pour la consommation en repos, du fait d'un modèle plus ou moins "moins chargé" en composants additionnels et VRM. Notons également que la TUF alimente principalement le CPU au repos par le biais des lignes 12 V dédiées au CPU, ce qui n'est pas le cas de la Hero. On note un avantage conséquent des bleus à ce niveau, ce qui est loin d'être négligeable, puisque les CPU passent beaucoup de temps dans ce mode chez de nombreux utilisateurs. Le Core i9-14900KS ne se comporte pas différemment des autres références de la génération 14 ici.

db7fe1bbf048dde074c67425726b9ee4

En charge à présent, et ce durant la seconde passe de l'encodage H.264 : sans surprise le Core i9-14900KS limité à 253 W va absorber peu ou prou la même quantité d'énergie que le 14900K qui dispose de la même enveloppe de puissance. En poussant cette dernière à 320 W c'est par contre une toute autre histoire.

28a9463dbb62c1d0643e3058f27eb857

Nous croisons enfin les résultats de performance obtenus durant l'encodage, avec la puissance absorbée durant ce dernier pour établir un indice d'efficacité énergétique. Sans surprise, à 253 W les K et KS sont au même niveau. Augmenter la limite de puissance conduit par contre à une dégradation sensible de l'efficience.

df18a0517127a7f8c5c184d0abcf646f

Finissons par les températures mesurées là aussi durant l'opération d'encodage. Il s'agit toutefois de la valeur de crête mesurée, mais sur les 14900K et KS cela correspond aussi à la limite thermique autorisée, le CPU commençant alors à "throttler" pour s'y conformer. Nous avons essayé de jouer un peu avec l'undervolting pour tâcher d'améliorer la situation, mais clairement ce n'était pas le point fort de notre exemplaire qui n'a pas accepté mieux que - 0,03 V. Pour baisser la température, il faudra coupler cette opération avec une baisse de la limite de puissance, sinon le CPU profitera de la puissance électrique économisée par la baisse de tension pour la réaffecter à des fréquences plus élevées. A noter que conscients de cette problématique thermique, certains intégrateurs vont proposer des configurations à base de Core i9-14900KS délidés. Dans ce cas, la garantie CPU assurée par Intel passera à 1 an (au lieu des 3 traditionnels), mais s'il vous venait à l'idée de retirer par vous même l'IHS sans passer par un intégrateur autorisé, alors la garantie ne s'appliquerait pas du tout.

c154cc18b3f7fea7b24fb904a05da219

Il est temps de passer au verdict page suivante.


Verdict

Alors que penser de ce Core i9-14900KS ? Déjà, ce n'est clairement pas une référence à mettre entre toutes les mains. Nous l'indiquons pour la plupart des Core i9 (K) récents, mais refroidir ces derniers est un vrai challenge, malheureusement nécessaire pour tirer parti de leurs caractéristiques. Il faut donc disposer d'un dissipateur d'une très grande efficacité, même s'il est fort probable que ce ne soit même pas suffisant dans le cas du 14900KS. En effet, pour vraiment en tirer la substantifique moelle, il faut pousser son enveloppe de puissance bien au-delà des 253 W et là, presqu'aucun refroidisseur (à part peut-être quelques modèles à changement de phases) n'est suffisant.

Ne restera alors plus qu'à tenter de réduire le niveau de puissance absorbée pour les fréquences maximales (via l'undervolting et ce même si notre exemplaire ne s'est pas vraiment distingué à ce niveau), soit améliorer la transmission de chaleur entre le die et le dissipateur. Delider un CPU moderne n'est toutefois pas une mince affaire, et désengage dans tous les cas la garantie du fabricant. Ce n'est donc pas une décision anodine pour un processeur aussi onéreux. Reste que l'on arrive aux limites physiques de la conduction thermique et que pour tenir les promesses de ce Core i9-14900KS, il est presque impossible de se contenter d'une utilisation "classique".

La concurrence féroce que se livrent les géants du CPU a tout de même pris une ampleur inédite ces dernières années, et la course à la fréquence qui semblait révolue il y a plus de 10 ans fait de nouveau rage, pour le meilleur et pour le pire quand on regarde le niveau de consommation des puces modernes et les effets de bord associés.

En résumé, le Core i9-14900KS est une référence très particulière qui n'aura d'intérêt que pour une (toute) petite niche d'utilisateurs, prêts à consentir à de gros efforts tant en termes de consommation électrique que de refroidissement. C'est à cette unique condition qu'ils pourront profiter d'un processeur un peu plus rapide qu'un "traditionnel" 14900K. Il ne faut donc pas attendre de ce dernier la moindre pertinence, tant du côté de la performance par watt que de celle par €, juste la satisfaction d'avoir ce qui se fait de mieux chez les bleus et des fréquences inédites pour un processeur grand public (hors overclocking). Dans ce cas  précis, il s'agit donc davantage d'une vitrine technologique qu'autre chose. 

Si on arrive à remplir ces (très) exigeantes conditions, le 14900KS se rapproche alors très fortement de ce que propose la série 7000X3D en jeu (en situation de limitation CPU, puisque bien souvent la carte graphique limitera avant le processeur central) tout en étant la référence la plus rapide (de peu) en production sur notre échantillon de tests. À la question "était ce bien nécessaire ?", la réponse est clairement non, ce qui pour certains passionnés revient à dire indispensable ! Il nous parait toutefois plus pertinent pour les autres d'attendre, puisque les nouvelles générations devraient débarquer dans quelques mois et vraisemblablement devancer ce Core i9-14900KS pour les références les plus rapides.


Nous remercions naturellement nos partenaires pour la mise à disposition des éléments ayant permis la réalisation de ce dossier.

  •  

Test • Le CPU quadcore Core i7-5775C revient du passé pour jouer en 2024 : tient-il encore la route face au Ryzen 5 7600X ?

Par : Thibaut G.
8 mars 2024 à 00:00

En 2015, Intel lançait une génération de processeurs semblable à aucune autre. La génération Broadwell fut également la plus petite en matière de choix, puisque deux puces desktop seulement virent le jour. Il y eut d'abord le Core i5-5675C doté de 4 coeurs sans hyper-threading, puis le Core i7-5775C avec 4 coeurs mais 8 threads. Derniers points spécifiques à cette famille décidément pas comme les autres : la nomenclature C alors que la firme utilisait déjà le K sur sa gamme Haswell, la rétrocompatibilité avec le Z97 et le LGA1150, la durée de vie la plus courte puisqu'Intel sortit la famille Skylake deux mois plus tard sur un nouveau socket LGA1151, et enfin la présence de 128 Mo d'eDRAM en guise de cache L4 dans lequel CPU et iGPU puisaient quand le besoin s'en faisait sentir. C'est le Core i7-5775C que nous avons dépoussiéré, et que nous avons testé en jeu, afin de voir s'il tenait encore le coup en 2024, soit près de 9 ans après sa naissance !


Protocole

La base de la machine LGA1150 est constituée d'un Core i7-5775C dont la fréquence maximale en boost tous les cœurs actifs est de 3.7 GHz, avec ses 128 Mo d'eDRAM. La carte mère est une ASUS Maximus VII Gene, enfin la mémoire vive est confiée à 4 barrettes de 4 Go de DDR3 2400. Pour préciser les choses, le port graphique est constitué de 16 lignes PCIe 3.0.

En face, nous avons mis un hexacore moderne, équipé de tout ce qu'il faut, incluant les technologies et les instructions modernes. Un Ryzen 5 7600X pourvu de 32 Go de DDR5 6000C36, le tout sur une carte mère ASUS B650 PLUS Gaming des plus simples. Son port PCIe est en 4.0. Mais nous avons aussi repris les résultats de la plateforme LGA1366 testée il y a 10 jours, avec un Core i7-980, une carte maman MSI X58 Pro, 24 Go de DDR3 1600. Pour le LGA1366, le port graphique est limité au mieux à 16 lignes PCIe 2.0.

Vient le sujet de la carte graphique. Nous voulions initialement mettre une RTX 4090 dessus, mais l'ensemble a refusé de booter sur LGA1366. Finalement, la RTX 4070 Gainward Panther a démarré sans souci, et constitue déjà un niveau de qualité suffisant pour ne pas se retrouver embourbé, elle nécessite 16 lignes PCIe 4.0. Elle a fonctionné à merveille sur la plateforme Z97 LGA11050 du Broadwell. Dans la mesure où nous souhaitions reprendre les résultats du test précédent, nous avons donc fait tout pareil, avec les mêmes pilotes graphiques, la même version de Windows 10, ainsi que la même version des jeux. Ce dernier point s'est révélé pénible puisque les mises à jour sont devenues monnaie courante et sont régulières voire nombreuses parfois.

Autre point amusant, nous avions également prévu beaucoup de titres, et il y en a effectivement pas mal. Mais dans le lot, plein ont refusé de démarrer sur la plateforme LGA1366, ce qui nous a obligés à tester pour voir lesquels passaient ou pas, en gardant en mémoire que nous voulions de la rastérisation, du DLSS 2 ou DLSS 3, du ray tracing ou du path tracing. Ainsi, exit des titres comme Alan Wake 2 ou Avatar : Frontiers of Pandora, mais notre liste remplit cependant tous nos objectifs en matière de diversité technique. Sachez que tous les jeux ne font pas de l'upscaling, ou de ray tracing / path tracing, ce qui fait que vous trouverez un score nul sur les titres qui ne peuvent pas gérer l'effet souhaité dans le menu. En revanche, la plateforme LGA1150 s'est montrée bien plus docile, puisque l'AVX est présent sur le 5775C, tous les jeux sont passés, y compris ceux qui avaient refusé de fonctionner sur LGA1366. Pour rappel, l'AVX ne certifie pas que les jeux vont tourner mieux, cela assure juste qu'ils vont démarrer pour la plupart, car ils ont besoin de ces instructions particulières pour se lancer.

Tous les jeux ont été testés au maximum des options disponibles, avec l'upscaling le plus élevé selon les jeux (DLSS 2 ou DLSS 3, voire FSR 2 pour certains), et en mode équilibré. Nous avons retenu les 3 définitions d'écran majeures que sont le FHD (1920 x 1080), le QHD (2560 x 1440) ou encore l'UHD (3840 x 2160). Chaque test a été fait en 2 passes, nous avons retenu la meilleure des deux. Dans les graphiques, vous trouverez les moyennes, qui représentent la performance en jeu, mais aussi le 1% Low qui représente finalement les 1% d'images les plus basses. Cette valeur n'a pas la même valeur justement que les moyennes, car elle est plus volatile et dépend de plein de facteurs (une activité SSD au moment du jeu, une MAJ Windows en train de se télécharger, un processus qui devient prioritaire, etc). Elle représente une tendance plus qu'un comportement précis.

Comme vous le savez, la plateforme LGA1366 et surtout les CPU de cette famille ne sont pas compatibles Windows 11. Malgré l'achat de 2 modules TPM, la reconnaissance de ces modules a systématiquement échoué, nous avons donc décidé de rouler sous Windows 10 mis à jour au moment des mesures. La LGA1150 Broadwell n'est pas mieux lotie, puisque par défaut incompatible Windows 11. En revanche un module TPM 2.0 fonctionne bien dessus, mais cela nous est inutile dans le cadre de ce test puisque nous voulons rester sous Windows 10. Les trois machines de test incluant l'AM5 étaient à égalité sur ce point, même OS dans le même état. Les pilotes GeForce 551.46 sont ceux que nous avons utilisés, qui étaient les derniers disponibles au début des relevés.

Configuration

Les voici, mais elles apparaissent déjà dans le protocole. Miam !

UN KEZAKAL DES KEZAKO
CPU + COOLING i7-5775C / i7-980 / R5 7600X
CARTE MERE

ASUS Maximus VII Gene Z79 / MSI X58 Pro / ASUS B650 PLUS TUF Gaming

RAM 4 x 4 Go DDR3 2400 / 6 x 4 Go DDR3 1600 / 2 x 16 Go DDR5 6000
CARTE GRAPHIQUE Gainward RTX 4070 Panther
ALIMENTATION Be Quiet! Dark Power Pro 12 1200 W 80PLUS Titanium
BOITIER Table de bench standard
STOCKAGE SSD Silicon Power 2 To Sata 6 Gbps


On y a joué pour vous !

Voici à présent les jeux auxquels nous avons joué pour évaluer les performances de la RTX 4070 sur deux plateformes espacées de 14 ans ! Vous trouverez la version, le détail, et la présence ou pas d'upscaling et/ou ray tracing path tracing.

Mais qui es-tu ? API New Year Rastérisation Upscaling utilisé Ray Tracing / Path Tracing
A Plague Tale Requiem DX12 OUI DLSS 3 équilibré RT
Chernobylite Enhanced Edition DX12 OUI DLSS 2 équilibré RT
Company of Heroes 3 DX11 OUI FSR 2 équilibré NON
Control DX12 OUI DLSS 2 équilibré RT
Cyberpunk 2077 DX12 OUI DLSS 3 équilibré PT
Doom Vulkan OUI NON NON
Horizon Zero Dawn DX12 OUI DLSS 2 équilibré NON
Portal RTX DX9 NON DLSS 3 équilibré PT
Resident Evil 4 DX12 OUI FSR 2 équilibré RT
Shadow of the Tomb Raider DX12 OUI DLSS 2 équilibré RT
Strange Brigade Vulkan OUI NON NON
Total War Troy DX12 OUI NON NON
Warhammer4k Darktide DX12 OUI DLSS 3 équilibré RT


En avant le FHD !

Nous attaquons les résultats en FHD et en rastérisation. Force est de constater qu'en étant plus récent, le Broadwell offre de meilleures performances dans les jeux que l'i7-980 qui a pourtant 12 threads mais 7 ans de plus, et pas de cache L4. L'avance oscille entre 15 et 40 % selon le titre, mais aucun des processeurs ne peut faire grand-chose face au Ryzen 5 7600X, qui a une avance confortable. Notez que dans Doom, on a une limitation de la RTX 4070 qui nivelle les écarts, le 5775C égalant le 7600X, l'i7-980 restant à peine derrière. Rajouter de l'upscaling ne change pas le rapport de force entre les CPU, le classement ne varie pas. Ce scénario reste inchangé en ajoutant encore du ray tracing / path tracing.

88851e1e797181e772d00cc6988983ad


Du Q, oui, mais HD s'il vous plait !

Les relations entre les 3 CPU se passent toujours aussi mal en rastérisation ! Le classement entrevu en FHD ne change pas, par contre dans les jeux où le GPU commence à tirer la langue, les écarts s'amenuisent forcément. Globalement, tant que le jeu n'est pas GPU Limited, les CPU ont encore une influence qui permet de les différencier. Avec Upscaling, on conserve le même ordre de valeur à l'exception de Cyberpunk 2077 plus favorable à l'i7-980 que l'i7-5775C. Bis repetita avec la raie tracée, où Cyberpunk 2077 marche mieux sur i7-980 même si c'est de peu (depuis la version 2, CDPR recommande 9 threads, ce que possède le 980 mais pas le 5775C, en revanche il limite les dégâts du fait de sa eDRAM L4 très probablement).

3de19aaa0e5719438a81e8957c3a3754


Si tu peux pas UHD, t'as raté ta vie !

En UHD, c'est bien la carte graphique qui tire la tronche en dehors de toute aide liée aux upscalings. Par conséquent, on se retrouve avec quasiment des cas d'égalité à quelques pouillèmes près. Dans Company of Heroes 3, le 980 est en retrait malgré tout, et c'est le 5775C qui subit le même traitement sur Total War : Troy. Avec upscaling, on récupère la hiérarchie vue dans les deux définitions précédentes, plus ou moins respectée également lorsqu'on ajoute du ray tracing.

87cbb5e2ba3dc7b0fd44aec5c96dfab6


Qu'en penser ?

Si vous avez regardé les performances du Core i7-5775C attentivement, il ne vous aura pas échappé que le processeur fait mieux que l'i7-980. Structurellement, les deux générations n'ont pas grand-chose en commun comme nous l'avons dit, mais les performances sont dans une fourchette large, et pas loin de se valoir en valeur absolue. Le processeur Broadwell compense son manque de coeurs et de threads par d'autres atouts. On peut citer son architecture et son IPC plus récentes, ses 128 Mo d'eDRAM embarqués en guise de cache de 4e niveau, tant et si bien que même "moins équipé" en apparence, il arrive à battre systématiquement (ou presque) le Core i7-980, ex-star des PC. Et pourtant, nous n'avons pas conseillé de conserver la plateforme LGA1366 alors que nous confirmons que la LGA1150 avec Broadwell fait encore l'affaire en gaming. Pourquoi ?

Eh bien nous l'avions expliqué dans le précédent dossier, le souci du LGA1366, c'est son manque d'à peu près tout ce qui est moderne : PCIe 2.0, pas d'USB 3.0 sauf sur quelques cartes mères, pas de contrôleur Sata natif, obligé de passer par une puce Marvel pas efficiente, pas d'instructions AVX empêchant le fonctionnement de plusieurs jeux, compatibilité avec les dernières cartes graphiques erratique, compatibilité limitée à Windows 10, consommation et chaleur dégagée par le X58 compliquées à gérer, ça fait beaucoup de griefs aujourd'hui pour utiliser sereinement sa machine en LGA1366.

À côté de ça, la plateforme Broadwell possède quasiment tout ce qui manque à la LGA1366. Le PCIe passe en 3.0, ce qui offre un débit équivalent à du PCIe 4.0 x8, ce qui suffit pour les cartes graphiques de nouvelle génération. La stabilité également s'est révélée excellente, le système réactif, les performances en jeu correctes et meilleures que le LGA1366, nous en arrivons à la conclusion que si vous n'avez pas prévu de changer et que vous moulinez sous ce processeur, alors il est cohérent de tout conserver encore. On regrettera juste que les modules de 8 Go de DDR3 ne soient pas très distribués, et qu'il soit compliqué d'en trouver en dehors de Mazone ou de la Bay.

C'est donc plus le comportement général de la plateforme LGA1150 avec Broadwell qui nous invite à vous conseiller de conserver votre bécane, car dans le fond, l'AM5 choisi, qui représente l'entrée de gamme AMD, colle une trempe en jeu aux vieux CPU. Malgré tout, la carte graphique sera bien souvent le facteur limitant, car une RTX 4070 ne trône pas chez tous les joueurs.

Nous remercions nos partenaires pour la mise à disposition du matériel ayant permis de réaliser ce test.

  •  

Test • AMD Ryzen 5 7500F

Par : Eric B.
2 mars 2024 à 00:00

AMD Ryzen 5 7500F face avant

Après vous avoir proposé un test des processeurs d'entrée de gamme de la 14ème génération d'Intel Core, nous avons cette fois jeté notre dévolu sur la plateforme concurrente, à savoir l'AM5 des rouges en visant là aussi les références les plus accessibles. Puisque nous avions déjà évalué le Ryzen 5 8500G au cours de notre test dédié aux APU 8000G d'AMD, il ne restait alors que l'option du Ryzen 5 7500F. Cette référence est particulièrement intéressante, puisqu'en comparaison de l'APU cité précédemment et à un tarif quasi équivalent, il ne dispose pas de circuits graphiques actifs mais n'impose en contrepartie aucun compromis au niveau du nombre de lignes PCIe ou du cache L3 intégré. Il s'agit donc ni plus ni moins que d'un R5 7600(X) légèrement sous-cadencé et dont l'IGP a été désactivé, mais sensiblement moins cher. Une aubaine pour les joueurs à budget contraint mais voulant tout de même s'orienter vers la dernière plateforme en date des rouges (et donc une espérance de vie supérieure) ? Verdict dans ce dossier.


AMD Ryzen 5 7500F

Avant de vous présenter le processeur testé ce jour, débutons par un bref rappel de la gamme AM5 actuelle (en excluant les séries Pro et le 8300G réservé aux intégrateurs). Ce Ryzen 5 7500F fait pour le moins figure d'ovni au milieu, puisque c'est le seul qui se voit privé d'un IGP (désactivé au niveau de l'I/O die). Probablement une façon pour AMD de recycler ainsi les CIOD dont la partie graphique est défectueuse. En tout état de cause, cela permet d'économiser 50 $ par rapport au Ryzen 5 7600, avec lequel il partage la plupart des caractéristiques, exception faite d'une fréquence maximale en berne de 100 MHz.

Référence Cœurs / Threads  Boost Max IGP Cache L3 Puissance (Max) tarif
Ryzen 9 7950X3D 16 / 32 5,7 GHz 128 Mo 162 W 699 $
Ryzen 9 7950X 16 / 32 5,7 GHz 64 Mo 230 W 699 $
Ryzen 9 7900X3D 16 / 32 5,6 GHz 128 Mo 162 W 599 $
Ryzen 9 7900X 12 / 24 5,6 GHz 64 Mo 230 W 549 $
Ryzen 9 7900 12 / 24 5,4 GHz 64 Mo 88 W 429 $
Ryzen 7 7800X3D 8 / 16 5,0 GHz 96 Mo 162 W 449 $
Ryzen 7 7700X 8 / 16 5,4 GHz 32 Mo 142 W 399 $
Ryzen 7 7700 8 / 16 5,3 GHz 32 Mo 88 W 329 $
Ryzen 7 8700G 8 / 16 5,1 GHz 16 Mo 88 W 329 $
Ryzen 5 7600X 6 / 12 5,3 GHz 32 Mo 142 W 299 $
Ryzen 5 7600 6 / 12 5,1 GHz 32 Mo 88 W 229 $
Ryzen 5 8600G 6 / 12 5,0 GHz 16 Mo 88 W 229 $
Ryzen 5 7500F 6 / 12 5,0 GHz Χ 32 Mo 88 W 179 $
Ryzen 5 8500G 6 / 12 5,0 GHz 16 Mo 88 W 176 $

AMD n'étant pas en mesure de nous procurer un exemplaire de test, c'est par la voie commerciale que nous nous en sommes procurés un. Compte tenu de son placement tarifaire d'appel, nous le testons avec la même plateforme que les APU, à savoir sur une carte mère ASRock B650 Pro RS, alors que les autres Ryzen 7000X l'ont été sur une Asus ROG Crosshair X670E Extreme. Si cela n'a pas d'impact sur les performances, ce n'est pas le cas de la consommation, puisque la dernière citée est bardée de phases et d'équipements additionnels, ce qui influe à ce niveau. Il faudra donc garder en tête ce point lors des comparaisons ayant trait à l'efficacité énergétique. Visuellement, aucune surprise à attendre puisqu'il s'agit ici ni plus ni moins d'un processeur AM5 comme les autres, avec son heat-spreader spécifique, rendant la préhension toujours un peu délicate.

AMD Ryzen 5 7500F face avantAMD Ryzen 5 7500F face arrière

Le Ryzen 5 7500F côté pile et face

Que nous apprend CPU-Z sur le nouveau venu ? On retrouve les éléments principaux détaillés dans le tableau précédent, avec une configuration à 6 coeurs Zen 4 dotés de SMT et disposant individuellement d'un mégaoctet de cache L2. A cela, s'ajoute un cache de niveau 3 partagé de 32 Mo, soit le double de ce qui est embarqué sur les APU 8000G. Le TDP indiqué est de 65 W, cela correspond chez AMD à une puissance maximale disponible (PPT) de 88 W lorsque les conditions le permettent (température, etc.). La fréquence en crête atteint 5,05 GHz, dépassant donc légèrement la valeur officiellement communiquée. La bonne nouvelle ici c'est que malgré une sollicitation plus intense sur la totalité des cœurs, la cadence n'évolue presque pas (elle peut ponctuellement osciller entre 5,05 et 5,0 GHz sur un des coeurs sous certaines charges).

AMD Ryzen 5 7500F : les fréquences via CPU-Z

Fréquences du Ryzen 5 7500F (Repos, 1 cœur actif, tous cœurs actifs)

HWiNFO64 permet de monitorer un peu plus finement le processeur, et confirme donc le comportement indiqué précédemment. Sous Cinema 4D (qui nous sert de charge typique pour vérifier le comportement du CPU en charge parallélisée lourde), l'API indique un PPT de moins de 82 W, en deçà donc des 88 W qui constitue la limite pour cette puce (hors OC). Toutefois, la sollicitation des unités AVX peut conduire à légèrement dépasser cette limite et donc à une légère baisse de fréquence.

AMD Ryzen 5 7500F les fréquences via HWiNFO64

Fréquences du Ryzen 5 7500F via HWiNFO64

Pour en finir avec les fréquences de la partie CPU, nous utilisons également une boucle de divisions flottantes au moyen de l'utilitaire stress sous Linux. Au bout de 70 secondes (afin de limiter les variations dues à un potentiel boost trop court), nous échantillonnons 30 mesures de fréquences (du cœur le plus rapide) espacées de 200 ms entre chaque, puis reportons la médiane des maxima obtenus. Nous répétons l'opération complète à chaque changement du nombre de threads sollicités. Nous comparons les fréquences avec celles du 7600X (faute de 7600), partageant le même nombre de cœurs et architecture, mais disposant d'une limite de puissance bien plus élevée (142 W). On constate que plus le nombre de threads augmente et plus l'écart se réduit entre les 2 puces, pouvant même arriver à une (très légère) inversion de hiérarchie, du fait de la température des coeurs les "plus chauds". Ce point est toutefois à relativiser, car le test est ultra spécifique et a été réalisé via des cartes mères différentes pour les deux puces, pouvant expliquer quelques fluctuations dans le comportement. Il n'empêche que le 7500F à pleine charge devrait être proche d'un 7600X, nous tâcherons donc de confirmer cela au sein des tests pratiques.

0edc691628f92e3bc34809ef32d42a38

Voilà, c'est terminé pour ce processeur, passons en page suivante à la description du protocole de test.


Configurations et protocole de test

Pour ce dossier, nous réutilisons le protocole de test que nous avons figé pour un an : tout d'abord, nous utilisons Windows 11 (22H2), qui a eu le temps de mûrir pour expurger les bugs de jeunesse. Nous employons une GeForce RTX 4090 FE, afin de repousser très largement la limitation GPU qui pourrait empêcher de réellement différencier les processeurs les plus rapides entre eux, y compris en FHD pour certains jeux. Concernant les tests Linux, nous utilisons Ubuntu, dans sa version 22.10. D'un point de vue général, la "philosophie" de notre protocole est la suivante : faire la part belle aux applications courantes les plus gourmandes et tirant parti des puces multicœurs. Le nombre de tests réalisés est donc réduit (nous ne cherchons pas l'exhaustivité), en choisissant ceux nous semblant pertinents et surtout représentatifs des gains à attendre d'un processeur multicœur véloce. En effet, gagner par exemple plusieurs minutes pour une tâche de rendu ou d'encodage, ne se ressent pas du tout de la même façon côté utilisateur, que de gagner par exemple une seconde pour une mise en page, mais qui pourrait pourtant impacter l'indice de performance global de manière similaire, sans que cela ne soit réellement pertinent.

Voici les applications utilisées :

  • AIDA64 - 6.85.6345
  • CPU-Z Test 17.01.64
  • Cinebench R23.200
  • 7-zip 22.01
  • Stockfish 15.1
  • Blender - 3.4.1
  • After Effects - 23.2.1
  • VEGAS Pro - 20.0.370
  • DxO PhotoLab - 6.4.0
  • Lightroom Classic - 12.2.1
  • HandBrake - 1.6.1
  • Cinema 4D 2023.1.4
  • Arnold for Maya - 5.2.2.4
  • Visual Studio 2022 - 17.5.2
  • GCC - 12.2.0
  • TensorFlow 2.12.0
  • Anno 1800 - 17.1.1232159
  • Cyberpunk 2077 - 1.62
  • Doom Eternal - 6.66 Rev 2
  • F1 2022 - 1.19.959964
  • Far Cry 6 - 1.7.0
  • Grand Theft Auto V - 1.0.2944.0
  • HITMAN 3 - 3.150.0
  • Microsoft Flight Simulator - 1.31.22.0
  • Project CARS - 1.0.0.0.0724
  • Total War : Warhammer III - 3.1.0
  • Watch Dogs : Legion - 1.5.6
  • X-Plane 12 - 12.05
  • Baldur's Gate III - 4.1.1.4494476
  • Call of Duty: Modern Warfare III - 1.29.1.16888868
  • Diablo IV - 1.30.49404
  • Prince of Persia: The Lost Crown - 1.0.3+TU3.375453.2398915

Nous désactivons les différentes "optimisations" des constructeurs au sein du bios des cartes mères, afin de retrouver le comportement des CPU au plus près des spécifications de leurs concepteurs.

Pour rappel, la gestion de la limite de puissance diffère entre les 2 constructeurs. Ainsi, AMD utilise une valeur unique nommée PPT (Power Package Tracking), qui va s'appliquer systématiquement (hors overclocking). Intel de son côté, définit 2 valeurs qu'il nomme depuis Alder Lake, Maximum Turbo Power (PL2 pour Power Limit 2) et Processor Base Power (PL1).

La première citée correspond à la limite de puissance que le CPU va se voir attribuée durant un laps de temps donné (Tau), avant de basculer vers la seconde, qui correspond donc à la limite de puissance à longue durée. Depuis la Gen 12, les processeurs K disposent de la même valeur dans les 2 cas. Pour les autres puces des bleus, nous fixons la valeur TAU à 56 secondes (valeur qui n'est pas respectée pour les processeurs non K se contentant de 28 s) et les PL1 / PL2 aux spécifications d'Intel (vous retrouverez les valeurs spécifiques de chaque processeur dans le tableau en page précédente) :

• Composants communs

GeForce RTX 4090 FESeasonic Prime TXWD Black SN850

Afin d'évaluer nos différents processeurs, nous avons retenu des éléments de configuration type, indépendamment de la plateforme, afin de respecter l'équité entre les différentes configurations. La carte graphique, comme indiquée précédemment, est donc la référence la plus rapide à l'heure actuelle, à savoir une GeForce RTX 4090. Les tests sont systématiquement exécutés sur un très véloce SSD Western Digital Black SN850 1 To, connecté à un port NVMe câblé en PCIe 4.0 (4 lignes). Enfin, l'alimentation est un modèle Seasonic Prime PX de 1 000 W, disposant de la certification 80+ Platinum et adapté à des configurations pouvant engloutir de nombreux Watts.

Côté mémoire, G.Skill nous a procuré des kits mémoires nous permettant de mener à bien nos tests et ceci qu'il s'agisse de DDR4 comme DDR5, adaptés à une configuration Intel (disposant d'un profil XMP) comme AMD (profil EXPO). Jetons donc un coup d'œil à cela.

  • G.Skill Trident Z RGB / DDR4-3200 / 14-14-14-34
  • G.Skill Flare X5 / DDR5-6000 / 30-38-38-96
  • G.Skill Trident Z5 RGB / DDR5-7200 / 34-45-45-115

Concernant les fréquences de fonctionnement de la mémoire, il existe plusieurs approches possibles : soit respecter à la lettre les spécifications officielles des concepteurs, souvent très conservatrices puisque devant prendre en considération le côté exotique de certaines barrettes, soit au-delà et souvent plus en phase avec l'usage qui sera fait par de nombreux acquéreurs. Nous avons opté pour cette dernière approche, en choisissant une fréquence de fonctionnement commune (pour un même type de mémoire) entre les concurrents, puisque l'on teste ici les CPU et ce même si la capacité à gérer des fréquences mémoire élevées n'est pas identique entre plateformes.

Compte tenu de la particularité de la plateforme LGA 1700 d'Intel, pouvant utiliser soit de la DDR4 soit de la DDR5, nous avons décidé (arbitrairement nous en convenons) de coupler les processeurs K à la dernière citée et les autres à la première. Cela nous a paru logique vis-à-vis des prix respectifs des composants. Toutefois, vous retrouverez 2 lignes pour le Core i5-12400F, celles incluant la mention (DDR5) vous permettant de juger l'impact de la mémoire sur ce type de processeur.

Un petit souci avec notre carte mère supportant la DDR4 nous a contraint à tester les références de ce jour avec une carte mère DDR5, il faudra donc prendre en compte cet élément en comparant les nouveaux venus aux références précédentes. A noter toutefois que nous avons retesté le Core i5-13400F avec la même carte mère (DDR5) afin d'obtenir un comparatif plus pertinent face au Core i5-14400F.

G.Skill Trident Z RGB G.Skill Flare X5 G.Skill Trident Z5 RGB

• Plateforme LGA1700 (DDR5)

ASUS ROG MAXIMUS Z790 HERO (BIOS 0904) + Asus TUF Gaming Z790-Pro WiFi (BIOS 1630) pour Gen 14 (& 13400F)
G.SKILL Trident Z5 RGB - 2 x 16 Go @DDR5-6000 (30-38-38)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus Maximus Z790 Hero

• Plateforme LGA1700 (DDR4)

MSI MAG B660M Mortar WiFi DDR4 (BIOS 7D42v1C)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

MSI MAG B660M Mortar WiFI DDR4

• Plateforme LGA1200

ASUS ROG MAXIMUS XIII HERO (BIOS 1701)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Maximus XIII Hero

• Plateforme LGA2066

Gigabyte AORUS X299 Gaming 7 (BIOS F9r)
G.SKILL Trident Z RGB - 4 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Gigabyte AORUS X299 Gaming 7

• Plateforme AM5

ASUS ROG CROSSHAIR X670E EXTREME (BIOS 1202/1410) + ASRock B650 Pro RS (bios 2.09.AS03)
G.SKILL Flare X5 - 2 x 16 Go @DDR5-6000 (30-38-38)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Crosshair X670E Extreme

• Plateforme AM4

ASUS ROG CROSSHAIR VIII DARK HERO (BIOS 4402)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

 Asus ROG Crosshair VIII Dark Hero

• Dissipateur

Le refroidissement CPU est assuré par un excellent modèle de chez Noctua : le NH-U12A, capable de concurrencer la plupart des AIO avec les processeurs mainstream modernes, et très pratique à utiliser dans le cadre de nos tests, via les kits de fixations du constructeur lui permettant de s'adapter à la plupart des plateformes. La pâte thermique est également d'origine Noctua, il s'agit de la non moins excellente NT-H2.

Noctua NH-U12A

• Processeurs testés

Après cette nécessaire remise en contexte terminée, détaillons à présent les caractéristiques principales des CPU testés au sein du tableau suivant.

CPU Micro Architecture (ou nom de code) Fréquence Turbo max. (GHz) Cœurs Performance Coeurs Efficients Threads Cache L3 (Mo) Canaux mémoire Puissance max. courte durée (Watts) Puissance max. longue durée (Watts)
Ryzen 7 8700G Zen 4 5,1 8 - 16 16 2 - 88
Ryzen 5 8600G Zen 4 5,0 6 - 12 16 2 - 88
Ryzen 5 8500G Zen 4 5,0 2 4 12 16 2 - 88
Ryzen 9 7950X3D Zen 4 5,7 16 - 32 128 2 - 162
Ryzen 9 7950X Zen 4 5,7 16 - 32 64 2 - 230
Ryzen 9 7900X Zen 4 5,6 12 - 24 64 2 - 230
Ryzen 7 7800X3D Zen 4 5,0 8 - 16 96 2 - 162
Ryzen 7 7700X Zen 4 5,4 8 - 16 32 2 - 142
Ryzen 5 7600X Zen 4 5,3 6 - 12 32 2 - 142
Ryzen 5 7500F Zen 4 5,0 6 - 12 32 2 - 88
Ryzen 9 5950X Zen 3 4,9 16 - 32 64 2 - 142
Ryzen 9 5900X Zen 3 4,8 12 - 24 64 2 - 142
Ryzen 7 5800X3D Zen 3 4,5 8 - 16 96 2 - 142
Ryzen 7 5800X Zen 3 4,7 8 - 16 32 2 - 142
Ryzen 7 5700G Zen 3 4,6 8 - 16 16 2 - 88
Ryzen 5 5600X Zen 3 4,6 6 - 12 32 2 - 88
Ryzen 9 3950X Zen 2 4,7 16 - 32 64 2 - 142
Ryzen 9 3900X Zen 2 4,6 12 - 24 64 2 - 142
Ryzen 7 3800X Zen 2 4,5 8 - 16 32 2 - 142
Ryzen 5 3600X Zen 2 4,4 6 - 12 32 2 - 128
Ryzen 5 3400G Zen + 4,2 4 - 8 4 2 - 88
Ryzen 3 3300X Zen 2 4,3 4 - 8 16 2 - 88
Ryzen 3 3100 Zen 2 3,9 4 - 8 16 2 - 88
Ryzen 7 2700X Zen + 4,3 8 - 16 16 2 - 142
Ryzen 5 2600X Zen + 4,2 6 - 12 16 2 - 128
Core i9-14900K Raptor Lake Refresh 6,0 8 16 32 36 2 253 253
Core i7-14700K Raptor Lake Refresh 5,6 8 12 28 33 2 253 253
Core i5-14600K Raptor Lake Refresh 5,3 6 8 20 24 2 181 181
Core i5-14500 Raptor Lake Refresh 5,0 6 8 20 24 2 154 65
Core i5-14400F Raptor Lake Refresh 4,7 6 4 16 20 2 148 65
Core i3-14100F Raptor Lake Refresh 4,7 4 - 8 12 2 - 58
Core i9-13900KS Raptor Lake 6,0 8 16 32 36 2 253 253
Core i9-13900K Raptor Lake 5,8 8 16 32 36 2 253 253
Core i7-13700K Raptor Lake 5,4 8 8 24 30 2 253 253
Core i7-13700 Raptor Lake 5,2 8 8 24 30 2 219 65
Core i5-13600K Raptor Lake 5,1 6 8 20 24 2 181 181
Core i5-13400F Raptor Lake 4,6 6 4 16 20 2 148 65
Core i3-13100F Raptor Lake 4,5 4 - 8 12 2 89 58
Core i9-12900KS Alder Lake 5,5 8 8 24 30 2 241 241
Core i9-12900K Alder Lake 5,2 8 8 24 30 2 241 241
Core i7-12700K Alder Lake 5,0 8 4 20 25 2 190 190
Core i5-12600K Alder Lake 4,9 6 4 16 20 2 150 150
Core i5-12400F Alder Lake 4,4 6 - 12 18 2 117 65
Core i3-12100 Alder Lake 4,3 4 - 8 12 2 89 60
Pentium G7400 Alder Lake 3,7 2 - 4 6 2 46 46
Core i9-11900K Rocket Lake 5,3 8 - 16 16 2 251 125
Core i5-11600K Rocket Lake 4,9 6 - 12 12 2 251 125
Core i9-10980XE Cascade Lake 4,8 18 - 36 24,75 4 165 165
Core i9-10900K Comet Lake 5,3 10 - 20 20 2 250 125
Core i7-10700K* Comet Lake 5,1 8 - 16 16 2 229 125
Core i5-10600K Comet Lake 4,8 6 - 12 12 2 182 125

N'ayant pas de Core i7-10700K a disposition, nous avons utilisé un Core i7-10700 sur lequel nous avons poussé les limites de consommation au niveau de son grand frère. Si cela n'en fait pas un modèle K, il s'en approche beaucoup lors des tests les plus parallélisés, moins en monothread du fait de fréquences notablement plus basses dans ces conditions. C'est pourquoi vous retrouvez cette référence identifiée par une *.

• Logiciels

Windows 11 - Build 22621.1413
Pilotes Nvidia 531.29
Pilotes chipset AMD 5.09.20.417
Pilotes chipset Intel 10.1.19199.8340

Nous employons Windows 11 en version Pro qui est un environnement propice à l'utilisation de toutes les capacités de nos CPU, en particulier les multicœurs massifs, qui pouvaient s'avérer quelque peu bridés par le scheduler de Windows plus anciens. Il gère également bien mieux l'affectation des processus au sein des processeurs Ryzen, ainsi que la latence au niveau des changements de fréquence. De même, l'hétérogénéité des processeurs Intel est bien mieux prise en compte. Les mises à jour ont été installées jusqu'au 11/04/2023 (hors jeux), puis bloquées pour maintenir la même configuration entre CPU. Nous rechargeons une image disque initiale à chaque changement de carte mère / microarchitecture.

• Benchmarks Linux

Acheter un CPU doté de très nombreux cœurs en 2023 n'est pas forcément exclusif à un usage ludique windowsien. Or, dans divers domaines, dont la programmation, nombreux sont les professionnels ou professionnels en devenir à s'aventurer sur l'OS manchot. Nous avons décidé pour cette nouvelle fournée de tests d'en reconduire certains sous Linux, notre image maison ayant migré sous Ubuntu, du fait d'un suivi logiciel plus régulier indispensable à la compatibilité de nos nouveaux venus. Nous nous appuyons sur la version 22.10, toutes les mises à jour jusqu'au 21/04/2023 ayant été appliquées.

Concernant les différents tests, nous avons utilisé les exécutables compilés en 64-bit (si existants) des différentes applications. Nous limitons l'usage de RAM à la même valeur entre plateformes au niveau des logiciels, afin de ne pas créer de distorsion à ce niveau, si d'aventure les capacités totales n'étaient pas identiques. Lorsque des options d'accélération GPU sont disponibles au sein des logiciels, ces dernières sont systématiquement désactivées pour se concentrer sur les prestations CPU "pures". Nous désactivons au sein des cartes mères tous les contrôleurs inutilisés (stockage, Wi-Fi, BT, etc.) ainsi que les LED ou autres artifices visuels. Tous les benchs sont reproduits entre 2 et 3 fois (selon la répétabilité du test) et le score de la meilleure de ces passes est reporté dans les graphiques, en excluant les scores faisant état d'un écart par trop "anormal".

Pour le domaine ludique, nous reportons cette fois la moyenne (5 passes) arrondie, mais aussi la valeur (arrondie également) du premier centile (1% Low) d'images par seconde. Nous utilisons la définition 1920x1080, qui est d'une part la plus répandue (de très (très) loin) et qui permet d'autre part de différencier les CPU entre eux, en s'affranchissant au maximum de la limitation GPU, via l'utilisation d'une carte graphique très véloce (l'objectif de ce test étant bien d'évaluer les CPU et non les GPU).

C'en est fini de la description du protocole, mettons donc en action ces processeurs.


Tests synthétiques

Nous débutons nos tests synthétiques par AIDA64 et ses outils dédiés à la mémoire dans un premier temps. La configuration retenue pour les processeurs est pour rappel la suivante : 3200 MHz (14-14-14) pour la DDR4, côté DDR5 c'est 6000 MHz (30-38-38). Pas de surprises à attendre ici avec nos nouveaux venus (testés pour rappel avec une carte mère DDR5 suite à un souci sur notre modèle DDR4). Comme attendu, le R5 7500F se comporte de manière très similaire au 7600X.

e207914e0e36731d87ea743f4b8aab34

Poursuivons avec deux benchmarks synthétiques permettant une comparaison plus aisée des utilisateurs avec leur propre matériel. Le premier test est issu du mondialement célèbre CPU-Z. Nous reportons à la fois les résultats monothread et multithreads. Comme attendu, le Ryzen 5 7500F lâche davantage de gains au 7600X en monothread qu'en multithread, où les fréquences deviennent très proches entre les 2 CPU.

9bb6c9b9fd70fa0432079669149dc493

Le second test est le non moins célèbre Cinebench R23 et comme pour le test précédent, nous reportons les résultats en ne sollicitant qu'un seul cœur puis tous. Les mêmes causes produises les mêmes effets, puisque le comportement est très proche de celui relevé sous CPU-Z.

4e9dc92efaac450cd08632e01b8a399f

Voilà, c'est terminé pour les benchs synthétiques, passons à présent aux tests pratiques.


Performances productives

Vous retrouverez dans le graphique suivant les résultats de nos 16 tests pratiques couvrant un large éventail d'activités.

2d9489fb0c92ab364a4babc1f7dc3237

Afin d'établir une hiérarchie rapide, nous avons calculé un indice en pondérant le résultat de chaque test précédent. Alors comment notre Ryzen 5 7500F se positionne-t-il dans la mêlée ? Comme attendu il est un redoutable compétiteur face au R5 7600X, qui ne le devance que de 6,7 % en moyenne. Du côté de la concurrence, il fait jeu égal avec le Core i5-14500 pourtant plus cher, mais davantage bridé par sa limite de puissance plus contraignante (mais facilement modifiable avec une carte mère Ad Hoc).

31339ccc9cd4049ded91f9c9a1ebcb85

Voilà pour les tâches que l'on qualifiera de sérieuses, mais comment diable se comportent nos nouveaux venus quand il s'agit de s'adonner à des activités plus fun ? Voyons cela page suivante.


Performances ludiques

Quid des performances ludiques mesurées avec nos différents protagonistes ? À noter que le Pentium G7400 n'a pas réussi à lancer Microsoft Flight Simulator, le chargement se terminant systématiquement par un plantage. Le jeu indique toutefois lors de sa phase d'initialisation que le processeur ne respecte pas le minimum requis, ce n'est donc pas si surprenant. Le résultat varie selon les titres, mais les jeux étant particulièrement sensibles aux fréquences de fonctionnement et largeur de cache (bien plus qu'au nombre de coeurs), ce Ryzen 5 7500F produit à nouveau de belles prestations au regard de son tarif.

4c312c6f6491710ebb1a7fa10b8ce965

Avant toute chose, rappelons que nous choisissons ici de nous positionner volontairement en situation de limitation CPU, en utilisant des scènes et réglages adaptés, le tout couplé avec une carte graphique clairement surdimensionnée pour la définition utilisée. En condition plus "réaliste", ces situations interviennent bien plus rarement et le GPU s'avère généralement limitant bien avant le CPU, lissant ainsi les écarts entre la plupart des références testées. Toutefois, ce mode opératoire permet d'évaluer nos CPU dans des situations difficiles qui pourraient survenir à l'avenir, avec la complexification croissante des jeux.

À l'instar des tests de production, nous avons réalisé également un indice pour hiérarchiser les différents processeurs selon leurs aptitudes au jeu. Pour rappel, le Pentium G7400 est affligé d'un zéro pointé sur Microsoft Flight Simulator, ce qui impacte largement son indice. L'écart est cette fois de 6,8 % en faveur du R5 7600X en comparaison du Ryzen 5 7500F. Autant dire rien du tout, surtout que la carte graphique jouera probablement les arbitres bien avant que les CPU ne parviennent à se départager. Le Core i5-14500 est à nouveau son concurrent le plus proche, mais avec cette fois un retard d'environ 5 %.

8f01bce264702fe6cfa8f459d685667a

Voilà pour les performances en jeu, passons aux mesures de consommation page suivante.


Consommation, efficacité & températures

Intéressons-nous à présent au besoin énergétique des différents processeurs. Nous mesurons ici la consommation totale à la prise, mais aussi sur les lignes 12 V dédiées au CPU. Précisons que nous nous limitons à présent aux seuls connecteurs ATX 4/8 broches, pour nous concentrer exclusivement sur la puissance absorbée par les processeurs, mais ces derniers peuvent également l'être par le biais du connecteur à 24 pins. Il est toutefois difficile pour ce dernier d'isoler la puissance réellement absorbée par les seuls CPU d'où notre choix, même s'il n'est pas parfait. C'est ce qui explique certaines disparités que vous constaterez selon les plateformes au niveau de la consommation à la prise et celle que nous indiquons 12 V (au-delà de la consommation des autres éléments et des pertes dues au bloc d'alimentation).

Commençons par la consommation au repos. Rappelons que les Ryzen 8000G et ce 7500F ont été testés sur l'ASRock B650 Pro RS alors que les autres Ryzen 7000 l'ont été sur l'Asus ROG Crosshair X670E Extreme,  davantage équipée et disposant de 2 puces côté chipset, induisant donc une surconsommation particulièrement notable au repos. Notons également que les 2 cartes mères ne semblent pas répartir de manière équivalente les ponctions sur les lignes 12 V. Puisque nous ne mesurons ici que ce qui transite via les connecteurs 8/4 pins dédiés au CPU (et non le 12 V du connecteurs à 24 broches), il faut prendre un peu de recul ici. Lors de la mise à jour du protocole à venir au printemps, nous réévaluerons la meilleure option de mesure sur le 12 V.

67fffc446a2ee03a68e74ffac9e323c0

En charge à présent, et ce durant la seconde passe de l'encodage H.264 : le nouveau venu se montre bien plus économe que le 7600X, vu leur différence au niveau de la limite de puissance. Les puces d'Intel "65 W" le sont toutefois encore davantage (une fois les 28 s de TAU écoulées), là aussi du fait du différentiel de limite de puissance.

8ffa9ca83e797ff71df896874fca56b4

Nous croisons enfin les résultats de performance obtenus durant l'encodage, avec la puissance absorbée durant ce dernier pour établir un indice d'efficacité énergétique. Sans surprise, ce Ryzen 5 7500F s'avère excellent à ce niveau du fait de son niveau de consommation électrique raisonnable lié à des fréquences proches du sweet spot du silicium et suffisantes pour des performances solides.

56db74b444ab06081cdff4d9a6edd29e

Finissons par les températures mesurées là aussi durant l'opération d'encodage. Sans trop de surprise vu la puissance absorbée, notre refroidisseur est en capacité de maintenir notre R5 7500F à des valeurs raisonnables, ce qui n'est pas le cas des modèles X.

b94a46294c09f44a2964732f741d0faa

Il est temps de passer au verdict page suivante.


Verdict

Boite AMD Ryzen 5 7000 sériesAlors que penser de ce "petit" Ryzen 5 7500F. Pour reprendre la célèbre expression : "il a tout d'un grand !" . En effet, les écarts le séparant du Ryzen 5 7600X  (et par voie de conséquence du 7600) sont réellement limités et il faut vraiment avoir un besoin impérieux de l'IGP pour ne pas le préférer à ces 2 options, dont il est un peu le fossoyeur à nos yeux. Le gain financier réalisé lors de l'acquisition du processeur pourra donc avantageusement être réaffecté le cas échéant à d'autres éléments constitutifs, générant des écarts plus importants dans leurs domaines respectifs ou accroissant la pertinence globale de l'ensemble (GPU plus rapide, SSD avec plus de capacité, etc.). 

C'est surtout une porte d'entrée à la plateforme AM5 qui lui faisait cruellement défaut. Certes, les récents APU 8000G proposent depuis peu une option intéressante d'un point de vue tarifaire avec le Ryzen 5 8500G, mais la puce qui l'anime est avant tout pensée pour les solutions de mobilité, entraînant des limitations notables dans le cadre d'un usage au sein d'un PC de bureau. On pense bien entendu au nombre réduit de lignes PCIe, limitant à x4 ces dernières pour une carte graphique dédiée. Il en est de même pour les SSD utilisant les lignes PCIe du CPU (6 maximum), qui plus est limitées à la Gen 4 au lieu de la Gen 5 pour les Raphael. Le Ryzen 5 7500F ne souffre d'aucune limitation de cet ordre, qui plus est son cache L3 deux fois plus large est un atout précieux pour les activités vidéoludiques.

Le Ryzen 5 7500F est donc une référence particulièrement séduisante pour ceux dont le budget n'est pas extensible, mais qui veulent opter dès aujourd'hui pour une plateforme moderne et à l'espérance de vie bien plus importante que les AM4 ou LGA 1700. Dénichable sous les 200 € en France accompagné d'un ventilateur, c'est un gain non négligeable d'une cinquantaine d'euros par rapport à un Ryzen 5 7600, qui n'a pour lui que l'intérêt de disposer d'un IGP, qui pourra néanmoins s'avérer utile pour ceux ne souhaitant pas jouer avec leur configuration, évitant ainsi l'acquisition d'une carte dédiée. 

Du côté de la concurrence, on peut trouver le Core i5-12400F pour une grosse trentaine d'euros moins cher. Ce dernier est certes moins performant, mais il est loin d'être totalement dépassé pour autant et se montre moins énergivore, en particulier au repos, ce qui pourra titiller la fibre écologique ou économique (le PC passant généralement beaucoup de temps dans ce mode) de l'acquéreur potentiel. Il a aussi l'avantage de pouvoir recycler potentiellement des barrettes de mémoire DDR4 le cas échéant. Reste une plateforme en fin de vie, mais l'existence de nombreuses références plus rapides au sein de cette dernière, laisse des opportunités de progression notables sans avoir à tout changer à l'avenir.

Il est possible de réaliser une analyse similaire pour l'AM4, qui comporte elle aussi des références potentiellement intéressantes pour une configuration d'entrée de gamme à bon rapport performances / prix, tout en conservant des possibilités d'évolutions ultérieures au sein de la plateforme. Cela n'empêche en rien le Ryzen 5 7500F d'être une option très pertinente pour l'AM5, permettant ainsi de démocratiser encore un peu plus cette option, longtemps pénalisée par un ticket d'entrée élevé, du fait de la conjonction de cartes mères, DDR5 et processeurs onéreux. Petit à petit, l'impact négatif de cette triade se dissipe pour le plus grand bonheur des consommateurs souhaitant opter pour cette proposition des rouges.


Nous remercions naturellement nos partenaires pour la mise à disposition des éléments ayant permis la réalisation de ce dossier.

  •  

Test • Intel Core i5-14500 / Core i5-14400 / Core i3-14100

Par : Éric B.
20 février 2024 à 09:00

Intel Core

Après vous avoir proposé un test des processeurs haut de gamme de la 14ème génération d'Intel Core, nous avons remis l'ouvrage sur le métier afin d'évaluer cette fois une partie de la gamme plus accessible. Ces processeurs ne disposant pas de "K" dans leur référence, sont systématiquement bloqués au niveau de leur coefficients multiplicateurs, rendant l'overclocking plus difficile. On peut trouver cela mesquin de la part des bleus quand un tel blocage n'existe pas chez la concurrence, mais sans cela de nombreuses références, probablement très rentables, perdraient instantanément leur intérêt face à des versions moins onéreuses. Autre point commun à toutes ces versions, une limite de puissance à longue durée bien plus réduite et impactant donc fortement les fréquences. Pour se faire une idée des prestations à attendre du reste de la gamme, nous avons jeté notre dévolu sur deux Core i5 et un Core i3. Verdict ?


Intel 14th Gen

La gamme "non K" de processeurs Intel s'étend des Core i9 en haut de gamme, jusqu'aux Intel Processor 300 en entrée de gamme, renommage des précédents Pentium. La configuration de chaque référence est identique à celle du modèle "K" en termes de nombres de coeurs et cache, par contre les fréquences et limites de puissance diffèrent. Ainsi, un Core i9-14900 va disposer comme le 14900K de 8 coeurs "Performance" et 16 coeurs "Efficient" tout comme d'un cache L3 de 36 Mo, mais ses fréquences seront toutes autres en particulier lors d'une sollicitation intense et durant dans le temps. Récapitulons la gamme au sein du tableau suivant :

Référence Cœurs / Threads

E-Core Freq. max

P-Core Freq. Max Cache L2 Cache L3 Puissance (courte durée) Puissance (longue durée) Prix
i9-14900K 8P+16E / 32 4,4 GHz 6,0 GHz 32 Mo 36 Mo 253 W 253 W 589 $
i9-14900KF 564 $
i9-14900 4,3 GHz 5,8 GHz 219 W 65 W 549 $
i9-14900F 524 $
i9-14900T 4,0 GHz 5,5 GHz 106 W 35 W 549 $
i7-14700K 8P+12E / 28 4,3 GHz 5,6 GHz 28 Mo 33 Mo 253 W 253 W 409 $
i7-14700KF 384 $
i7-14700 4,2 GHz 5,4 GHz 219 W 65 W 384 $
i7-14700F 359 $
i7-14700T 3,7 GHz 5,2 GHz 106 W 35 W 384 $
i5-14600K 6P+8E / 20 4,0 GHz 5,3 GHz 20 Mo 24 Mo 181 W 181 W 319 $
i5-14600KF 294 $
i5-14600 3,9 GHz 5,2 GHz 154 W 65 W 255 $
i5-14600T 3,6 GHz 5,1 GHz 92 W 35 W
i5-14500 3,7 GHz 5,0 GHz 11,5 Mo 154 W 65 W 232 $
i5-14500T 3,4 GHz 4,8 GHz 92 W 35 W
i5-14400 6P+4E / 16 3,5 GHz 4,7 GHz 9,5 Mo 20 Mo 148 W 65 W 221 $
i5-14400F 196 $
i5-14400T 3,2 GHz 4,5 GHz 82 W 35 W 221 $
i3-14100 4P / 8 - 4,7 GHz 5 Mo 12 Mo 110 W 60 W 134 $
i3-14100F 58 W 109 $
i3-14100T 69 W 35 W 134 $
Processor 300 2P / 4 3,9 GHz 2,5 Mo 6 Mo - 46 W 82 $
Processor 300T 3,4 GHz 35 W

Pour rappel, les versions F voient leur IGP désactivé, quant aux versions T, leur TDP est réduit à 35 W.  Même si tous les processeurs de cette gamme sont officiellement des puces au nom de code Raptor Lake (Refresh), en pratique elles vont mixer cette génération à Alder Lake, comme en témoigne la taille des caches L2 pour les Core i5-14500 et moindre. Commençons donc notre tour d'horizon des CPU testés en détaillant ce dernier.

Core i5-14500

Le Core i5-14500 est facturé une dizaine de pourcents moins cher que le 14600 dont il reprend la configuration 6P + 8E. Il ne sont toutefois pas basé sur le même die, puisque nous avons affaire ici avec celui que l'on retrouvait déjà sur les Core i9/i7 de la génération 12, dont deux coeurs performances ont été désactivés. Comme le sait-on ? Au nombre et à la disposition des CMS soudés au dos du die. et strictement identiques à ceux des processeurs précités. Pour le reste, il s'agit d'un processeur LGA 1700 tout ce qu'il y a de plus classique, et donc visuellement identique au reste de la gamme.

Intel Core i5-14500 : face avantIntel Core i5-14500 : face arrière

Core i5-14500 faces avant et arrière

Que nous apprend CPU-Z sur le nouveau venu ? La configuration hétérogène est bien entendu de mise, puisque l'on retrouve les 6 cœurs "performance" accompagnés de 8 cœurs efficients, à l'instar de son prédécesseur, le Core i5-13500. Le cache de niveau 3 est constitué de 24 Mo, quant au L2, il s'appuie sur 1,25 Mo par cœur performant et 2 Mo pour une partition de 4 cœurs efficients, soit un total de 11,5 Mo pour le CPU dans son intégralité, une baisse de 42,5 % par rapport au 14600 qui utilise un die Raptor Lake. Le TDP indiqué est de 65 W, commun à toutes les puces non K (hormis les versions T à 35 W), mais ne s'applique qu'après un laps de temps donné (TAU), puisque le 14500 peut profiter de 154 W durant ce dernier. Si nous avons été en mesure de changer la valeur de TAU au sein du bios, ce dernier conservait malgré tout systématiquement celle par défaut (ici 28 secondes) en pratique sous l'OS. Par contre il est bel et bien possible de modifier le TDP, pour adopter une valeur plus importante si votre carte mère vous donne accès à ce paramètre. Ce n'est pas négligeable en termes de performance, puisqu'à 154 W, la sollicitation intégrale du CPU permet de conserver les coeurs "P" à 4,4 GHz, alors qu'ils chutent jusqu'à 3 GHz à 65 W (- 32 %).

Intel Core i5-14500 : les fréquences via CPU-Z

Fréquences du Core i5-14500 (1 cœur actif, tous cœurs actifs à 154 W puis 65 W)

HWiNFO64 permet de monitorer un peu plus finement le processeur, on remarquera ainsi qu'en pleine charge sous 154 W, en sus des 4,4 GHz des P-Cores, les E-Cores vont de leur côté adopter une cadence de 3,6 GHz. Lorsque TAU est écoulé, on passe au régime sec 65 W, avec des coeurs performances oscillant entre 3 et 3,1 GHz, quand les coeurs efficients varient de leur côté entre 2,5 et 2,6 GHz.

Intel Core i5-14500 : les fréquences via HWiNFO64

Fréquences du Core i5-14500 via HWiNFO64

Core i5-14400F

Intel nous a également fait parvenir un Core i5-14400F, dont le tarif se situe juste sous les 200 $, affichant une baisse de 25 $ pour ceux n'ayant cure de l'IGP. C'est une copie carbone du 14500, face avant comme arrière, indiquant donc qu'il utilise lui aussi le même die de génération Alder Lake. Les différences seront donc à chercher au niveau des fréquences et désactivations opérées.

Intel Core i5-14400F : face avantIntel Core i5-14400F : face arrière

Core i5-14400F faces avant et arrière

CPU-Z va nous éclairer sur ces différences : s'il reprend les 6 cœurs performances, on passe par contre de 8 cœurs efficients sur le 14500 à 4 sur le 14400F, soit une configuration en tout point identique au 13400(F). On va retrouver également 1,25 Mo de cache L2 par coeurs "P" et 2 Mo par partition de 4 coeurs "E".  La limite de puissance à courte durée est cette fois de 148 W, mais le TDP qui s'appliquera au bout de TAU reste inchangé à 65 W. Les fréquences maximales tous coeurs actifs à 148 W sont de 4,1 GHz pour les P-Cores, mais à 65 W elles pourront chuter jusqu'à 3 GHz une fois encore.

Intel Core i5-14400F : les fréquences via CPU-Z

Fréquences du Core i5-14400F (1 cœur actif, tous cœurs actifs en courte et longue durée)

HWiNFO64 permet d'élargir la vue à tous les cœurs simultanément. Les coeurs E vont adopter une cadence de 3,5 GHz lorsque la limite de puissance est fixée à 148 W, mais chuter jusqu'à 2,4 GHz à 65 W. Il peut paraitre surprenant qu'avec 4 coeurs de ce type en moins, la fréquence obtenue pour ces derniers soit moindre que celle adoptée sur le 14500. Toutefois, notre 14400F demande plus de tension (et donc de puissance puisque cette dernière évolue au carrée de la tension) pour ces fréquences, probablement du fait d'une puce moins coopérative côté silicium, ceci expliquant cela.

Intel Core i5-14400F : les fréquences Core i5-14400F

Fréquences du Core i5-14400F via HWiNFO64

Core i3-14100F

Dernier processeur testé, le Core i3-14100F est un CPU d'entrée de gamme facturé 109 $. Là aussi, il permet d'obtenir ce prix d'appel en acceptant la désactivation de l'IGP, mais ce n'est peut-être pas si pertinent dans son cas. En effet, ce genre de puce se destine avant tout à un usage multimédia et bureautique avancé, pouvant généralement se satisfaire du GPU intégré. Quoi qu'il en soit, la face avant ne change pas d'un iota par rapport aux autres processeurs LGA 1700, celle arrière affiche par contre une disposition des CMS différentes de celles de ses comparses du jour. Il ne s'agit toutefois en rien d'une nouveauté, puisque nous avions déjà rencontré un tel agencement sur le Core i5-12600 (non K), utilisant un die à 6 coeurs "P" natif et dépourvu du moindre coeur "E".

Intel Core i3-14100F : face avantIntel Core i5-14400F : face arrière

Core i3-14100F faces avant et arrière

Voyons ce que CPU-Z peut nous appendre sur le nouveau venu. 4 coeurs "P" en tout et pour tout, à l'instar des 12100 et 13100, seules les fréquences différenciant ces trois là, avec un bond de 200 MHz (en Boost) entre chaque itération. On retrouve donc ici 4,7 GHz en pointe sur un seul cœur, et 4,5 GHz lorsque tous sont sollicités en profitant de la limite de puissance à 110 W. Lorsque cette dernière chute à 58 W au bout de TAU, on obtient alors 4 GHz tout ronds. A noter que la version dotée d'un IGP profite d'un TDP en (très) légère hausse, à 60 W en tout.

Intel Core i3-14100F : les fréquences via GPU-Z

Fréquences du Core i3-14100F (1 cœur actif, tous cœurs actifs en courte puis longue durée)

Voilà, c'est terminé pour ces processeurs, passons en page suivante à la description du protocole de test.


Configurations et protocole de test

Pour ce dossier, nous réutilisons le protocole de test que nous avons figé pour un an : tout d'abord, nous utilisons Windows 11 (22H2), qui a eu le temps de mûrir pour expurger les bugs de jeunesse. Nous employons une GeForce RTX 4090 FE, afin de repousser très largement la limitation GPU qui pourrait empêcher de réellement différencier les processeurs les plus rapides entre eux, y compris en FHD pour certains jeux. Concernant les tests Linux, nous utilisons Ubuntu, dans sa version 22.10. D'un point de vue général, la "philosophie" de notre protocole est la suivante : faire la part belle aux applications courantes les plus gourmandes et tirant parti des puces multicœurs. Le nombre de tests réalisés est donc réduit (nous ne cherchons pas l'exhaustivité), en choisissant ceux nous semblant pertinents et surtout représentatifs des gains à attendre d'un processeur multicœur véloce. En effet, gagner par exemple plusieurs minutes pour une tâche de rendu ou d'encodage, ne se ressent pas du tout de la même façon côté utilisateur, que de gagner par exemple une seconde pour une mise en page, mais qui pourrait pourtant impacter l'indice de performance global de manière similaire, sans que cela ne soit réellement pertinent.

Voici les applications utilisées :

  • AIDA64 - 6.85.6345
  • CPU-Z Test 17.01.64
  • Cinebench R23.200
  • 7-zip 22.01
  • Stockfish 15.1
  • Blender - 3.4.1
  • After Effects - 23.2.1
  • VEGAS Pro - 20.0.370
  • DxO PhotoLab - 6.4.0
  • Lightroom Classic - 12.2.1
  • HandBrake - 1.6.1
  • Cinema 4D 2023.1.4
  • Arnold for Maya - 5.2.2.4
  • Visual Studio 2022 - 17.5.2
  • GCC - 12.2.0
  • TensorFlow 2.12.0
  • Anno 1800 - 17.1.1232159
  • Cyberpunk 2077 - 1.62
  • Doom Eternal - 6.66 Rev 2
  • F1 2022 - 1.19.959964
  • Far Cry 6 - 1.7.0
  • Grand Theft Auto V - 1.0.2944.0
  • HITMAN 3 - 3.150.0
  • Microsoft Flight Simulator - 1.31.22.0
  • Project CARS - 1.0.0.0.0724
  • Total War : Warhammer III - 3.1.0
  • Watch Dogs : Legion - 1.5.6
  • X-Plane 12 - 12.05
  • Baldur's Gate III - 4.1.1.4494476
  • Call of Duty: Modern Warfare III - 1.29.1.16888868
  • Diablo IV - 1.30.49404
  • Prince of Persia: The Lost Crown - 1.0.3+TU3.375453.2398915

Nous désactivons les différentes "optimisations" des constructeurs au sein du bios des cartes mères, afin de retrouver le comportement des CPU au plus près des spécifications de leurs concepteurs.

Pour rappel, la gestion de la limite de puissance diffère entre les 2 constructeurs. Ainsi, AMD utilise une valeur unique nommée PPT (Power Package Tracking), qui va s'appliquer systématiquement (hors overclocking). Intel de son côté, définit 2 valeurs qu'il nomme depuis Alder Lake, Maximum Turbo Power (PL2 pour Power Limit 2) et Processor Base Power (PL1).

La première citée correspond à la limite de puissance que le CPU va se voir attribuée durant un laps de temps donné (Tau), avant de basculer vers la seconde, qui correspond donc à la limite de puissance à longue durée. Depuis la Gen 12, les processeurs K disposent de la même valeur dans les 2 cas. Pour les autres puces des bleus, nous fixons la valeur TAU à 56 secondes (valeur qui n'est pas respectée pour les processeurs non K se contentant de 28 s) et les PL1 / PL2 aux spécifications d'Intel (vous retrouverez les valeurs spécifiques de chaque processeur dans le tableau en page précédente) :

• Composants communs

GeForce RTX 4090 FESeasonic Prime TXWD Black SN850

Afin d'évaluer nos différents processeurs, nous avons retenu des éléments de configuration type, indépendamment de la plateforme, afin de respecter l'équité entre les différentes configurations. La carte graphique, comme indiquée précédemment, est donc la référence la plus rapide à l'heure actuelle, à savoir une GeForce RTX 4090. Les tests sont systématiquement exécutés sur un très véloce SSD Western Digital Black SN850 1 To, connecté à un port NVMe câblé en PCIe 4.0 (4 lignes). Enfin, l'alimentation est un modèle Seasonic Prime PX de 1 000 W, disposant de la certification 80+ Platinum et adapté à des configurations pouvant engloutir de nombreux Watts.

Côté mémoire, G.Skill nous a procuré des kits mémoires nous permettant de mener à bien nos tests et ceci qu'il s'agisse de DDR4 comme DDR5, adaptés à une configuration Intel (disposant d'un profil XMP) comme AMD (profil EXPO). Jetons donc un coup d'œil à cela.

  • G.Skill Trident Z RGB / DDR4-3200 / 14-14-14-34
  • G.Skill Flare X5 / DDR5-6000 / 30-38-38-96
  • G.Skill Trident Z5 RGB / DDR5-7200 / 34-45-45-115

Concernant les fréquences de fonctionnement de la mémoire, il existe plusieurs approches possibles : soit respecter à la lettre les spécifications officielles des concepteurs, souvent très conservatrices puisque devant prendre en considération le côté exotique de certaines barrettes, soit au-delà et souvent plus en phase avec l'usage qui sera fait par de nombreux acquéreurs. Nous avons opté pour cette dernière approche, en choisissant une fréquence de fonctionnement commune (pour un même type de mémoire) entre les concurrents, puisque l'on teste ici les CPU et ce même si la capacité à gérer des fréquences mémoire élevées n'est pas identique entre plateformes.

Compte tenu de la particularité de la plateforme LGA 1700 d'Intel, pouvant utiliser soit de la DDR4 soit de la DDR5, nous avons décidé (arbitrairement nous en convenons) de coupler les processeurs K à la dernière citée et les autres à la première. Cela nous a paru logique vis-à-vis des prix respectifs des composants. Toutefois, vous retrouverez 2 lignes pour le Core i5-12400F, celles incluant la mention (DDR5) vous permettant de juger l'impact de la mémoire sur ce type de processeur.

Un petit souci avec notre carte mère supportant la DDR4 nous a contraint à tester les références de ce jour avec une carte mère DDR5, il faudra donc prendre en compte cet élément en comparant les nouveaux venus aux références précédentes. A noter toutefois que nous avons retesté le Core i5-13400F avec la même carte mère (DDR5) afin d'obtenir un comparatif plus pertinent face au Core i5-14400F.

G.Skill Trident Z RGB G.Skill Flare X5 G.Skill Trident Z5 RGB

• Plateforme LGA1700 (DDR5)

ASUS ROG MAXIMUS Z790 HERO (BIOS 0904) + Asus TUF Gaming Z790-Pro WiFi (BIOS 1630) pour Gen 14 (& 13400F)
G.SKILL Trident Z5 RGB - 2 x 16 Go @DDR5-6000 (30-38-38)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus Maximus Z790 Hero

• Plateforme LGA1700 (DDR4)

MSI MAG B660M Mortar WiFi DDR4 (BIOS 7D42v1C)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

MSI MAG B660M Mortar WiFI DDR4

• Plateforme LGA1200

ASUS ROG MAXIMUS XIII HERO (BIOS 1701)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Maximus XIII Hero

• Plateforme LGA2066

Gigabyte AORUS X299 Gaming 7 (BIOS F9r)
G.SKILL Trident Z RGB - 4 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Gigabyte AORUS X299 Gaming 7

• Plateforme AM5

ASUS ROG CROSSHAIR X670E EXTREME (BIOS 1202/1410) + ASRock B650 Pro RS (bios 2.09.AS03)
G.SKILL Flare X5 - 2 x 16 Go @DDR5-6000 (30-38-38)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Crosshair X670E Extreme

• Plateforme AM4

ASUS ROG CROSSHAIR VIII DARK HERO (BIOS 4402)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

 Asus ROG Crosshair VIII Dark Hero

• Dissipateur

Le refroidissement CPU est assuré par un excellent modèle de chez Noctua : le NH-U12A, capable de concurrencer la plupart des AIO avec les processeurs mainstream modernes, et très pratique à utiliser dans le cadre de nos tests, via les kits de fixations du constructeur lui permettant de s'adapter à la plupart des plateformes. La pâte thermique est également d'origine Noctua, il s'agit de la non moins excellente NT-H2.

Noctua NH-U12A

• Processeurs testés

Après cette nécessaire remise en contexte terminée, détaillons à présent les caractéristiques principales des CPU testés au sein du tableau suivant.

CPU Micro Architecture (ou nom de code) Fréquence Turbo max. (GHz) Cœurs Performance Coeurs Efficients Threads Cache L3 (Mo) Canaux mémoire Puissance max. courte durée (Watts) Puissance max. longue durée (Watts)
Ryzen 7 8700G Zen 4 5,1 8 - 16 16 2 - 88
Ryzen 5 8600G Zen 4 5,0 6 - 12 16 2 - 88
Ryzen 5 8500G Zen 4 5,0 2 4 12 16 2 - 88
Ryzen 9 7950X3D Zen 4 5,7 16 - 32 128 2 - 162
Ryzen 9 7950X Zen 4 5,7 16 - 32 64 2 - 230
Ryzen 9 7900X Zen 4 5,6 12 - 24 64 2 - 230
Ryzen 7 7800X3D Zen 4 5,0 8 - 16 96 2 - 162
Ryzen 7 7700X Zen 4 5,4 8 - 16 32 2 - 142
Ryzen 5 7600X Zen 4 5,3 6 - 12 32 2 - 142
Ryzen 9 5950X Zen 3 4,9 16 - 32 64 2 - 142
Ryzen 9 5900X Zen 3 4,8 12 - 24 64 2 - 142
Ryzen 7 5800X3D Zen 3 4,5 8 - 16 96 2 - 142
Ryzen 7 5800X Zen 3 4,7 8 - 16 32 2 - 142
Ryzen 7 5700G Zen 3 4,6 8 - 16 16 2 - 88
Ryzen 5 5600X Zen 3 4,6 6 - 12 32 2 - 88
Ryzen 9 3950X Zen 2 4,7 16 - 32 64 2 - 142
Ryzen 9 3900X Zen 2 4,6 12 - 24 64 2 - 142
Ryzen 7 3800X Zen 2 4,5 8 - 16 32 2 - 142
Ryzen 5 3600X Zen 2 4,4 6 - 12 32 2 - 128
Ryzen 5 3400G Zen + 4,2 4 - 8 4 2 - 88
Ryzen 3 3300X Zen 2 4,3 4 - 8 16 2 - 88
Ryzen 3 3100 Zen 2 3,9 4 - 8 16 2 - 88
Ryzen 7 2700X Zen + 4,3 8 - 16 16 2 - 142
Ryzen 5 2600X Zen + 4,2 6 - 12 16 2 - 128
Core i9-14900K Raptor Lake Refresh 6,0 8 16 32 36 2 253 253
Core i7-14700K Raptor Lake Refresh 5,6 8 12 28 33 2 253 253
Core i5-14600K Raptor Lake Refresh 5,3 6 8 20 24 2 181 181
Core i5-14500 Raptor Lake Refresh 5,0 6 8 20 24 2 154 65
Core i5-14400F Raptor Lake Refresh 4,7 6 4 16 20 2 148 65
Core i3-14100F Raptor Lake Refresh 4,7 4 - 8 12 2 - 58
Core i9-13900KS Raptor Lake 6,0 8 16 32 36 2 253 253
Core i9-13900K Raptor Lake 5,8 8 16 32 36 2 253 253
Core i7-13700K Raptor Lake 5,4 8 8 24 30 2 253 253
Core i7-13700 Raptor Lake 5,2 8 8 24 30 2 219 65
Core i5-13600K Raptor Lake 5,1 6 8 20 24 2 181 181
Core i5-13400F Raptor Lake 4,6 6 4 16 20 2 148 65
Core i3-13100F Raptor Lake 4,5 4 - 8 12 2 89 58
Core i9-12900KS Alder Lake 5,5 8 8 24 30 2 241 241
Core i9-12900K Alder Lake 5,2 8 8 24 30 2 241 241
Core i7-12700K Alder Lake 5,0 8 4 20 25 2 190 190
Core i5-12600K Alder Lake 4,9 6 4 16 20 2 150 150
Core i5-12400F Alder Lake 4,4 6 - 12 18 2 117 65
Core i3-12100 Alder Lake 4,3 4 - 8 12 2 89 60
Pentium G7400 Alder Lake 3,7 2 - 4 6 2 46 46
Core i9-11900K Rocket Lake 5,3 8 - 16 16 2 251 125
Core i5-11600K Rocket Lake 4,9 6 - 12 12 2 251 125
Core i9-10980XE Cascade Lake 4,8 18 - 36 24,75 4 165 165
Core i9-10900K Comet Lake 5,3 10 - 20 20 2 250 125
Core i7-10700K* Comet Lake 5,1 8 - 16 16 2 229 125
Core i5-10600K Comet Lake 4,8 6 - 12 12 2 182 125

N'ayant pas de Core i7-10700K a disposition, nous avons utilisé un Core i7-10700 sur lequel nous avons poussé les limites de consommation au niveau de son grand frère. Si cela n'en fait pas un modèle K, il s'en approche beaucoup lors des tests les plus parallélisés, moins en monothread du fait de fréquences notablement plus basses dans ces conditions. C'est pourquoi vous retrouvez cette référence identifiée par une *.

• Logiciels

Windows 11 - Build 22621.1413
Pilotes Nvidia 531.29
Pilotes chipset AMD 5.09.20.417
Pilotes chipset Intel 10.1.19199.8340

Nous employons Windows 11 en version Pro qui est un environnement propice à l'utilisation de toutes les capacités de nos CPU, en particulier les multicœurs massifs, qui pouvaient s'avérer quelque peu bridés par le scheduler de Windows plus anciens. Il gère également bien mieux l'affectation des processus au sein des processeurs Ryzen, ainsi que la latence au niveau des changements de fréquence. De même, l'hétérogénéité des processeurs Intel est bien mieux prise en compte. Les mises à jour ont été installées jusqu'au 11/04/2023 (hors jeux), puis bloquées pour maintenir la même configuration entre CPU. Nous rechargeons une image disque initiale à chaque changement de carte mère / microarchitecture.

• Benchmarks Linux

Acheter un CPU doté de très nombreux cœurs en 2023 n'est pas forcément exclusif à un usage ludique windowsien. Or, dans divers domaines, dont la programmation, nombreux sont les professionnels ou professionnels en devenir à s'aventurer sur l'OS manchot. Nous avons décidé pour cette nouvelle fournée de tests d'en reconduire certains sous Linux, notre image maison ayant migré sous Ubuntu, du fait d'un suivi logiciel plus régulier indispensable à la compatibilité de nos nouveaux venus. Nous nous appuyons sur la version 22.10, toutes les mises à jour jusqu'au 21/04/2023 ayant été appliquées.

Concernant les différents tests, nous avons utilisé les exécutables compilés en 64-bit (si existants) des différentes applications. Nous limitons l'usage de RAM à la même valeur entre plateformes au niveau des logiciels, afin de ne pas créer de distorsion à ce niveau, si d'aventure les capacités totales n'étaient pas identiques. Lorsque des options d'accélération GPU sont disponibles au sein des logiciels, ces dernières sont systématiquement désactivées pour se concentrer sur les prestations CPU "pures". Nous désactivons au sein des cartes mères tous les contrôleurs inutilisés (stockage, Wi-Fi, BT, etc.) ainsi que les LED ou autres artifices visuels. Tous les benchs sont reproduits entre 2 et 3 fois (selon la répétabilité du test) et le score de la meilleure de ces passes est reporté dans les graphiques, en excluant les scores faisant état d'un écart par trop "anormal".

Pour le domaine ludique, nous reportons cette fois la moyenne (5 passes) arrondie, mais aussi la valeur (arrondie également) du premier centile (1% Low) d'images par seconde. Nous utilisons la définition 1920x1080, qui est d'une part la plus répandue (de très (très) loin) et qui permet d'autre part de différencier les CPU entre eux, en s'affranchissant au maximum de la limitation GPU, via l'utilisation d'une carte graphique très véloce (l'objectif de ce test étant bien d'évaluer les CPU et non les GPU).

C'en est fini de la description du protocole, mettons donc en action ces processeurs.


Tests synthétiques

Nous débutons nos tests synthétiques par AIDA64 et ses outils dédiés à la mémoire dans un premier temps. La configuration retenue pour les processeurs est pour rappel la suivante : 3200 MHz (14-14-14) pour la DDR4, côté DDR5 c'est 6000 MHz (30-38-38). Pas de surprises à attendre ici avec nos nouveaux venus (testés pour rappel avec une carte mère DDR5 suite à un souci sur notre modèle DDR4).

3d0ab7c211098a23d621fe64979e5ba0

Poursuivons avec deux benchmarks synthétiques permettant une comparaison plus aisée des utilisateurs avec leur propre matériel. Le premier test est issu du mondialement célèbre CPU-Z. Nous reportons à la fois les résultats monothread et multithreads. Le test étant relativement bref, les 3 puces profitent ici de leur enveloppe de puissance maximale lors de son exécution en multithread (pas d'impact de toute façon en monothread).

9f297254d2a1f932bdc8324ec5d58232

Le second test est le non moins célèbre Cinebench R23 et comme pour le test précédent, nous reportons les résultats en ne sollicitant qu'un seul cœur puis tous. Cette fois, nos puces vont devoir faire avec une partie du test à leur TDP. Forcément cela a un impact majeur sur leurs fréquences et donc prestations.

e987a19f23d166f31b3092a55aa6f6b9

Voilà, c'est terminé pour les benchs synthétiques, passons à présent aux tests pratiques.


Performances productives

Vous retrouverez dans le graphique suivant les résultats de nos 16 tests pratiques couvrant un large éventail d'activités.

a723a956975e639fd7cec9c2bf0a9828

Afin d'établir une hiérarchie rapide, nous avons calculé un indice en pondérant le résultat de chaque test précédent. Alors comment nos Core i3 & i5 de 14ème génération se positionnent-ils dans la mêlée ? Le plus petit se montre 6 % plus rapide que son ainé, mais il profite de l'apport de la DDR5 puisque le 13100F a été testé en DDR4. Pas de quoi changer grand chose à son placement même dans ce cas favorable, puisqu'il reste un processeur d'entrée de gamme limité par son nombre de coeurs et pas forcément plus intéressant que des références plus anciennes, performantes et parfois moins chères. Quid du Core i5-14400F ? Nous avons retesté le 13400F avec la même carte mère pour l'occasion et l'écart entre les 2 références n'est que de 1,2 %... Il faudra donc veiller à ne pas surpayer le nouveau venu en comparaison de son devancier qui est si proche. A noter que le Ryzen 5 7500F est sensiblement moins cher et devrait donc constituer une alternative intéressante (nous l'ajouterons si nous parvenons à en dégoter un). Finissons par le cas du Core i5-14500. Un peu plus onéreux que le Ryzen 5 7600X, il est capable de le taquiner sérieusement côté performances, d'autant qu'en libérant son enveloppe de puissance, les performances s'envolent (mais la consommation également) et il prend alors un net ascendant sur ce dernier.

532696097db2fcbdb9db74a440e7890c

Voilà pour les tâches que l'on qualifiera de sérieuses, mais comment diable se comportent nos nouveaux venus quand il s'agit de s'adonner à des activités plus fun ? Voyons cela page suivante.


Performances ludiques

Quid des performances ludiques mesurées avec nos différents protagonistes ? À noter que le Pentium G7400 n'a pas réussi à lancer Microsoft Flight Simulator, le chargement se terminant systématiquement par un plantage. Le jeu indique toutefois lors de sa phase d'initialisation que le processeur ne respecte pas le minimum requis, ce n'est donc pas si surprenant. Le résultat varie selon les titres, mais les jeux étant particulièrement sensibles aux fréquences de fonctionnement et largeur de cache, ces processeurs ne sont pas les mieux lotis à ce niveau au sein de l'échantillon de test.

8e28509543ef1717bfe8d74b873118c9

Avant toute chose, rappelons que nous choisissons ici de nous positionner volontairement en situation de limitation CPU, en utilisant des scènes et réglages adaptés, le tout couplé avec une carte graphique clairement surdimensionnée pour la définition utilisée. En condition plus "réaliste", ces situations interviennent bien plus rarement et le GPU s'avère généralement limitant bien avant le CPU, lissant ainsi les écarts entre la plupart des références testées. Toutefois, ce mode opératoire permet d'évaluer nos CPU dans des situations difficiles qui pourraient survenir à l'avenir, avec la complexification croissante des jeux.

À l'instar des tests de production, nous avons réalisé également un indice pour hiérarchiser les différents processeurs selon leurs aptitudes au jeu. Pour rappel, le Pentium G7400 est affligé d'un zéro pointé sur Microsoft Flight Simulator, ce qui impacte largement son indice. Le Core i3-14100F parvient à prendre 7 % d'avance sur le 13100F, encore une fois du fait de son avantage côté plateforme (DDR5). Ce n'est pas le cas du 14400F, qui se contente d'un petit pourcent de mieux que son prédécesseur. Quant au Core i5-14500, nous n'avions pas de 13500 à lui proposer en guise d'étalon, on notera tout de même qu'il finit au niveau du Core i5-12600K.

6a7ed52f6cd32dd6dc9ce051fa41e254

Voilà pour les performances en jeu, passons aux mesures de consommation page suivante.


Consommation, efficacité & températures

Intéressons-nous à présent au besoin énergétique des différents processeurs. Nous mesurons ici la consommation totale à la prise, mais aussi sur les lignes 12 V dédiées au CPU. Précisons que nous nous limitons à présent aux seuls connecteurs ATX 4/8 broches, pour nous concentrer exclusivement sur la puissance absorbée par les processeurs, mais ces derniers peuvent également l'être par le biais du connecteur à 24 pins. Il est toutefois difficile pour ce dernier d'isoler la puissance réellement absorbée par les seuls CPU d'où notre choix, même s'il n'est pas parfait. C'est ce qui explique certaines disparités que vous constaterez selon les plateformes au niveau de la consommation à la prise et celle que nous indiquons 12 V (au-delà de la consommation des autres éléments et des pertes dues au bloc d'alimentation).

Commençons par la consommation au repos. Précisons que les processeurs de 14e génération (et le 13400F) ont été testés sur l'Asus TUF Gaming Z790-Pro WiFi et non le modèle Hero ou la MSI MAG B660M Mortar ayant servi de base aux autres tests. Si cela ne change rien côté performances, ce n'est pas le cas pour la consommation en repos, du fait d'un modèle plus ou moins "moins chargé" en composants additionnels et VRM. Notons également que la TUF alimente principalement le CPU au repos par le biais des lignes 12 V dédiées au CPU, ce qui n'est pas le cas de la Hero. On note un avantage conséquent des bleus à ce niveau, ce qui est loin d'être négligeable, puisque les CPU passent beaucoup de temps dans ce mode chez de nombreux utilisateurs.

0fd148789ddce7855f10a6277f2d969c

En charge à présent, et ce durant la seconde passe de l'encodage H.264 : les nouveaux venus adoptent bien évidemment une consommation réduite puisqu'ils sont tenus en laisse par leur TDP qui s'applique après 28 seconde de test, bridant fréquences, performances mais aussi puissance électrique absorbée.

2929874d96b3e44e2ddb2b836bf2d430

Nous croisons enfin les résultats de performance obtenus durant l'encodage, avec la puissance absorbée durant ce dernier pour établir un indice d'efficacité énergétique. Sans surprise, ces processeurs "non K" sont parmi les plus efficients de l'échantillon de tests (à nombre de coeurs similaires), pour les raisons évoquées précédemment.

26f37a2585be2f725f0f4ea3c2bd69cb

Finissons par les températures mesurées là aussi durant l'opération d'encodage. Il s'agit de la valeur de crête mesurée, mais une fois le TDP appliqué, la température est encore moindre sur les 3 nouveaux venus. Ils n'ont donc aucun souci à ce niveau, contrairement à leurs grand frères, devant dissiper une puissance considérable sur une surface réduite.

464903985a922c4542ba387558014d26

Il est temps de passer au verdict page suivante.


Verdict

Boite Intel Core i5 Gen 14Alors que penser de cette 14e génération de processeurs Core à destination des PC de bureau, une fois la gamme plus largement testée ? Eh bien il faut admettre que cela ne change pas grand chose à notre avis initial. Cette génération n'étant qu'un refresh, elle était parfaitement dispensable à nos yeux. Pour autant, les tarifs n'ayant connus aucune inflation lors du changement, il n'y a rien de vraiment scandaleux à dénoncer non plus, puisqu'Intel propose un peu mieux pour le même prix. Le marché gris nuance quelque peu ce propos, puisqu'il est relativement courant de trouver les précédentes références légèrement moins chères que les nouvelles.

Quoi qu'il en soit, c'est la politique des bleus de proposer à minima une nouvelle gamme annuelle, d'autant que cela à permis un petit sursis à la plateforme LGA 1700, qui connait donc une troisième génération (même si on peut arguer du fait que ce n'en est pas vraiment une) de processeurs, alors que deux étaient annoncées. Au moins, il n'y a pas eu de nouveau chipset ou socket, ce qui n'a pas empêché les fabricants de cartes mères de proposer tout un tas de nouveautés de leur côté, avec parfois des intégrations intéressantes comme le Wi-Fi 7 par exemple. 

Pour en revenir aux processeurs testés ce jour, ils sont clairement calqués sur leurs équivalents de la treizième génération, mais avec quelques MHz de plus au compteur. En pratique, il s'agit surtout des fréquences atteintes en pointes, lors de sollicitations particulièrement intenses et durant dans le temps, il est bien difficile de différencier les 2 gammes en réalité.

Le Core i3-14100F est une référence d'entrée de gamme qui ne se démarque dans nos tests de son prédécesseur, qu'au bénéfice du changement de plateforme lui octroyant l'usage de DDR5 au lieu de DDR4. Ces références restent malgré tout peu intéressantes, car leur tarif est à notre sens bien trop proche (dans l'absolu pas en %) de celui de la gamme supérieure bien plus performante, justifiant dès lors aisément l'effort financier demandé pour passer à un Core i5 ou un concurrent équivalent. Pire, certaines références plus anciennes et toujours trouvables, disposent d'un meilleur tarif couplé à de meilleures performances que ces Core i3, décidément trop chers. 

En montant en gamme, le Core i5-14400F est un processeur bien plus capable avec ses 10 coeurs pour 16 threads. Certes il faudra débourser une centaine d'€uros supplémentaires, mais ils sont à notre sens amplement justifiés. Par contre, le Core i5-13400(F) propose peu ou prou les mêmes performances, difficile du coup de privilégier le nouveau venu s'il est plus cher. Le Core i5-12400F se contente de  6 coeurs / 12 threads, mais ses performances ne seront qu'une dizaine de pourcents moindre pour un tarif sensiblement moins cher. Cela s'entend toutefois si vous vous limitez au TDP, puisque la "libération" de ce dernier permet de tirer bien davantage des 13400/14400. Côté concurrence, le Ryzen 5 7500F est une option à ne pas négliger non plus vu son tarif très agressif.

Finissons avec le Core i5-14500. Pour à peine plus cher que le 14400 (avec l'IGP donc), il propose de doubler le nombre de coeurs efficients, passant ainsi à 20 threads. Cela se ressent tout de suite dans les applications les plus lourdes, et ce sera encore plus marqué si vous décidez de lui lâcher la bride côté puissance autorisée. C'est donc une option tout à fait pertinente à considérer si vous souhaiter accélérer sensiblement l'exécution de tâches très lourdes (si tant est que l'on ne trouve pas de 13500 moins cher). Un processeur bon à tout faire et qui restera gérable thermiquement même débridé et ce pour moins de 300 €. C'est finalement celui qui nous convainc le plus du trio, mais il correspondra davantage aux travailleurs qu'aux joueurs qui lui préféreront d'autres options plus pertinentes, sans qu'il démérite pour autant dans ce domaine.


Nous remercions naturellement nos partenaires pour la mise à disposition des éléments ayant permis la réalisation de ce dossier.

  •  

Test • Nvidia GeForce RTX 4080 SUPER : la même ou presque, en moins cher !

Par : Eric B.
31 janvier 2024 à 15:00

Après le lancement de la GeForce RTX 4070 SUPER il y a 15 j, suivi la semaine dernière par la GeForce RTX 4070 Ti SUPER, voici venu le tour de la dernière de la fratrie (et accessoirement la fin de ce marathon de tests). Cette nouvelle référence remplace purement et simplement la RTX 4080, qui va à l'instar de la RTX 4070 Ti, disparaitre des étales une fois les stocks écoulés. Il faut dire que cette référence était la mal aimée de la gamme RTX 40, avec un rapport performances/prix initial désastreux, puisqu'encore moins bon que celui de la RTX 4090. Un comble quand on sait à quel point les vaisseaux amiraux sont dénués de tout sens commun à ce niveau. La RTX 4080 SUPER s'appuie sur le même GPU que sa devancière, mais dans sa version intégrale à présent. Toutefois, les différences entre ces deux références sont ténues, si bien que son prix en baisse notable de 200 $, semble être son principal atout, ramenant la carte à 1109 € TTC en France. Quelles sont les différences pratiques entre ces deux cartes graphiques, que cela soit au niveau des performances comme des aspects environnementaux ? A ce tarif, la RTX 4080 SUPER devient-elle une option enfin intéressante ? Réponses à ces questions et bien d'autres au sein de ce dossier.


AD103

Pour ceux intéressés par la microarchitecture Ada Lovelace, nous vous renvoyons à la page que nous lui avons consacrée au sein de notre dossier récapitulant les performances des cartes de nouvelles générations. Pour la RTX 4080 SUPER, NVIDIA réutilise donc le GPU AD103, après son utilisation sur la RTX 4080 (non SUPER) et la toute fraîche RTX 4070 Ti SUPER. Cette fois, c'est la version intégrale qui est de sortie, même si finalement cela change peu de chose par rapport à la déclinaison utilisée originellement, dont 95 % des unités calcul présentes étaient déjà actives. Détaillons tout cela dans le tableau suivant.

AD103 RTX 4070 Ti SUPER RTX 4080 RTX 4080 SUPER
GPC 6 7 7
TPC / SM 33 / 66 38 / 76 40 / 80
FP32 8 448 9 728 10 240
TMU 264 304 320
Tensor Cores 264 304 320
RT Cores 66 76 80
ROP 96 112 112
L2 (Mo) 48 60 64
Bus mémoire (bits) 256 256 256

Diagramme AD103 complet

Diagramme d'AD103 complet

Le bus mémoire 256-bit ne change bien entendu pas et permet d'adresser facilement 16 Go de VRAM, une quantité adaptée à une telle carte. Le cache L2 est également intégralement activé à 64 Mo contre 60 Mo pour la RTX 4080 (- 6%). La limite de puissance électrique est également inchangée par rapport à sa devancière, à 285 W. Comme attendu, pas beaucoup de changements à noter, mais c'était inéluctable en conservant AD103. Voyons à présent sa mise en pratique en passant à la description de la carte à proprement parler cette fois.

GeForce RTX 4080 SUPER Founders Edition

NVIDIA propose cette fois un modèle FE pour cette référence (vous pouvez retrouver un modèle custom made by Gigabyte ici), cela nous a évité la valse des bios que nous avons connue pour la RTX 4070 Ti SUPER. Pour autant, tout ne s'est pas non plus passé comme attendu : suite à des intempéries en Amérique du Nord, notre exemplaire ne nous est parvenu que lundi après-midi. Autant vous dire qu'il n'a pas fallu chômé ces dernières 48 heures. Mais revenons à notre GeForce RTX 4080 SUPER, qui reprend trait pour trait la RTX 4080 FE, mais en optant pour un superbe noir intégral. Le refroidisseur est également partagé avec la RTX 4090 FE et il est toujours aussi monstrueux. Intronisé par la génération Ampere (RTX 30), le principe de fonctionnement à flux inversé lui donne une esthétique bien à part. On aime ou on déteste, mais il ne laisse pas indifférent.

La finition est toujours exemplaire, on a vraiment l'impression d'avoir affaire ici à un objet robuste et bien façonné. Vu le tarif demandé, c'est bien naturel me direz vous. La face avant est subdivisée en 4 sections, les radiateurs étants parcourus par des caloducs que l'on peut apercevoir à l'arrière, et permettant de diffuser plus efficacement au sein des ailettes la chaleur. Un ventilateur axial de 115 mm de diamètre est installé de manière traditionnelle. Il va pousser l'air vers la section de radiateur qu'il surplombe, le flux cheminant alors jusqu'aux équerres de fixation. Les 7 pales sont cerclées entre elles à leur extrémité ce qui permet d'améliorer leur rigidité et mieux orienter le flux d'air.

Nvidia GeForce RTX 4080 Founders Edition : face avant

La face avant de la GeForce RTX 4080 SUPER FE

La face arrière comprend un second ventilateur installé en sens opposé, puisqu'il va cette fois aspirer l'air au travers du radiateur, du fait de l'absence de PCB à cet endroit. Le reste de cette face est intégralement recouvert par des plaque de finitions en aluminium teintée empêchant le flux d'air du premier ventilateur de sortir par cette voie. La carte mesure 30,5 cm de long et dépasse de 3 cm en hauteur les équerres. Il faudra donc un boitier adapté pour accueillir cette dernière. Elle est également particulièrement lourde, puisque pas moins de 2135 grammes sont mesurés sur la balance. Il est donc conseillé d'opter pour un système de support optionnel afin de protéger votre port PCIe, sans hésiter à la démonter en cas de transport.

Nvidia GeForce RTX 4080 Founders Edition : face arrière

Et la face arrière

La carte vue de côté laisse apparaitre le connecteur d'alimentation à 12 + 4 broches capable de délivrer jusqu'à 600 W, même si le TGP de cette dernière se limite ici à 320 W. Nvidia fournit un adaptateur 3 x 8 pins vers ce connecteur dans la boite pour ceux ne disposant pas de câble natif 12VHPWR au niveau de leur bloc d'alimentation. La RTX 4080 SUPER FE ne se contente pas d'être longue, haute et lourde, elle est également très épaisse avec pas moins de 3 slots mobilisés.

Nvidia GeForce RTX 4080 Founders Edition : le connecteur d'alimentation

Le connecteur d'alimentation

La connectique vidéo, est identique à celle des autres FE, c'est à dire composée d'un port HDMI 2.1 complété par 3 Display Port 1.4. Les équerres de fixation sont largement ajourées pour permettre l'extraction du flux d'air, comme expliqué précédemment. Cela permet de limiter l'échauffement à l'intérieur du boitier, ce qui est une excellente chose.

Nvidia GeForce RTX 4080 Founders Edition : les connecteurs vidéo

La connectique vidéo

Poursuivons le descriptif de cette GeForce RTX 4080 SUPER FE, en vérifiant son comportement au travers de GPU-Z. Ce dernier a été mis à jour récemment et reconnait sans difficulté cette nouvelle carte à base d'AD103. On retrouve donc ici les 10 240 unités FP32, 320 TMU et 112 ROP d'un AD103 intégral. Les 16 Go de GDDR6X adressés en 256-bit, sont aussi correctement identifiés. Côté fréquence, la mémoire est cadencée à 1 438 MHz, soit 23 Gbps par broche. C'est pour l'heure la valeur la plus élevée pour une carte grand public, en attendant l'avènement de la GDDR7. Le GPU dispose d'une consigne de boost fixée à 2 550 MHz, soit la valeur de référence, comme on peut l'attendre d'une FE (exception faite des Turing originelles). GPU Boost 4.0 est toujours à la manœuvre, et c'est lui qui décidera des fréquences réellement appliquées. Voyons donc ce qu'il en est pour notre RTX 4080 SUPER.

GPU-Z de la Nvidia GeForce RTX 4080 Founders Edition

GPU-Z de la GeForce RTX 4080 SUPER FE

Au repos, GPU-Z reporte une fréquence de 210 MHz pour le GPU et 50,6 MHz pour la mémoire, soit des valeurs inchangées par rapport à la génération précédente et les autres RTX 40. En charge, notre carte passe brièvement à 2 850 MHz, avant de perdre successivement plusieurs bins (palier de 15 MHz) selon la charge qui lui est appliquée. Sous A Plague Tale: Requiem, nous mesurons une fréquence moyenne de 2 748 MHz soit + 7,8% par rapport à la valeur de consigne après 20 min de test. On est donc loin de ce que nous avions vécu lors des premiers tests de la 4070 Ti SUPER. Vous retrouverez plus de détails sur les fréquences au sein de la page qui leurs est consacrées.

Les fréquences de la Nvidia GeForce RTX 4080 Founders Edition

Les fréquences de fonctionnement de la GeForce RTX 4080 SUPER FE

C'est tout pour cette GeForce RTX 4080 SUPER, passons page suivante au protocole de test.


Protocole de test

Ce dossier visant à départager les cartes graphiques, nous tâchons de les mettre dans une situation limitant autant que possible les influences d’autres facteurs. Nous optons donc pour une configuration particulièrement musclée, avec un Core i9 de dernière génération (Raptor Lake Refresh). Nous désactivons l’Hyperthreading afin de privilégier la répétabilité des mesures et les performances, tout en conservant suffisamment de threads pour les moteurs 3D les plus gourmands à ce niveau. Enfin, nous activons le Resizable BAR dans le bios, afin de profiter de cette fonctionnalité pour les cartes le supportant. Nous couplons à ce processeur de la mémoire très véloce fournie par G.Skill, pour tirer parti au mieux de ce dernier.

• Hardware

Intel Core i9-14900K (HT Off)
ASUS MAXIMUS Z690 Hero
G.Skill Trident Z5 RGB [2 x 16 Go 7200@34-45-45-2T]
Western Digital Black SN850X - 1 To (OS) / Corsair MP 600 Core - 4 To (Jeux) / Western Digital Blue SN570 - 1 To (Applications pro)
BeQuiet ! Dark Power Pro 13 - 1300 W
Asus PG43UQ / MSI Optix NXGR253R

Asus Maximus Z690 Hero G.Skill Trident Z5 RGB Dark Power Pro 13 1300 W

Asus nous a également procuré un moniteur ROG Swift PG43UQ pour nos tests. Ce modèle UHD d’une diagonale élevée permet de mieux traquer les éventuels défauts ou optimisations par trop agressives des concepteurs de GPU, dans leurs tentatives pour pousser toujours plus loin les performances. L’Adaptive Sync est désactivée durant les mesures en jeu et nous utilisons une fréquence de rafraîchissement de 144 Hz en UHD. Nous utilisons également ponctuellement un second moniteur, le MSI Optix NXGR253R, pour mesurer la consommation au repos en multi-écrans, et ce dans de différentes conditions, y compris avec un rafraîchissement vertical très élevé (360 Hz). Nous réactivons également ponctuellement l'Adaptive Sync pour mesurer son effet lors de la consommation au repos des cartes.

Nous avons réuni pour ce test l'échantillon de cartes suivantes. Entre parenthèses, sont indiquées les fréquences GPU et mémoire maximales en MHz. Pour rappel, la fréquence GPU variera plus ou moins largement à la baisse, pour les cartes dotées d’un "boost" par rapport à cette valeur indiquée, selon la charge, température et/ou puissance électrique absorbée. Cette indication n’est donc là qu’à titre purement informatif et ne correspond pas à la fréquence réellement appliquée durant les tests.

AMD Radeon RX 6900 XT (2 532 / 1 988)
Gigabyte Radeon RX 7700 XT Gaming Pro (2738 / 2238)
Gigabyte Radeon RX 7800 XT Gaming Pro (2 738 / 2 238)
AMD Radeon RX 7900 XT Made By AMD (2 952 / 2 487)
AMD Radeon RX 7900 XTX Made By AMD (3 125 / 2 487)
NVIDIA GeForce RTX 3090 Founders Edition (2 025 / 1 219)
NVIDIA GeForce RTX 4070 Founders Edition (2 820 / 1 313)
NVIDIA GeForce RTX 4070 SUPER Founders Edition ( 2 820 / 1 313)
Gainward GeForce RTX 4070 Ti Phoenix (2 880 / 1 313)
MSI GeForce RTX 4070 Ti SUPER Ventus 3X (2 805 / 1 313)
NVIDIA GeForce RTX 4080 Founders Edition (2 805 / 1 400)
Nvidia GeForce RTX 4080 SUPER Founders Edition (2 850 /1 438) 
Nvidia GeForce RTX 4090 Founders Edition (2 745 / 1 313)

Il n'existe pas de Founders Edition pour la GeForce RTX 4070 Ti, nous avons donc utilisé notre Gainward Phoenix Golden Sample mise à jour avec un firmware respectant scrupuleusement les spécifications de référence et fournie par le constructeur (que nous remercions). Il en est de même pour la version SUPER, nous utilisons dans le modèle de MSI respectant également les spécifications de référence. De quoi représenter ces références dans nos différents tests, sans biais lié à un quelconque overclocking de série. Les températures et nuisances sonores sont par contre spécifiques à ces modèles. N'ayant pas de Radeon RX 7800 XT MBA à disposition et un tel modèle n'existant tout simplement pas pour la 7700 XT, Gigabyte nous a procuré ses versions customs pour les représenter. Ces dernières sont toutefois overclockées tout en disposant d'une limite de puissance nettement plus élevée, leur permettant d'être plus rapides que des modèles de référence. En l'absence d'outil Ad Hoc pour flasher ces références avec des BIOS adéquats, nous avons ramené leurs limites de puissance respectives aux valeurs de référence, soit 245 W pour la 7700 XT et 263 W pour la 7800 XT. Sans en faire totalement des cartes de référence, cela permettra une comparaison plus équitable avec les autres modèles de référence.

• Software

  • Windows 11 Pro 23H2
  • AMD Adrenalin 23.12.1
  • NVIDIA 546.52 / 551.22 (RTX 4070 Ti SUPER / RTX 4080 SUPER)
  • Intel 101.5122

Nous utilisons Windows 11, ce qui implique nécessairement une version 64-bit afin d’exploiter une quantité conséquente de mémoire vive et ne pas limiter les jeux qui en auraient besoin à ce niveau. Les dernières mises à jour de l’OS sont bien sûr installées avant de procéder aux séries de tests des cartes graphiques : pas d’évolution logicielle (jeux/OS/applications) -hormis les pilotes graphiques bien entendu- entre toutes les cartes composant l’échantillon retenu. Côté pilotes, nous utilisons les derniers disponibles au moment des mesures. Les réglages par défaut sont utilisés pour tous les constructeurs, les captures d'écran ci-dessous détaillent cela.

A noter que le pilote presse fourni par Nvidia pour la RTX 4070 SUPER ne supporte ni les 4070 Ti SUPER & 4080 SUPER, nous obligeant à différencier ces dernières des autres GeForce, puisqu'il nous était impossible de tout retester avec le nouveau pilote dans l'intervalle. Nous avons toutefois réalisé quelques tests avec d'autres cartes pour nous assurer qu'il n'y avait pas de changement significatif sur notre échantillon de test (à fortiori lorsqu'il y a un changement de branche comme ici).

Réglages pilotes Nvidia

Réglages par défaut des pilotes GeForce

Ci-dessous les réglages par défaut des Radeon :

Pilotes AMD 23.x.x

Réglages par défaut des pilotes Radeon

Et enfin ceux d'Intel :

Réglages pilotes Intel

Réglages par défaut des pilotes ARC

• Protocole

Concernant les différents benchmarks / logiciels utilisés, nous exécutons ces derniers au minimum 3 fois et retenons le meilleur score de la série. Pour les performances en jeu, les résultats ont été obtenus via Frameview 1.5.9611.33638487 (une interface graphique pour PresentMon ajoutant des données de monitoring) sur un déplacement reproductible, et correspondent à la moyenne de 3 "passes" minimum. La température de la pièce est maintenue à 20°C durant tous les tests.

L’échantillon de test est composé au total de 23 jeux, ils utilisent tous un moteur 3D différent, afin de mesurer l’efficacité de nos cartes dans de nombreuses situations réellement différenciées. Cela nous permet de vous proposer les résultats obtenus pour 20 jeux en rastérisation et 18 utilisant le Ray Tracing. Nous essayons de suivre l’actualité vidéoludique en remplaçant régulièrement des références par de nouvelles, tout en nous assurant que les titres choisis conviennent à cet exercice (répétabilité, absence de limitation ou biais, etc.). Nous avons retenu les définitions 2560 x 1440 (QHD) et 3840 x 2160 (UHD) qui siéent aux cartes testées. Notons tout de même que les tests en UHD et Ray Tracing actif, sont réalisés avec l'apport des technologies d'upscaling et Frame Generation (si l'option est présente) disponibles, car la charge est trop lourde pour la grande majorité des cartes. Les différents niveaux de qualité sélectionnés sont quant à eux précisés au sein des graphiques.


Spécifications

Avant d'aborder les spécifications des différentes cartes lancées, un mot rapide sur les GPU et procédés de fabrication associés. Commençons par le cas le plus simple, à savoir Intel qui se contente pour l'heure de 2 GPU : l'ACM-G10 pour les solutions moyen de gamme et performance (ARC A770/750 et théoriquement A5xx que nous n'avons jamais vues) et l'ACM-G11 pour l'entrée de gamme (ARC A3xx). Intel est un fondeur, mais plutôt que de faire appel à ses propres capacités de production, il sous-traite la gravure de ces 2 puces à TSMC via son procédé de fabrication N6, une optimisation du nœud 7 nm. Clairement dépassé en termes de densité ou de performance par le 5 nm (et maintenant 3 nm) du géant taïwanais des semiconducteurs, ce procédé de fabrication à l'avantage d'être bien moins cher. ACM-G10 est une puce plutôt conséquente, avec un peu plus de 400 mm² de surface et pas moins de 21,7 milliards de transistors. Son petit frère se contente de 157 mm² pour 7 milliards de transistors.

NVIDIA de son côté a fait un choix totalement différent, en basculant l'intégralité de sa gamme sur le 4N de TSMC, une déclinaison "personnalisée" du très performant 5 nm. Pas moins de 5 GPU différents ont été conçus, allant d'AD102 intégrant plus de 76 milliards de transistors sur une superficie de 608 mm² et animant la RTX 4090, au petit AD107 se contentant de 159 mm² pour presque 19 milliards et affecté cette fois à la RTX 4060. Entre ces 2 extrêmes, se trouvent les puces AD103 (RTX 4070 Ti SUPER / RTX 4080 / RTX 4080 SUPER), AD104 (RTX 4070 Ti / RTX 4070 / RTX 4070 SUPER) et AD106 (RTX 4060 Ti) par ordre décroissant de superficie et complexité. Ces 5 références monopolisent le haut du classement en matière de densité de transistors par mm², multipliant pratiquement par trois cette valeur en comparaison du précédent N8 de Samsung utilisé par la génération Ampere (RTX 30). Il existe donc une différence très conséquente entre ces 2 nœuds de gravure, et ce contrairement à ce que laisseraient penser leurs nomenclatures commerciales respectives. Le N8 est en fait une optimisation du node 10nm, NVIDIA "enjambant" donc le 7 nm pour passer directement au 5 nm, soit un saut de 2 générations.

AMD a lui opté pour un "en même temps" au moyen de chiplets, une stratégie que ne renierait pas un homme politique français, ayant été élu à deux reprises à la magistrature suprême. Le N5 de TSMC est donc dévolu aux GCD, alors que les MCD doivent de leur côté se contenter du N6, tout comme Navi 33. Ce dernier, purement monolithique, mesure 204 mm² pour 13,3 milliards de transistors et se charge d'animer les RX 7600 et RX 7600 XT. À l'autre bout de la gamme, les 6 MCD plus le GCD d'un Navi 31 complet occupent une superficie totale de presque 530 mm², pour 57,7 milliards de transistors. La densité est donc légèrement moindre que sur les puces intégralement en 4N du caméléon, mais finalement pas si éloignée malgré le mix des nœuds de gravure. Cela tendrait à corroborer l'assertion d'AMD quant aux faibles gains (en densité au moins) à attendre d'une gravure plus fine pour certains éléments constitutifs d'un GPU. Les RX 7900 XTX / 7900 XT et 7900 GRE emploient un tel GPU. Enfin, Navi 32 des RX 7700 XT et 7800 XT couple un GCD de 200 mm² gravé en 5 nm, à 4 MCD gravés en 6 nm par TSMC. La partie logique étant fortement réduite sur ce nouveau GCD, la densité va finalement se positionner entre celle de Navi 33 et Navi 31.

GPU
Process
Nombre de transistors Superficie die Densité (Millions de transistors par mm²)
AD102 4N TSMC 76,3 milliards 608,5 mm² 125,4
AD106 4N TSMC 22,9 milliards 187,8 mm² 121,9
AD104 4N TSMC 35,8 milliards 294,5 mm² 121,6
AD103 4N TSMC 45,9 milliards 378,6 mm² 121,2
AD107 4N TSMC 18,9 milliards 158,7 mm² 119,1
Navi 31 N5 + N6 TSMC 57,7 milliards 529,5 mm² 109
Navi 32 N5 + N6 TSMC 28,1 milliards 350 mm² 80,3
GA100 7N TSMC 54.2 milliards 826 mm² 65,6
Navi 33 N6 TSMC 13,3 milliards 204 mm² 65,2
ACM-G10 N6 TSMC 21,7 milliards 406 mm² 53,4
Navi 21 N7P TSMC 26,8 milliards 520 mm² 51,6
Navi 22 N7P TSMC 17,2 milliards 335 mm² 51,3
Navi 24 N6 TSMC 5,4 milliards 107 mm² 50,5
Navi 23 N7P TSMC 11,1 milliards 237 mm² 46,8
ACM-G11 N6 TSMC 7,2 milliards 157 mm² 45,9
GA102 8N Samsung 28,3 milliards 628,4 mm² 45
GA104 8N Samsung 17,4 milliards 392 mm² 44,4
GA106 8N Samsung 12 milliards 276 mm² 43,5
Navi 10 N7P TSMC 10,3 milliards 251 mm² 41
Vega 20 N7FF TSMC 13.2 milliards 331 mm² 39,9
GP102 16FFC TSMC 12 milliards 471 mm² 25,5
Vega 10 14LPP GF 12.5 milliards 495 mm² 25,3
GP100 16FFC TSMC 15,3 milliards 610 mm² 25,1
TU104 12FFC TSMC 13,6 milliards 545 mm² 25
TU102 12FFC TSMC 18,6 milliards 754 mm² 24,7
TU106 12FFC TSMC 10,8 milliards 445 mm² 24,3

Détaillons à présent les caractéristiques des cartes employant ces GPU en comparaison d’un certain nombre de cartes des segments performance, haut de gamme, et enthusiast, des générations actuelle et précédentes.

Cartes GPU Fréq. Boost GPU (MHz) Fréq. Mémoire (MHz)

SP
/
CC

ALU FP32 ROP VRAM (Go) Bus mem. (bits) Calcul SP (Tflops) Bande Passante mémoire (Go/s) TGP (W)
RX Vega56 Vega 10 1 471 800 3 584 3 584 64 8 2 048 10,5 410 210
RX Vega64 Vega 10 1 546 946 4 096 4 096 64 8 2 048 12,7 484 295
Radeon VII Vega 20 1 750 1 000 3 840 3 840 64 16 4 096 13,4 1 024 300
RX 5700 Navi 10 1 725 1 750 2 304 2 304 64 8 256 7,9 448 180
RX 5700 XT Navi 10 1 905 1 750 2 560 2 560 64 8 256 9,8 448 225
RX 6700 Navi 22 2 174 1 988 2 304 2 304 64 10 160 10 318 175
RX 6700 XT Navi 22 2 424 1 988 2 560 2 560 64 12 192 12,4 382 230
RX 6750 XT Navi 22 2 495 2 238 2 560 2 560 64 12 192 12,8 430 250
RX 6800 Navi 21 1 815 1 988 3 840 3 840 96 16 256 13,9 509 250
RX 6800 XT Navi 21 2 015 1 988 4 608 4 608 128 16 256 18,6 509 300
RX 6900 XT Navi 21 2 015 1 988 5 120 5 120 128 16 256 20,6 509 300
RX 6950 XT Navi 21 2 100 2 238 5 120 5 120 128 16 256 21,5 573 335
RX 7700 XT Navi 32 2 544 2 238 3 456 6 912 96 12 192 35,2 430 245
RX 7800 XT Navi 32 2 430 2 425 3 840 7 680 96 16 256 37,3 621 263
RX 7900 GRE Navi 31 2 245 2 238 5 120 10 240 192 16 256 46,0 573 260
RX 7900 XT Navi 31 2 400 2 487 5 376 10 752 192 20 320 51,6 796 315
RX 7900 XTX Navi 31 2 500 2 487 6 144 12 288 192 24 384 61,4 955 355
ARC A750 ACM-G10 2 400 2 000 3 584 3 584 112 8 256 17,2 512 225
ARC A770 ACM-G10 2 400 2 000 / 2 188 4 096 4 096 128 8 / 16 256 19,7 512 / 560 225
GTX 1070 GP104 1 683 2 002 1 920 1 920 64 8 256 6,5 256 150
GTX 1070 Ti GP104 1 683 2 002 2 432 2 432 64 8 256 8,2 256 180
GTX 1080 GP104 1 733 1 251 2 560 2 560 64 8 256 8,9 320 180
GTX 1080 Ti GP102 1 582 1 376 3 584 3 584 88 11 352 11,3 484 250
RTX 2070 TU106 1 620 1 750 2 304 2 304 64 8 256 7,5 448 175
RTX 2070 SUPER TU104 1 770 1 750 2 560 2 560 64 8 256 9,1 448 215
RTX 2080 TU104 1 710 1 750 2 944 2 944 64 8 256 10,1 448 215
RTX 2080 SUPER TU104 1 815 1 938 3 072 3 072 64 8 256 11,2 496 250
RTX 2080 Ti TU102 1 545 1 750 4 352 4 352 88 11 352 13,5 616 250
RTX 3070 GA104 1 725 1 750 2 944 5 888 96 8 256 20,3 448 220
RTX 3070 Ti GA104 1 770 1 188 3 077 6 144 96 8 256 21,7 608 290
RTX 3080 GA102 1 710 1 188 4 352 8 704 96 10 320 29,8 760 320
RTX 3080 12 Go GA102 1 710 1 188 4 480 8 960 96 12 384 30,6 912 350
RTX 3080 Ti GA102 1 665 1 188 5 120 10 240 112 12 384 34,1 912 350
RTX 3090 GA102 1 695 1 219 5 248 10 496 112 24 384 35,6 936 350
RTX 3090 Ti GA102 1 860 1 313 5 376 10 752 112 24 384 40 1 008 450
RTX 4070 AD104 2 475 1 313 2 944 5 888 64 12 192 29,1 504 200
RTX 4070 SUPER AD104 2 475 1 313 3 584 7 168 80 12 192 35,5 504 220
RTX 4070 Ti AD104 2 610 1 313 3 840 7 680 80 12 192 40,1 504 285
RTX 4070 Ti SUPER AD103 2 610 1 313 4 224 8 448 96 16 256 44,1 672 285
RTX 4080 AD103 2 505 1 400 4 864 9 728 112 16 256 48,7 717 320
RTX 4080 SUPER AD103 2 550 1 438 5 120 10 240 112 16 256 52,2 736 320
RTX 4090 AD102 2 520 1 313 8 192 16 384 176 24 384 82,6 1 008 450

Rappelons qu'il est très difficile d'inférer les performances pratiques d'une carte graphique sur la seule base des valeurs brutes annoncées. Plusieurs raisons à cela, dont les fréquences réellement appliquées (qui diffèrent plus ou moins largement de celles officielles comme vous le verrez page suivante), mais aussi les subtilités architecturales quant aux conditions d'exécution de certaines unités ou l'impact par exemple des larges caches sur la bande passante mémoire effective. Toujours est-il que la RTX 4080 SUPER dispose d'un avantage de 7 % en puissance de calcul théorique par rapport à la RTX 4080.

Autant dire qu'on ne va pas aller loin à ce niveau, d'autant que ce n'est valable que si les fréquences réellement appliquées de part et d'autres sont celles officielles, ce qui n'est pour ainsi dire, jamais le cas. Côté bande passante mémoire, le gain se limite à 2,6 %, pas de quoi casser trois pattes à un canard.  Le cache L2 est par contre 6,7 % plus large, mais il est très difficile de définir à quel degré cela pourra aider la nouvelle venue. En effet, si les données requises sont présentes en cache, alors le GPU profite du débit de ce dernier, comme explicité ci-dessous. 4 Mo de plus changent-ils vraiment la donne pour autant ?

Impact du cache L2 sur les générations précédant AdaImpact du cache L2 sur la génération Ada

L'impact du cache L2 sur les besoins en accès mémoire

Mettons donc à l'épreuve les valeurs théoriques en exécutant quelques tests synthétiques de bas niveau.

Tests synthétiques

Nous utilisons la suite de tests Geeks 3D pour estimer les performances synthétiques de la nouvelle venue, lors de l’exécution de certaines tâches particulières. Ainsi, PixMark Julia FP32 permet de mesurer la puissance de calcul brute en simple précision (FP32) et le fillrate qui en découle. Il dépend donc à la fois des unités de calcul et des ROP. Le test GiMark, s’attache de son côté à évaluer les performances de nos cartes au niveau de la géométrie (génération de primitives 3D). Enfin, TessMark permet de son côté de mesurer les capacités en tessellation des différentes cartes. Ces tests étant relativement brefs et spécifiques (n’utilisant donc qu’une partie des ressources totales des GPU), ils permettent aux modèles limités par leur température et/ou puissance électrique maximale autorisée, de conserver des fréquences plus élevées que lors d’une session de jeu par exemple.

En matière de puissance de calcul brute, la RTX 4080 SUPER prend un avantage de 5 % par rapport à la 4080, soit un peu moins que l'attendu. En termes de géométrie, c'est encore pire puisque les 2 cartes finissent dans la marge d'erreur du test. On retrouve toujours le comportement erratique d'AD103 sur ce test, puisque à l'image des RTX 4080 et RTX 4070 Ti, la nouvelle-née sous-performe elle aussi, sans qu'aucune raison logique puisse expliquer ce fait. Finissons par la tesselation, qui renvoie un écart de 3 % entre les deux 4080. Pour sûr, ces deux là sont proches comme on pouvait s'y attendre à la seule lecture de leurs caractéristiques respectives. Gardez également à l'esprit que ces tests utilisent des scènes avec des charges très spécifiques ne correspondant pas vraiment à l'usage typique d'un rendu 3D. Qui plus est, ils s'appuient sur OpenGL, une API commençant à dater.

bf5318a438a646a92b7de83ee76a058f

Passons à présent à des tests synthétiques issus de 3DMark, en s’attachant à vérifier les capacités des cartes graphiques pour diverses fonctionnalités. DXR, au nom explicite, sollicite de manière intensive les capacités d’accélération du Ray Tracing par le GPU, au travers de l’API de Microsoft. La nouvelle venue termine 5 % devant la RTX 4080 "vanilla", à nouveau un écart très faible. Mesh Shader évalue la capacité de traitement de ces derniers par les GPU modernes. Le test permet de comparer les performances avec et sans Mesh Shaders actifs, mais cette représentation ne permet pas une comparaison pertinente entre cartes. Nous affichons donc les performances de chaque référence avec Mesh Shaders actifs. La RTX 4080 SUPER fait la grimace, puisqu'elle s'incline face à la RTX 4080 et ce malgré la multiplication des passes. On reste dans la marge d'erreur du test malgré tout.

Le test PCIe confirme l'emploi de 16 lignes Gen 4 sur la nouvelle-née, sans surprise. Le test Sampler Feedback mesure de son côté l’impact de cette fonctionnalité introduite (comme la plupart des autres) par les cartes Turing. L'écart entre les deux références est encore très réduit, puisque nous ne mesurons que 3 %. Enfin, le test VRS, abréviation de Variable Rate Shading, permet de mesurer le gain apporté par cette fonctionnalité lorsqu’elle est activée. Là aussi, il s'agit d'une comparaison entre 2 passes, nous préférons donc reporter ici le score atteint par chaque carte une fois la fonctionnalité activée, permettant ainsi une comparaison brute entre elles. La 4080 SUPER prend cette fois 4 % d'avance, youpi. Plaisanterie à part, ces mesures montrent à quel point les deux cartes sont proches en termes de caractéristiques, le différentiel de performance est alors très sensible à la précision et répétabilité du test.

7ea9e8bc2b03150fef74d6218faf8a31

Voilà pour les spécifications des différentes cartes et leurs performances synthétiques, passons page suivante à l'analyse des fréquences en jeu de la nouvelle venue.


Fréquences en jeu

Afin de tirer le maximum de leurs cartes, les concepteurs de GPU utilisent une technique de boost consistant à s’affranchir des marges de sécurité, normalement dévolues aux variations de l’environnement de fonctionnement. Ainsi, le GPU est calibré pour donner son maximum par défaut (variable selon la qualité du silicium), mais des limites vont lui être appliquées en matière de puissance électrique absorbée et de température de fonctionnement maximale. Il s'agit des garde-fous, qui vont s’assurer que le GPU reste dans des plages de fonctionnement compatibles avec sa fiabilité, en jouant sur la courbe fréquence/tension appliquée à ce dernier. Nous enregistrons donc la fréquence de fonctionnement du GPU en tâche de fond sous forte charge (A Plague Tale: Requiem en UHD), et ce durant 20 min.

Alors comment se comporte la GeForce RTX 4080 SUPER ? Comme la plupart des cartes modernes, sa courbe de puissance électrique absorbée est une ligne horizontale oscillante, attestant que la carte va absorber dans ces conditions, l'intégralité de son enveloppe de puissance électrique autorisée, ou pas bien loin. Après une pointe à 2 850 MHz, la fréquence va rapidement chuter par paliers, avant de se stabiliser aux alentours de 2 745 MHz et osciller autour de cette valeur. Au bout des 20 min du test, la fréquence moyenne mesurée est de 2 748 MHz. Si on fait abstraction de la MSI RTX 4070 Ti SUPER de MSI et de son bios original, la nouvelle venue ne déroge pas à la coutume des cartes Ada, outrepassant systématiquement leur consigne de boost.

c4bacfc0098a206c5f7e15f7ee8ddea1

Puisqu'il s’agit ici d’une situation particulièrement intense, avec une scène finale très gourmande et maintenue de longues minutes, nous vous proposons également pour une vue plus exhaustive du sujet, le tableau suivant regroupant les valeurs de fréquences moyennes minimales (du GPU) mesurées durant les séquences de test en UHD. Ces dernières, bien que plus courtes (généralement entre une à cinq minutes selon le titre), permettent de se faire une idée du comportement de la carte lors de sollicitations d'intensité variable.

Fréquence moyenne du GPU (MHz) GeForce RTX 4080 SUPER FE
A Plague Tale : Requiem 2 772
Alan Wake II 2 811
Assassin's Creed Mirage 2 820
Avatar: Frontiers of Pandora 2 805
Cyberpunk 2077 2 815
Dead Space 2 820
Doom Eternal 2 733
Dying Light 2 2 820
Elden Ring 2 820
F1 23 2 784
Forspoken

2 816

Forza Motorsport 2 820
Ghostrunner II 2 761
Hitman III 2 820
Lord of the Fallen 2 820
Metro Exodus Enhanced Edition 2 739
Ratchet & Clank : Rift Apart 2 808
Red Dead Redemption 2 2 809
Resident Evil 4 2 805
Starfield 2 817
Total War : Pharaoh 2 820
Warhammer 40,000: Darktide 2 791
Watch Dogs : Legion 2 717
Moyenne 2 802

La moyenne obtenue est cette fois de 2 802 MHz. On notera tout de même que l'amplitude des variations entre les titres est très faible, puisque la valeur minimale est obtenue sous Doom Eternal avec 2 733 MHz, quand le maximum atteint est de 2 820 MHz (à plusieurs reprises).

Overclocking

Nvidia autorise 10 % supplémentaires au niveau de la limite de puissance de cette carte. Nous poussons donc le curseur au maximum et appliquons un Offset sur les fréquences GPU et mémoire. Nous utilisons naturellement OC Scanner pour valider la stabilité de la première citée tout au long de la courbe fréquence / tension. Nous parvenons ainsi à augmenter de 5,2 % la fréquence moyenne du GPU durant notre séquence sur A Plague Tale: Requiem, à 2 917 MHz. La GDDR6X progresse de son côté de 7,5 %.

Nvidia GeForce RTX 4080 Founders Edition : overclocking

La GeForce RTX 4080 SUPER Founders Edition surcadencée

Que gagne-t-on à pousser ainsi la carte ? Toujours sur notre même séquence, les performances progressent d'un peu moins de 6 % pour une consommation augmentant de  30 W (+ 9,2%). Les nuisances sonores ne varient pratiquement pas puisque nous avons relâché la température de 3°C, vu la marge disponible à ce niveau. Voilà pour la partie fréquences de ce dossier, il est temps à présent de passer aux performances ludiques mesurées page suivante.


Performances ludiques en rastérisation

Comme lors de nos précédents dossiers, nous affichons la valeur 1% Low (les "1% d'images par seconde les plus faibles") en sus de la moyenne. Notez tout de même que cette valeur est bien moins répétable que la moyenne, puisque l'échantillon de valeurs est réduit au centième. De ce fait, il est plus sensible à des anomalies pouvant survenir (tâches se lançant en fond, etc.). Il faudrait pour fiabiliser cela, augmenter significativement le nombre de "passes de tests" (nous en réalisons systématiquement trois), ce qui n'est pas compatible avec les délais de réalisation d'un dossier tel que celui-ci. Gardez donc ce point à l'esprit lors de la comparaison de ces valeurs entre elles, un lecteur averti en valant deux. Pour la même raison, nous n'affichons pas les décimales de cette série afin d'en faciliter la lecture, puisqu'un tel niveau de précision n'a pas beaucoup de sens du coup.

Comment se positionne donc la RTX 4080 SUPER au sein de l'échantillon de tests, en commençant par les jeux en QHD et rastérisation ? Les tests synthétiques avaient donné la tendance, les jeux la confirme. Elle va systématiquement devancer la 4080, mais avec des écarts variant entre 4 % maximum et presque rien... Elle va donc se confronter régulièrement à la RX 7900 XTX, alternant avantage ou retard selon les moteurs de jeux.

4e29359a66ec3c768b8ead8fa3a17fcf

Monter en définition change-t-il la donne ? Si les écarts sont en général un peu plus élevés, on reste dans le même ordre de grandeur avec une plage variant de 1 à 5 %. De ce fait, elle résiste davantage à la RX 7900 XTX dans cette définition, alors que cette dernière avait tendance à créer un petit écart face à la RTX 4080 "vanilla". On ne va pas se mentir, en pratique et sauf cas très spécifique, il est bien difficile de parvenir à différencier ces trois là en termes d'expérience de jeu en rastérisation pure.

a9d27fb69d8bc967abb8b39068b6cf79

Performances ludiques en ray Tracing

En activant le Ray Tracing au niveau de détail maximum (à l'exception des modes Psycho de Cyberpunk 2077 et Unobtanium d'Avatar), y compris le Path Tracing pour les jeux le supportant, la RTX 4080 SUPER ne se différencie pas vraiment plus de sa devancière, hormis pour Avatar (8 %).  Il en va par contre bien différemment face à la RX 7900 XTX, puisque ce mode de rendu est le talon d'Achille des rouges. Si cette dernière parvient à se rebiffer lorsque la prise en charge du RT est très limitée, c'est une toute autre affaire lorsque l'on active le Path Tracing par exemple.

6047211fff9cfd8e30023ed3f5c286c1

Ces cartes étant trop justes pour activer le Ray Tracing en UHD nativement (hormis la RTX 4090 et encore pas dans tous les jeux), nous activons simultanément (hormis pour Elden Ring n'en disposant pas et Metro Exodus EE ne proposant que le DLSS) les technologies d'upscaling disponibles dans les jeux (la meilleure pour chaque constructeur) en mode qualité, ainsi que le Frame Generation lorsque ce dernier est implémenté. À ce petit jeu, la présence largement plus répandue du DLSS 3 par rapport au FSR 3 (qui plus est utilisable sur les concurrentes alors que l'inverse n'est pas vrai), donne aux verts un avantage considérable, alors qu'ils n'en ont déjà pas vraiment besoin en Ray Tracing. À noter qu'ils serait possible d'utiliser le Fluid Motion Frames, mais du fait de son implémentation au sein même des pilotes le privant de l'accès aux vecteurs de mouvement du moteur 3D, AMD est obligé de le désactiver dés que des mouvement brusques se produisent, entraînant un yoyo du framerate. De ce fait, l'expérience de jeu n'est en rien comparable avec celle obtenue via le FSR 3 ou DLSS3, expliquant notre choix de ne pas l'utiliser. Lorsque le FSR n'est pas disponible dans un jeu, nous utilisons l'upscaling propriétaire du jeu, avec une mise à l'échelle similaire à celle du mode qualité du FSR. Le DLSS a plutôt tendance a lissé les écarts entre les deux RTX 4080, même si la SUPER conserve l'avantage avec des écarts pouvant atteindre 5 % en pointe. les Radeon ne profitant de Frame Generation qu'au sein de deux titres, elles sont mécaniquement désavantagées dans ces conditions, accroissant les écarts en faveur de la nouvelle venue face à sa concurrente.

62b4bdd0acfb311987317c9fdbe89eb4

Voilà pour les prestations ludiques, récapitulons tout cela page suivante.


Indices de performance

Le résultat de chaque test est plus important et judicieux qu'un indice global, mais ce dernier permet d'établir une hiérarchie facilement compréhensible, aussi imparfaite soit-elle. Voyons donc comment se comporte la nouvelle venue : nous avons réalisé pour cela des indices pour chaque carte en appliquant une pondération identique pour chaque jeu et en attribuant la valeur 100 à la RTX 4070 FE.

Sur notre indice rastérisation à 20 jeux, la RTX 4080 SUPER devance celle qu'elle remplace de 2,5 % en QHD. L'avantage passe à 2,8 % en montant en définition. Clairement les prestations sont du même ordre et ne change absolument rien à l'expérience de jeu. Acquéreur de la première RTX 4080 à prix d'or vous pouvez souffler, la nouvelle venue ne vous toisera pas du haut de ses performances. La 7900 XTX finissait un rien devant le modèle originel, la RTX 4080 SUPER rééquilibre totalement les débats.

Si on s'intéresse cette fois aux performances en Ray Tracing, les écarts entre les deux RTX 4080 sont de 3,1 % en QHD et 2,6 % en UHD upscalée. La conclusion précédente reste de mise ici aussi. Par contre la RX 7900 XTX ne boxe plus du tout dans la même catégorie, puisqu'elle cède 27 % à la nouvelle-née des verts sans aucune technologie de mise à l'échelle ou de génération d'images. En utilisant ces dernières pour monter en définition, l'écart croît encore davantage à 42 %, du fait du différentiel d'adoption des DLSS 3 et FSR 3 sur notre échantillon de jeux.

50922edbdfe0ca0be3d4a4d8002bbc08

Pour tâcher de mettre en évidence l'impact d'activation du RT, nous comparons les performances pour chaque jeu testé dans les 2 modes de rendu. Ce graphique n'est en fait que la traduction du rapport de force actuel pour ce rendu entre les marques. NVIDIA domine donc, suivi d'Intel et enfin d'AMD. RDNA 3 apporte des gains (la 7700 XT est pénalisée du fait de sa contreperformance sous Alan Wake II) indéniables, mais insuffisants pour revenir à niveau ne serait-ce que des bleus (pour leur première tentative). Bien sûr, on parle ici d'impact et une Radeon bien plus rapide en rastérisation qu'une carte d'Intel ou NVIDIA, restera devant ces dernières la plupart du temps après activation du Ray Tracing (c'est moins vrai pour le Path Tracing).

À noter que le graphique UHD est particulier, puisqu'il compare les performances en UHD et rastérisation sans upscaling, avec celles obtenues en RT mais avec l'appui des DLSS et FSR (y compris le FG lorsque disponible) pour atteindre la définition sélectionnée. Cela montre que du côté des rouges, on arrive via ces techniques à limiter l'impact moyen à un quinzaine de pourcents, 6 % pour les bleus, quant aux cartes vertes, elles permettent de profiter des effets RT et de performances en hausse (merci aussi au Frame Generation plus largement déployé). A nouveau les deux RTX 4080 sont inséparables.

81969ddaa206bbddef4b2a509c5f331d

Benchmark

Nous utilisons le test Time Spy Extreme dédié à DX12 en UHD dans 3DMark et nous reportons le score Graphic du test. Nous avons également inclus Port Royal et Relic of Life du fait du support du Ray Tracing sur les dernières Radeon et ARC, en sus des GeForce récentes. Speed Way fait également partie de nos mesures, s'appuyant sur DX12 Ultimate : il fait usage de toutes les fonctionnalités possibles via cette API, incluant le RT, les Mesh Shaders, VRS et autres. Pour finir, nous ajoutons deux tests dédiés à la réalité virtuelle par le biais de VR Mark. Les résultats des différents benchmarks ne changent pas la donne comme on pouvait s'y attendre. A noter tout de même que cette branche 551 des pilotes Nvidia semble repousser la limitation CPU sous VR Mark.

29552e019676b69ded3df5a6a132246f

Voilà pour cette partie performance, passons aux mesures environnementales page suivante.


Nuisances sonores

Nous positionnons le sonomètre à 30 cm de la carte graphique, légèrement plus haut que cette dernière. Afin de limiter au maximum les nuisances externes aux cartes, nous coupons temporairement pendant la mesure, les ventilateurs du CPU. Nous utilisons un sonomètre Casella Tech CEL-620A1, certifié et calibré pour une plage de mesures comprises entre 20 et 140 dB(A).


Au repos, toutes les cartes coupent leur ventilation, les rendant alors totalement inaudibles, une très bonne chose ! En jeu, les 4080 FE partageant beaucoup de chose (refroidisseur, TGP), il est pratiquement impossible de les différencier à ce niveau.

5b99f97e44b33ec8b8f2926d880c0fb2

Températures

Nous utilisons les sondes internes monitorées via GPU-Z en tâche de fond, et ce durant 20 min de charge GPU sévère, avant de relever la température des processeurs graphiques. Nous laissons ensuite les cartes au repos durant 20 min, avant de relever à nouveau la température des GPU. Au repos, toutes les cartes s’en sortent correctement, et ce malgré un fonctionnement passif. En charge, les deux RTX 4080 utilisant le même dissipateur et ayant une limite de puissance identique, elles vont se comporter de manière très similaire.

612cb34b0ad3232aed2f93ce0d237830

Imagerie thermique

Pour préciser notre avis quant à l’efficacité thermique du refroidisseur de la carte évaluée ce jour, rien de mieux qu’une petite séance d’imagerie infrarouge à l’aide de notre caméra thermique Fluke Ti110.

Comment s'en sort la RTX 4080 SUPER FE à ce niveau ? Rien à signaler au repos, avec une température parfaitement maitrisée malgré l'absence de ventilation. En charge, la température progresse vers les 45/46°C au niveau du carénage qui empêche tout lecture direct du PCB, hormis à proximité du port PCIe. Le point chaud mesuré ici est un peu en-deçà des 54°C. Ce refroidisseur très massif montre ici son utilité en limitant l'échauffement à un niveau très correct pour une carte haut de gamme.

La GeForce RTX 4080 Founders Edition au repos La GeForce RTX 4080 Founders Edition en charge

Images thermiques de la GeForce RTX 4080 SUPER (au repos et en charge)

Poursuivons nos mesures par la consommation en charge des cartes testées.


Consommation des cartes

Pour déterminer la consommation électrique des cartes graphiques (seules), nous utilisons PCAT, un kit composé d’un riser PCIe connecté à un module s’intercalant entre le bloc d’alimentation et la carte graphique. Toutes les sources de puissance sont donc enregistrées au travers d’un petit logiciel via une connexion USB. Par mesure de sécurité, nous contrôlons certaines mesures de manière aléatoire, via notre précédent kit (riser + pinces ampèremétriques), pour nous assurer de la fiabilité des données remontées.

Consommation au repos

Nous avons multiplié les situations afin de vérifier le comportement des cartes au repos selon le nombre d'écrans utilisés et leur type. Avec une fréquence de rafraichissement vertical à 60 Hz, c'est plutôt serré entre Radeon et GeForce de dernière génération, si on omet les RTX 4070 Ti (SUPER) customs qui ne sont pas très vertueuses à ce niveau. Les deux 4080 sont toujours très proches, sans surprise. En passant la fréquence de rafraîchissement de notre écran UHD à 144 Hz, les Radeon voient leur consommation s'emballer (du fait d'une fréquence mémoire bloquée à sa valeur maximale), à l'exception de la Radeon 7900 XTX (???). Il est toutefois possible de revenir à une situation nominale pour les autres en activant le VRR (Freesync dans les pilotes de ces dernières) si l'écran dispose d'une telle fonctionnalité.

En utilisant cette fois deux écrans (1 UHD & 1 FHD) à 60 Hz, on va retrouver une situation globalement similaire à celle avec un seul écran à cette fréquence de rafraîchissement vertical, avec quelques watts de plus au compteur et des Radeon plus frugales que leurs concurrentes, la nouvelle-née made by MSI faisant parti du peloton de queue. En passant l'écran principal à 144 Hz, rebelote pour les Radeon qui s'emballent (encore une fois du fait de la fréquence VRAM appliquée), l'activation de Freesync rétablissant la situation pour RDNA 3, mais pas RDNA 2. À noter que nous avons poussé nos mesures un peu plus loin en passant le second écran à 360 Hz (le premier toujours à 144 Hz), la consommation augmente considérablement pour toutes les cartes, même si les GeForce s'en sortent tout de même bien mieux. Il est même possible de réduire encore leur consommation via le VRR, ce qui n'est par contre pas le cas des Radeon et ce quelque soit leur génération cette fois.

Il semble que Nvidia ait travaillé ce point sur la branche 551 des pilotes, puisqu'il n'est plus nécessaire d'activer la VRR pour restaurer dans ces conditions exigeantes, la consommation "réduite" des 4070 TI S et 4080 S (qui utilisent justement ce pilote).

2a93617fb28d79600260e987ebff937b

Consommation en charge

En charge, nous mesurons la puissance électrique absorbée par les cartes graphiques sous un jeu gourmand en UHD / rastérisation, un autre en QHD / Ray Tracing et nous ajoutons une troisième valeur correspondant à la moyenne de consommation établie sur les tous jeux constituant notre échantillon de tests en UHD (y compris en Ray Tracing avec upscaling & frame generation). Sous A Plague Tale: Requiem, notre RTX 4080 SUPER FE va absorber 9 watts de plus que la 4080 FE, dépassant ainsi légèrement sa limite de puissance annoncée. Le constat est différent sous Lords of the Fallen, où elle se limite à 280 W, soit 4 watts de plus que sa devancière. En moyenne pour tous nos jeux (UHD), l'écart entre les 2 cartes se situe à 9 W pour une valeur totale de 296 W, sous la limite de 320 W.

87321583ddd8b104eddd19578f7f39a4

Nous verrons ce qu’il en est des conséquences de ces puissances absorbées sur l’efficience globale un peu plus bas, mais avant cela, rappelons que depuis que nous utilisons PCAT, nous ne nous contentons pas de relever la consommation au sein d’un ou deux jeux, mais de l’intégralité de ces derniers. Pour avoir une vue plus exhaustive, voici donc le tableau récapitulant les consommations moyennes relevées (la plus élevée parmi toutes les "passes" de chaque jeu (et la plus élevée entre rastérisation et RT si les 2 modes de rendu sont testés)).

Puissance absorbée par le GPU (Watts) GeForce RTX 4080 SUPER FE
A Plague Tale : Requiem 326
Alan Wake II 314
Assassin's Creed Mirage 263
Avatar: Frontiers of Pandora 309
Cyberpunk 2077 292
Dead Space 261
Doom Eternal 325
Dying Light 2 309
Elden Ring 259
F1 23 322
Forspoken 301
Forza Motorsport 267
Ghostrunner II 322
Hitman III 293
Lord of the Fallen 308
Metro Exodus Enhanced Edition 327
Ratchet & Clank : Rift Apart 288
Red Dead Redemption 2 309
Resident Evil 4 306
Starfield 306
Total War : Pharaoh 301
Warhammer 40,000: Darktide 322
Watch Dogs : Legion 301
Moyenne 302

On note un maximum relevé à 327 W et le minimum à 261 W, soit une amplitude de 66 W. La moyenne des puissances maximales absorbées par jeu s'établi cette fois à 302 W. Finissons par le suivi de la consommation via PCAT sur une trentaine de minutes pour A Plague Tale: Requiem (UHD). Dans la durée, nous retrouvons peu ou prou la valeur mesurée durant notre séquence de test pour ce jeu très gourmand, correspondant vraisemblablement à la limite réelle de notre carte. On notera que les pics de consommation (avec un pas de 100 ms qui ne garantit pas que d'autres plus brefs puissent survenir) n'ont rien d'excessifs, puisque la carte n'atteint jamais les 350 W. Nvidia recommande un bloc d'alimentation de 750 W ou plus pour cette référence.

GeForce RTX 4080 Founders Edition au repos : consommation électrique durant 30 mn

Consommation en charge sous A Plague Tale : Requiem de la MSI RTX 4070 Ti SUPER Ventus 3X

Efficacité énergétique

Afin d’évaluer l’efficacité énergétique des cartes, nous réalisons un indice basé sur les performances et puissances absorbées durant l'exécution de nos tests. Bien entendu, ces indices ne représentent que la situation au travers des jeux mesurés, durant ces scènes et avec les niveaux de détails sélectionnés, tout ceci pouvant varier assez largement dans des conditions de test différentes. Pour pallier à une partie de cette variabilité, nous ajoutons également la moyenne des indices énergétiques de chaque jeu en UHD (rastérisation + RT). Notre RTX 4080 SUPER ne change pas vraiment la donne à ce niveau, les RTX 40 étant les cartes les plus efficientes pour l'heure.

848bd98f821abe299bcc551b4ef947d3

Avant de passer au verdict, intéressons nous à d’autres usages que le jeu page suivante.


Usage créatif / productif

Un GPU ne sert pas uniquement au jeu. Que peut-on donc attendre de cette nouvelle génération de cartes dans ce domaine, en comparaison de leurs devancières ? Pour donner une petite idée des capacités à ce niveau, nous avons préparé un échantillon de tests, couvrant une (petite) partie des usages possibles avec un GPU en dehors du jeu.

Blender

Premier logiciel utilisé pour nos tests, Blender et son moteur de rendu Cycle, capable d’utiliser les GPU au travers d’Optix (GeForce), HIP (Radeon) et oneAPI (Intel Arc). Nous utilisons le benchmark qui va rendre 3 scènes différentes afin d'avoir une idée concrète des forces en présence.

c14ca2681262315e9c66e8d443895224

Quel que soit la scène retenue, les GeForce écrasent la concurrence, dans ce qui est indubitablement un point fort des verts, à savoir son support des applications professionnelles via son écosystème logiciel particulièrement développé à ce niveau. Qui plus est, ces rendus faisant appel au Path Tracing, la supériorité architecturale des verts pour ce type de tâches, contribue fortement à cette hiérarchie à sens unique. Si on se focalise sur la RTX 4080 SUPER, elle ne fait que marginalement mieux que sa devancière, une fois encore.

Cinebench 2024

Second logiciel de notre échantillon de test, Cinebench est le benchmark issu du logiciel Cinema 4D de Maxon utilisant son propre moteur de rendu Redshift. Nous utilisons la dernière version en date qui propose à présent les tests des GPU, à l'exception des Intel ARC (peut-être à l'avenir via une mise à jour ?).

119dfb85b7a8abbc98d575fa3bdbd2e1

Tout comme pour Blender, la série 40 des GeForce domine sous Cinebench, sans être aussi écrasante pour autant. Toujours des écarts symboliques entre les deux RTX 4080 par contre.

DaVinci Resolve Studio

Poursuivons ces tests en utilisant DaVinci Resolve Studio, une référence pour le traitement des vidéos. Dans un premier temps, nous réalisons un projet à partir de rushs ProRES en UHD. Nous appliquons ensuite divers effets (flou gaussien, effets de style, etc.) et encodons le tout en H.264 pour un usage Vimeo 2160P, dans un conteneur "MOV". Nous utilisons ensuite pour les tests suivants, un fichier brut ProRES en 8K (44 s pour limiter la taille déjà gigantesque), que nous allons exporter en 8K dans un conteneur "MP4", via un encodage H.265 puis AV1 (pour les cartes qui en sont capables), afin de solliciter les encodeurs de nos GPU.

aaf308306771d4283ad95ecc65499801

Notez que nous mesurons ici le temps d’export, mais pour une comparaison équitable, il ne faut pas se contenter de ce paramètre, mais aussi de la qualité obtenue. Cette opération longue et fastidieuse n’est pas réalisable lors d’un tel dossier, mais il nous parait important de le rappeler. Pour les tâches d’encodage pur, la RTX 4080 SUPER fait un peu mieux qu'attendu en AV1, il semble que ce soit aussi un des bénéfices liés à la nouvelle branche des pilotes, nous vérifierons tout cela à l'avenir. Lors de l’exécution de notre projet Vimeo ayant recours en sus aux unités de calcul pour appliquer les différents effets, le rapport de force est donc toujours le même avec une réelle promiscuité entre les deux comparses des années 80.

Stable diffusion

Finissons ces tests en utilisant Stable Diffusion, afin de mesurer les performances en IA (inférence ici). Ce logiciel permet ainsi de générer une image à partir d'une description en langage courant de cette dernière. Pour la mise en œuvre local des opérations d'inférences sous Windows, nous utilisons le projet Automatic1111 WebUI rassemblant les bibliothèques nécessaires sous une même interface web, et procédons à l'installation et au paramétrage des optimisations spécifiques à chaque architecture. C'est plutôt simple côté NVIDIA, puisqu'il suffit d'entrer le lien URL de la page GitHub associée dans le champ Ad Hoc de WebUI, pour procéder à l'installation de TensorRT. Il ne reste dès lors plus qu'à compiler ce dernier (à chaque changement de GPU). Pour AMD et Intel, il faut par contre mettre un peu plus les mains dans le cambouis.

Pour les rouges, nous utilisons un projet DirectML via Microsoft Olive sous une branche différente de WebUI, le constructeur mettant à disposition un petit guide pour ce faire. Toutefois, même en suivant pas à pas la méthode, c'est loin d'être clé en main, et la présence d'un Nicolas sous le coude est bien utile pour peaufiner le tout. Pour Intel, afin de prendre en charge ses unités XMX dédiées, nous utilisons OpenVINO dans yet another fork de WebUI, disponible ici. L'installation se passe plutôt facilement si votre configuration ne s'emmêle pas les pinceau dans les différentes version de Python (cf. encart ci-dessous). Reste alors à paramétrer le rendu de l'image : nous optons donc pour 50 échantillonnages selon la méthode "Euler a", pour une définition de 512 x 512 avec CFG Scale = 7 et une image par batch pour un total de 100 batchs, en utilisant le très populaire modèle SD v1-5 (nous passerons probablement plus tard sous SD XL afin d'utiliser une définition de 1024 x 1024).

Pour faire fonctionner tout cela sur le même Windows, c'est la foire aux versions : les cartes vertes et rouges utilisent donc WebUI 1.7.0 et Python 3.10.6, la bleue tournant de son côté sous Python 3.11.5 et WebUI 1.6.0. Si cela ne devrait pas avoir trop d'effet sur les performances, ce peut être davantage le cas côté PyTorch... puisque l'affaire est encore pire à ce niveau : l'ARC utilisant la 2.1.0, les GeForce la 2.0.1 et les Radeon la 1.13. Malgré nos multiples tentatives, il ne nous a pas été possible d'unifier ces versions, qui soit se réinstallaient automatiquement, soit ne fonctionnaient tout simplement pas avec le fork dédié. Cela dit, le nombre d'itérations par seconde obtenus dans ces conditions correspond bien aux attendus des différentes cartes, selon les sources citées précédemment. A l'avenir nous tâcherons d'obtenir quelque chose de plus cohérent, probablement en passant par un Linux un peu plus commun dans la tâche.

2c51094b4571e26b3bcc42a7c87b3e16

Le résultat obtenu est un nombre d'itérations par seconde pour chaque batch. Comme ce n'est pas très parlant, nous exprimons donc le résultat en images par minute pour faciliter sa compréhension. Sans surprise, les verts dominent très largement, en grande partie du fait de la préemption de leur écosystème sur le domaine (intégration de Tensor Cores dès 2017 au sein de Volta). Comme attendu, l'écart entre les deux RTX 4080 est réduit, à 4 % exactement.

Consommation & efficacité énergétique

Quid des puissances électriques absorbées lors de l’exécution de ces logiciels ? Non seulement les cartes Ada se montrent terriblement performantes pour ces tâches, mais en plus elles le font avec souvent un appétit électrique moindre que la concurrence, RDNA 3 inclus. La RTX 4080 SUPER va consommer à nouveau un peu plus que sa devancière, en particulier sous Stable Diffusion.

8b13541a7cbb22b78ae358b3c979b3bf

Vu les performances atteintes et les puissances électriques mesurées, il n'y avait pas l'ombre d'un doute quant à la nature de la hiérarchie à attendre pour l'efficience énergétique pour ce genre d'activité. Ada domine donc de la tête et des épaules, et seules les tâches d'encodage permettent à la concurrence de ne pas sombrer totalement. A nouveau, l'efficacité énergétique de la nouvelle-née est en très léger recul, rien de bien flagrant toutefois, et même pas pour toutes les tâches.

56463c89e120092a763dc5c3920e9e39

Voilà pour les prestations en "production", place au verdict page suivante.


Verdict

Nous voici parvenus au terme de ce dossier, et ceux qui s'attendaient à une réelle évolution de la RTX 4080 seront probablement déçus. Pour autant, la seule lecture des caractéristiques techniques ne laissaient pas planner beaucoup de doute quant à la proximité à attendre entre ces deux références. Nous estimions cette dernière à environ 5 % avant test, nous sommes finalement en deçà des 3 %, même si cela ne change en définitive pas grand chose. Pourquoi ? Eh bien tout simplement parce que ce n'est pas au niveau des apports que la carte trouve sa légitimité, mais bien dans sa tarification qui, elle, change largement. On tiquera seulement du côté de la dénomination, car elle n'a de SUPER que le nom en définitive, Black (oui on insiste) lui siérait tellement mieux vu la Founders Edition.

Nvidia GeForce RTX 4080

Dernier acte du refresh en trois temps des verts, la RTX 4080 SUPER a pour objectif de redonner ses lettres de noblesses à cette série 80, généralement très appréciée et pourtant fortement boudée sur ses RTX 40. La raison en était toute simple : Nvidia a eut les yeux plus gros que le ventre en définissant le tarif de la version originelle. Car d'un point de vue prestations, c'est une excellente carte depuis son lancement. Plus performante que la RTX 3090 Ti tout en consommant largement moins d'énergie et capable de tenir la dragée haute au vaisseau amiral concurrent en rastérisation tout en la devançant nettement avec Ray Tracing. Même la quantité de mémoire souvent décriée sur les cartes vertes, ne pose pas de souci. Elle avait donc tout pour plaire cette RTX 4080.

Seulement voilà, il fallait écouler le stock de GA102 sur les bras des verts suite à l'effondrement de la bulle du mining et une telle carte faisait office de concurrence frontale. En a découlé le placement tarifaire aberrent retenu, lui octroyant un rapport performances/prix encore pire que celui de la RTX 4090. Les acquéreurs fortunés se sont donc tournés en masse vers cette dernière proposant des prestations d'un autre calibre, pour un surcoût "acceptable" quand on consent déjà à ce niveau de prix. Une fois les stocks écoulés, on aurait pu espérer un réajustement tarifaire pour relancer les ventes, mais ce dernier n'est jamais survenu, laissant la RTX 4080 dans son marasme commerciale jusqu'à présent.   

L'horloge tournant, on se rapproche petit à petit du prochain lancement qui devrait survenir d'ici la fin d'année ou début de la prochaine si Nvidia suit sa cadence habituelle. Que faire alors des stock d'AD103 invendus, puisque seule la RTX 4080 utilisait ce GPU. Sont ainsi nées les GeForce RTX 4070 Ti SUPER et RTX 4080 SUPER. Pourquoi ne pas avoir tout simplement baissé les prix des modèles existant ? Seul Nvidia connait la raison, on peut toutefois se laisser aller à quelques supputations. D'une part, la nouveauté fait vendre, c'est un fait d'autant plus vrai que le modèle remplacé à mauvaise réputation (à raison ou non). D'autre part, repositionner la gamme tarifaire via de nouveaux modèles permet aussi d'éviter de heurter la sensibilité de ceux ayant payé "plein pot". 

Car mine de rien le caméléon n'y va pas avec le dos de la cuillère, en baissant de 200 $ son MSRP (- 17 %). Converti en € avec adjonction des taxes françaises, la RTX 4080 SUPER se retrouve avec un prix conseillé de 1109 €. De quoi la positionner beaucoup plus proche de la RX 7900 XTX et cela change beaucoup de choses. Car si le vaisseau amiral rouge peut se targuer de performances équivalentes en rastérisation et d'une quantité de mémoire supérieure, c'est à peu près tout. Qui plus est, 16 Go ne sont pas un problème aujourd'hui et risque de ne pas l'être avant que le GPU lui même deviennent trop juste. A tarif similaire, notre préférence va clairement à la référence des verts du fait de ses prestations globales et des atouts de l'écosystème Nvidia.

La GeForce RTX 4080 SUPER redonne donc de l'attrait à AD103, un excellent GPU qui méritait mieux que la placardisation dont il a été affublé jusqu'à présent. La RTX 4070 Ti SUPER constitue une bonne alternative à la RX 7900 XT, la nouvelle-née en est une excellente à la RX 7900 XTX. Qui plus est, l'augmentation de tarif des RTX 4090 (hormis la FE lorsque disponible) rend le surclassement encore plus onéreux. Alors oui, nous aurions préféré une RTX 4080 au prix d'une RTX 3080, mais la situation n'est plus vraiment la même, le COVID et l'inflation généralisée étant passée par là. Il faudrait une concurrence bien plus féroce des rouges (ou des bleus !) pour espérer revenir à des tarifs d'avant crise dans ce domaine des cartes graphiques. 

Le titre de notre dossier résume en quelques mots ce qu'est la RTX 4080 SUPER : une RTX 4080 à peine améliorée mais à un prix sensiblement moindre. Cet ajustement tarifaire était indispensable pour redonner de l'attrait à la série xx80, mission accomplie. Si la carte reste trop onéreuse pour beaucoup se refusant à investir autant dans une carte graphique, elle propose toutefois des performances en rastérisation au niveau de sa concurrente, tout en la devançant nettement en Ray Tracing ou production. Ajoutez à cela une efficience supérieure, un écosystème Nvidia bien plus développé et vous obtenez le meilleur choix possible dans cette gamme tarifaire. AMD va-t-il baisser significativement ses prix pour recréer un espace pour sa RX 7900 XTX ?

Plutôt qu'un Award (qui certes fait plaisir aux marques pour leur communication, mais a du mal à retranscrire les nuances développées dans cette page verdict), nous avons tenté de vous proposer une représentation synthétique des prestations à attendre de la carte, en comparaison de sa rivale principale. C'est un exercice périlleux, parce qu'une notation reste assujettie à une échelle de valeur susceptible de changer dans le temps et selon les priorités personnelles de chacun. Voici quelques précisions d'ordre général sur les valeurs attribuées et la manière de procéder pour ce faire :

♦ la notation utilise une base décimale pour donner plus de précision et nuances

♦ Le positionnement de chaque critère est déterminé à la sortie de la carte uniquement (et peut donc devenir obsolète dans le futur si réajustement tarifaire ou autres).

♦ Le prix (tout comme les autres métriques), est un classement relatif des cartes et pas une appréciation dans l'absolu de la valeur pécuniaire de ces dernières. La note est basée sur le meilleur tarif disponible en boutiques situées en France.

♦ Les valeurs dans chaque catégories représentent une appréciation de la pertinence des cartes dans le segment tarifaire qu'elles occupent (typiquement hérité de nos guides d'achat). Il est donc tout à fait possible de voir une carte bas de gamme obtenir la note maximum en performance, et ce même si elle est loin du niveau d'une RTX 4090 dans l'absolu.

♦ Au sein d'un segment tarifaire, nous attribuons la note maximale (10) à la meilleure prestation (moyennes d'images par seconde la plus élevée, consommation la plus faible, etc.) toutes cartes confondues au sein d'un même segment. Nous exprimons le résultat des cartes représentées dans le radar en comparaison de ces "étalons".

♦ La catégorie "Environnement logiciel" est un fourre-tout regroupant la robustesse et l'ergonomie des pilotes, les performances avec des logiciels de production, la qualité visuelle des technologies proposées (DLSS, FSR, XeSS, FG, RR, etc.), les logiciels additionnels mise à disposition de l'utilisateur (Broadcast, etc.). C'est la seule dont l'évaluation n'est pas calculée mais estimée

d881a3d883475c7f16adf09acd45ac1a

Nous remercions naturellement nos partenaires pour la mise à disposition du matériel ayant permis la réalisation de ce dossier.

  •  

Test • AMD Ryzen 7 8700G & Ryzen 5 8600G / 8500G : des APU pouvant enfin se passer de carte graphique ?

Par : Eric B.
29 janvier 2024 à 15:00

Core i9-14900K

Depuis le rachat d'ATi par AMD en 2006, le concepteur historique de processeurs s'est doté de compétences très élevées en matière de GPU. Les gammes Radeon ont perduré depuis, alternant bon an mal an succès comme déceptions. Mais l'objectif de ce rachat avait surtout pour vocation l'idée précurseur du projet Fusion, c'est à dire l'intégration d'un processeur graphique au sein même du CPU. A l'époque, il était en effet possible de se passer d'une carte graphique dédiée, mais il fallait opter pour une carte mère disposant d'un chipset spécifique, intégrant des circuit graphiques au niveau du Northbridge et pour le moins anémique. Las, l'accumulation de retards ont permis à Intel de damer le pion à son concurrent en proposant les premiers processeurs x86 (Sandy Bridge) disposant d'une telle fonctionnalité, mais l'idée originelle vient bien des rouges (qui étaient verts à cette époque). Depuis, les générations de ce qu'AMD nomme des APU se sont succédées, accusant souvent un retard de microarchitecture sur le reste de la gamme côté CPU ou GPU voire les 2. C'est en cela que les Ryzen 8000G diffèrent, puisqu'ils utilisent ici Zen 4 et RDNA 3, soit les dernières générations en date du concepteur. Pour quel résultat pratique ? Réponse dans ce dossier.


Ryzen 8000G : comme un air de famille

Conséquence de la pandémie, retard(s) dans la mise au point ou simple complexification des procédés de mise au point de processeur… les raisons sont multiples, mais le résultat est le même : la valse tick tock est terminée, et les gains faramineux de performances d’une année sur l’autre s’amenuisent. Ainsi, le principal attrait de cette nouvelle famille 8000G d’AMD est davantage son existence que sa technologie, puisque les briques de base assemblées (à savoir Zen4 côté CPU et RDNA3 côté GPU) ont toutes déjà été étrennées — en version plus musclée qui plus est — dans d’autres produits. Est-ce que cela signe pour autant des produits moroses et inintéressants ? Loin de là, puisque c’est bien dans ces gammes bonnes à tout faire que se niche la majorité des ventes… et la progression du rapport performance/prix. Toutefois, quelques nouveautés sont introduites pour la première fois sur les PC de bureau : voyons lesquelles.

De l’hétérogène, enfin chez les rouges… ?

Alors qu’Intel avait annoncé l’arrivée de cœurs de multiples microarchitectures sur un même die avec Alder Lake, soit il y a un peu plus de deux ans déjà, l’équivalent rouge a été le fruit d’une gestation plus longue. Deux raisons explique cela : d’une part, AMD n’avait pas de gamme « basse consommation » dédiée (à l’inverse des Atom bleus, qui se basaient sur une architecture distincte de la gamme « Core »), et n’a pas les ressources pour en pondre une en si peu de temps. D’autre part, le placement de la firme de Lisa Su comme un concurrent sur le plan de l’efficacité au détriment de la performance monothread pure, implique un design légèrement moins complexe des cœurs (en témoigne par exemple l’absence d’unités dédiées AVX-512 sur Zen4). Ainsi, l’intérêt de combiner une architecture moins gourmande est réduit, ce qui a mené aux déclarations du type « notre architecture Zen est capable de faire à la fois aussi bien que les P-Core et les E-Core d’Intel  ». En pratique et derrière cette communication marketing, tout n’est évidemment pas aussi tranché !

La preuve en est avec ces APU 8000G. Si, en interne, nous retrouvons un Zen4 déjà amplement bien testé, les versions 8500G et 8300G — qui ne sont donc pas encore sur le banc de test ici — font usage du fameux cœur Zen4c. Késako ? Hé bien, puisque AMD ne peut pas rebâtir une microarchitecture à partir de rien, la firme agit là où la marge de manœuvre est disponible : la gravure ! Puisque le but est de castrer la consommation, une partie du cache passe à la trappe (16 Mio par Compute Cluster [CCX], contre 32 Mio pour Zen4 « normal »), et le curseur des contraintes côté lithographie est réglé sur « économie d’énergie ». Cela tombe bien, la physique nous indique qu’une meilleure consommation est aussi une densité réduite : de quoi afficher une réduction de 35 % sur la taille du cœur + L2 (sans compter la castration du L3, qui fait, lui, partie de l'uncore) et ainsi le vendre ces CPU à base de Zen 4c comme optimisés pour la performance multicœur. Quelle chance !

Pas la peine de chercher une différence : y a rien de neuf dans la microarchi !

L’IA, l’IA partout !

À l’opposé des cœurs Zen4c disponibles uniquement sur les deux APU les moins hauts en gamme, AMD est fier de sortir son NPU (Neural Processing Unit, un accélérateur de machine learning) « Ryzen IA » de la manche pour les Ryzen 7 8700G et Ryzen 6 8600G. Là encore, l’exclusivité n’est pas de mise, puisque nous avions déjà vu ce « XDNA » arriver sur les APU Phoenix en mai dernier, au passage équipés des mêmes dies que ces 8000G, adoptant des cadences moindres.

En pratique, cet XDNA renferme un accélérateur de réseau de neurones tout droit sorti du rachat de Xilinx (février 2022), se basant sur des AI engines. Afin de rationaliser les designs, c’est cette même architecture d’accélérateurs que nous retrouvons sous le capot des SoC Versal, des puces rassemblant également des cœurs Arm, de la HBM (en option) et un bon gros FPGA.

En interne, XDNA est en fait d’un réseau systolique (agencement 2D en mesh) à la structure générale proche des Tensor Cores de NVIDIA, mais en plus flexibles — et donc plus complexe. Dans ce NPU AMD, nous retrouvons ainsi des cœurs VLIW intégrants une partie scalaire RISC, des unités vectorielles « Enhanced AI Vector Extensions » dont la recette est gardée secrète, un buffer local de 64 Kio et un espace de stockage restreint dédié aux instructions. Au sein de ce réseau bidimensionnel de cœurs se trouvent également distribuées des tuiles de mémoire pour un total de 38 Mio.

Le réseau systolique en vue d’ensemble à gauche/haut, le zoom sur un cœur à droite/bas

Lors des tâches d’inférence (c’est-à-dire en utilisant un réseau déjà entraîné), les données circulent à partir de ces tuiles pour être traitées en parallèle sur tous les cœurs du mesh : de quoi offrir un ratio performance/consommation attrayant par rapport à une exécution purement CPU, d’autant plus que la fréquence d’opération, 1,3 GHz maximum, est loin d’être ridicule pour un accélérateur dédié. Encore faut-il avoir un compilateur capable d’exploiter correctement le bousin, ce pourquoi le design est remis sur le devant de la scène après plus de six mois de service. Dans la pratique, il peut maintenant être utilisé comme un coprocesseur et accélérer plus de mille tâches réparties dans une douzaine de logiciels, essentiellement en matière de traitement d’images, de son et de vidéos.

C’en est fini pour les nouveautés technologiques et architecturales, passons désormais à une analyse de la puce en substrat et en silicium page suivante.


AMD Ryzen 8000G

Alors, qu'en est-il de ces nouveaux Ryzen 8000G. Commençons donc par l'évidence : l'utilisation de la nomenclature 8000 est pour le moins usurpée, puisqu'il s'agit ici ni plus ni moins que de la déclinaison pour PC de bureau des Ryzen 7000 lancés en 2023 et destinés aux solutions mobiles. Les deux plus "huppés" reprennent exactement le même die monolithique (Phoenix) de 178 mm² pour 25,4 milliards de transistors que ces derniers, gravé via le nœud 5 nm de TSMC. Les deux autres font de leur côté appel à un nouveau die (Phoenix 2 ) plus petit à 137 mm² pour 20,9 milliards de transistors. S'il est toujours gravé sur le même node, les optimisations en faveur de la densité au détriment de la performance des transistors ont été utilisées ici, comme expliqué page précédente.

Les interfaces qui sont traditionnellement moins denses en transistors (= plus de place sur le Wafer de silicium) sont également réduites, puisque l'on passe d'un total de 20 lignes PCIe Gen 4 sur le "gros" die à 14 sur cette puce. Dans un cas comme dans l'autre, 4 lignes sont réservées pour la liaison avec le chipset. Voilà pour les grandes lignes de cette gamme comptant 4 références. Toutefois, la plus petite (Ryzen 3 8300G) ne devrait être disponible qu'aux OEM pour intégration dans des systèmes complets. Ceci dit, ce ne serait pas la première fois qu'une telle référence dédiée finisse quant même par arriver à la vente au détail à terme (marché gris, etc.). Jetons donc un coup d'œil rapide aux différences entre modèles au travers du tableau suivant.

Référence Cœurs / Threads

Boost max (cœurs "C")

 Boost Max IGP CU Cache L3 Puissance (Max) tarif
Ryzen 7 8700G 8 / 16 - 5,1 GHz Radeon 780M 12 16 Mo 88 W 329 $
Ryzen 5 8600G 6 / 12 - 5 GHz Radeon 760M 8 16 Mo 88 W 229 $
Ryzen 5 8500G 2+4c / 12 3,7 GHz 5 GHz Radeon 740M 4 16 Mo 88 W 176 $
Ryzen 3 8300G 1+3c / 8 3,6 GHz 4,9 GHz Radeon 740M 4 8 Mo 88 W OEM

Au sommet de la gamme, on va trouver le 8700G utilisant le die Phoenix intégralement actif, soit 8 cœurs Zen 4 et 12 CU pour son IGP. Il dispose également d'un cache L3 de 16 Mo. Ensuite, le 8600G sera amputé de 2 coeurs CPU et 4 CU tout en conservant le même L3. Arrive le cas du 8500G qui est intéressant : s'il reprend la configuration à 6 coeurs 12 threads, sa répartition est de 2 cœurs Zen 4 originels, et 4 cœurs Zen 4c au sein du die Phoenix 2 intégral. Comme indiqué page précédente, ces cœurs n'utilisent en rien une architecture spécifique comme c'est le cas du côté d'Intel, puisqu'il s'agit plutôt ici de cœurs Zen 4 sous cadencés et disposant d'optimisations lithographiques spécifiques, pour économiser des watts et des mm² de silicium. L'IGP est également moins ambitieux : nous avons affaire ici au Radeon 740M, disposant de 4 CU uniquement. Enfin, le 8300G est un quad cœurs (dont 3 de type c), avec un cache L3 divisé par 2 et qui reprend l'IGP 740M. Voyons à présent plus en détail les APU testés ce jour.

Ryzen 7 8700G

AMD nous a fait parvenir pour ce test un kit composé d'une carte mère ASRock B650 Pro RS , 2 barrettes mémoire de 16 Go G.Skill Trident Z5 Neo RGB et 2 processeurs. Le premier d'entre eux est le Ryzen 7 8700G, soit l'octocœur surplombant la gamme. Visuellement, c'est un processeur AM5 comme tous les autres, reprenant le heat-spreader spécifique et donnant à ces CPU un cachet unique, mais rendant aussi leur manipulation un peu plus délicate lors des opérations de mise en place ou retrait du socket.

Ryzen 7 8700G : face avantRyzen 7 8700G : face arrière

Le Ryzen 7 8700G côté pile et face

Que nous apprend CPU-Z sur le nouveau venu ? On retrouve les éléments principaux détaillés dans le tableau précédent, avec une configuration à 8 coeurs Zen 4 dotés de SMT et disposant individuellement d'un mégaoctet de cache L2. A cela, s'ajoute un cache de niveau 3 partagé de 16 Mo. Le TDP indiqué est de 65 W, ce qui correspond chez AMD à une puissance maximale disponible (PPT) de 88 W lorsque les conditions le permettent (nous y reviendrons un peu plus bas). La fréquence en crête atteint 5,15 GHz, dépassant donc légèrement la valeur officiellement communiquée. Dés que la sollicitation se fait plus intense sur de nombreux cœurs, ces derniers vont alors adopter une cadence oscillant aux environs de 4,65 GHz, afin de respecter l'enveloppe de puissance électrique.

AMD Ryzen 7 8700G : CPU-Z

Fréquences du Ryzen 7 8700G (Repos, 1 cœur actif, tous cœurs actifs)

HWiNFO64 permet de monitorer un peu plus finement le processeur, on remarquera ainsi que lors d'une charge soutenue la fréquence peut par moment chuter jusqu'à 4,4 GHz, même si cela ne dure qu'un très bref instant et ne s'applique qu'à un ou deux coeurs simultanément. Mais il y a plus intéressant : vous remarquerez la présence d'une ligne nommée APU STAPM (la dernière avec un symbole en forme d'éclair). Kesako ? En fait ce n'est pas une nouveauté puisqu'on trouvait déjà cette fonctionnalité sur de précédents APU, c'est l'acronyme de Skin Temperature Aware Power Management.

Ok, on est bien avancé avec ça, mais de quoi s'agit-il ? C'est une technologie qui va estimer la puissance totale au niveau du socket pour limiter l'échauffement lorsque l'appareil est tenu en main (console) ou sur les genoux (ordinateur portable) par exemple. L'objectif est de limiter l'inconfort lié à la température qui en découlerait, lors de ces usages spécifiques. Quand la valeur de STAPM atteint le plafond déterminé par le fabricant du produit, alors l'APU va réduire encore davantage ses fréquences pour se conformer à ce dernier. En pratique ici, on passe donc d'une limite de puissance de 88 W à 65 W.

La valeur STAPM monte régulièrement lorsqu'une charge est maintenue dans le temps, par accumulation on finit par atteindre ce plafond si cela dure suffisamment longtemps. A tire d'exemple, il faudra environ 6 mn de notre test d'encodage vidéo pour atteindre le plafond de 65 W. Ce n'est pas sans conséquences sur les performances, vous l'aurez compris en jetant un œil aux fréquences adoptées alors (capture de droite). La question par contre qui vient à l'esprit est : "qu'est-ce qu'un tel mécanisme vient faire sur un APU destiné à un PC de bureau ?". Nous avons tâché de désactiver la fonctionnalité dans le bios de notre carte mère fournie pas AMD, sans succès. Nous avons donc remonté le problème aux rouges, il est en cours d'investigation.

Il semble donc qu'il s'agisse d'un bug au niveau du bios de notre carte mère, nous avons déjà entrepris de nous faire prêter un autre modèle auprès d'un fabricant, mais pour l'heure nos tests les plus intenses sont impactés. Les performances de cet APU au sein de ces derniers sont donc légèrement moindres (puisque le phénomène ne survient qu'à partir d'un laps de temps non négligeable sur la durée totale du test) que ce qui peut être escompter sans l'action de ce STAPM.

Ryzen 7 8700G : les fréquences

Fréquences du Ryzen 7 8700G via HWiNFO64

MAJ du 04/02/2024 : Gigabyte nous a fait parvenir sa carte AORUS B650E Elite X AX Ice pour tenter de résoudre notre problème de STAPM. Malheureusement, cette dernière se comporte exactement comme notre Aorus B650 Pro RS avec un STAPM actif dans le Bios et non désactivable quelques soient les options retenues. Il semble donc que le problème soit plus à chercher côté AMD, nous attendrons donc que cette fonctionnalité soit enfin désactivable pour mettre à jour les résultats des 8700G et 8600G.

MAJ du 08/02/2024 : ASRock a mis à jour le bios de de notre carte mère en désactivant cette fois le STAPM. Ce dernier disparait effectivement du relevé d'HWiNFO64 et le CPU ne voit plus ses fréquences baisser sensiblement lorsque nos tests dépassent les 5/6 mn. Nous avons donc mis à jour le dossier avec ce nouveau Bios au niveau des performances (+ 3% environ en production, pas de gain en jeu comme attendu).

Le STAPM désactivé sur le Ryzen 7 8700G

STAPM enfin inactif sur notre carte mère !

Pour en finir avec les fréquences de la partie CPU, nous utilisons également une boucle de divisions flottantes au moyen de l'utilitaire stress sous Linux. Au bout de 70 secondes (afin de limiter les variations dues à un potentiel boost trop court), nous échantillonnons 30 mesures de fréquences (du cœur P le plus rapide) espacées de 200 ms entre chaque, puis reportons la médiane des maxima obtenus. Nous répétons l'opération complète à chaque changement du nombre de threads sollicités. Notez que ce test est moins intense que certaines charges très lourdes (rendu 3D, etc.), évitant donc les limitations liées à la puissance ou les températures. Nous comparons les fréquences avec celles de son "cousin" 7700X, partageant le même nombre de cœurs et architecture, mais disposant d'une limite de puissance bien plus élevée (142 W). On constate tout de suite le différentiel ente les deux bios lorsque le test atteint un nombre élevé de threads.

a8a745c855c3d49121645a23e70d0189

Un dernier mot pour parler cette fois de la partie GPU de ce 8700G. AMD nomme cette dernière Radeon 780M, qui s'appuie sur l'architecture RDNA 3. Elle compte 768 SP (+50 % par rapport au 5700G) et 48 TMU répartis au sein de 12 CU. 16 ROP sont également présents, doublant ainsi leur nombre par rapport à la précédente génération d'APU. Le bus mémoire est celui du CPU, soit 2 canaux 64-bit en DDR5, la fréquence dépendant de celle de vos barrettes qui seront probablement bien plus rapides que la précédente DDR4, avec laquelle devait composer les APU 5000G. Du côté des fréquences, on notera qu'au repos le GPU tourne à 800 MHz (400 MHz précédemment). En charge, il parvient à 2,9 GHz quand son prédécesseur se contentait de 2 GHz. GPU-Z indique une interconnexion utilisant 16 liens PCIe Gen 4 pour l'IGP alors qu'ils étaient de Gen 3 pour le 5700G. A noter par contre qu'il n'y a que 8 lignes PCIe (Gen 4 également) pour l'utilisation d'un GPU externe. Tout cela annonce des gains très intéressants, que nous vérifierons bien entendu.

GPU-Z Radeon 780M du Ryzen 7 8700G

Le Ryzen 7 8700G côté GPU

Ryzen 5 8600G

AMD nous a également fait parvenir pour ce test un Ryzen 5 8600G. Toujours pas de différences visuelles par rapport à un autre CPU AM5, hormis le marquage du processeur bien entendu. Il en est de même pour la face arrière, qui comporte toujours 1718 points de contact.

Ryzen 5 8600G face avantRyzen 5 8600G face arrière

Le Ryzen 5 8600G par dessus et par dessous

Notre traditionnelle petite inspection interne interne via CPU-Z nous confirme la désactivation de 2 cœurs. Le cache L3 reste par contre inchangé, comme à l'accoutumé chez les rouges. Le TDP indiqué est également identique, soit 65 W pour une puissance maximale de 88 W. Il devrait donc se sentir un peu plus à son aise. La fréquence en crête dépasse elle aussi de 50 MHz l'attendu, avec 5,05 GHz. Lors de sollicitations plus intenses sur de nombreux cœurs, la cadence va alors osciller aux environs de 4,75 GHz.

CPU-Z: Ryzen 5 7600G

Fréquences du Ryzen 5 8600G (Repos, 1 cœur actif, tous cœurs actifs)

HWiNFO64 permet d'affiner tout cela : confirmation que le PPT inchangé lui permet de maintenir de manière plus stable ses fréquences lors d'une sollicitation à 100 %, puisque l'on ne chute pas sous les 4,7 GHz. Par contre, notre 8600G va se voir lui aussi touché par le STAPM, même si son impact est un peu moins sévère sur les fréquences.

HWiNFO64 : le Ryzen 5 7600G

Fréquences du Ryzen 5 8600G selon HWiNFO64

A l'instar de son grand frère, le 8600G est impacté par le STAPM actif sur notre carte mère. Si l'impact est bien moindre que pour le 8700G, il n'en demeure pas moins que les performances dans certains tests pourraient s'améliorer à l'avenir une fois la fonctionnalité désactivée.

MAJ du 08/02/2024 : Suite à la mise à disposition du nouveau BIOS, nous avons là aussi nous avons repris nos tests et mis à jour le dossier en conséquence.

STAPM désactivé sur le Ryzen 5 8600G

Le STAPM enfin désactivé sur notre carte mère ASRock

Pour en finir avec les fréquences de la partie CPU, nous utilisons également le même test que pour son grand frère et tout comme ce dernier, nous ajoutons un étalon de la génération 7000, ici le Core i5-7600X. Ce dernier disposant d'un TDP plus élevé, il est là aussi moins impacté lorsque le nombre de tâches parallèles devient important.

1b075a34ccaf8ebfedb675f839b27837

Quid du GPU cette fois ? Sur la Radeon 760M, un tiers des unités de calculs et la moitié des ROP sont désactivés. Par contre, le bus mémoire est inchangé puisqu'il s'agit toujours de celui du CPU. Il sera donc intéressant de constater l'impact réel sur les performances de ses activations, sachant que les IGP sont souvent bridés par la bande passante mémoire. Du côté des fréquences, pas de changement au repos, tandis qu'en charge cet IGP doit composer avec 100 MHz de moins au compteur.

Radeon 760M du Ryzen 5 8600G via GPU-Z

Le Ryzen 5 8600G côté GPU

Ryzen 5 8500G

Afin de vous proposer une vue d'ensemble de cette gamme APU, nous nous sommes procurés par la voie commerciale un Ryzen 5 8500G dès sa mise en vente. Sans surprise, c'est toujours toujours une copie conforme des autres CPU AM5, hormis la désignation du processeur bien entendu. Cette remarque est bien entendu valable également pour la face d'arrière de ce processeur.

AMD Ryzen 5 8500G : face avantAMD Ryzen 5 8500G : face arrière

Le Ryzen 5 8500G dessus et dessous

Vous en avez l'habitude maintenant, un petit tour du côté de CPU-Z pour voir ce qui se cache dans les entrailles du nouveau venu. Comme attendu, exit Phoenix et place ici à Phoenix 2. Ce die ne comprend nativement que 6 coeurs, donc 4 de type "Zen 4c". Le cache L3 reste par contre inchangé, à 16 Mo. Le TDP indiqué est également identique aux 2 autres références testées, soit 65 W pour une puissance maximale de 88 W. La fréquence maximale dépasse elle aussi de 50 MHz l'attendu, avec 5,05 GHz. Lors de sollicitations plus intenses sur de nombreux cœurs, la cadence va alors descendre à 4,75 GHz, tout du moins sur les 2 cœurs Zen 4 traditionnels. Voyons un peu plus bas ce qu'il en est des 4 autres.

AMD Ryzen 5 8500G : les fréquences via CPU-Z

Fréquences du Ryzen 5 8500G (Repos, 1 cœur actif, tous cœurs actifs)

Comme toujours, HWiNFO64 nous permet d'affiner tout cela : si on retrouve bien les 4,75 GHz des cœurs "performances", les versions "c" se contentent de leur côté de 3,66 GHz. Tout ce beau monde en pleine charge va absorber un peu plus de 61 W. Du coup, le bug du STAPM (voir plus haut la partie 8700G) ne l'affecte pas puisque l'on reste systématiquement sous les 65 W, comme le confirme la seconde capture d'écran.

AMD Ryzen 5 8500G : les fréquences via HWiNFO64

Fréquences du Ryzen 5 8600G selon HWiNFO64

Pour en finir avec les fréquences de la partie CPU, nous utilisons également le même test que pour ses grand frères et à contrario de ces derniers, le STAPM n'entre pas en jeu ici. Notez que nous ne mesurons que la fréquence du premier coeur qui évolue suivant l'augmentation de charge successive sur les autres cœurs.

42456b91506223f92786699a6c744363

Quid du GPU ? Exit Radeon 780M/760M, puisque nous avons ici affaire à la Radeon 740M ne disposant en tout et pour tout que de 4 CU. Le nombre de ROP a également été divisé par 2 (par rapport à la version 780M). Le bus mémoire est toujours celui du CPU, en toute logique. Du côté des fréquences, pas de changement au repos, tandis qu'en charge cet IGP reprend la fréquence du 760M, à 2,8 GHz. Nous vérifierons les performances en jeu de cet IGP dans quelques pages.

GPU-Z : Radeon 740M du Ryzen 5 8500G

Le Ryzen 5 8500G côté GPU

Un dernier point notable, si vous désirez utiliser une carte graphique dédiée, il faudra par contre se contenter d'une liaison PCIe x4 en Gen 4. Cela peut commencer à brider une carte graphique performante, même si la RTX 4090 utilisée n'est que peu impactée dans nos tests (calibrés il vrai pour rechercher une limitation CPU et non GPU). Un tel attelage est toutefois bien improbable (qui achèterait une RTX 4090 pour la coupler avec un 8500G ?).

Liens PCIe pour carte graphique dédiée sur le Ryzen 5 8500G

Les liens dévolus à une carte graphique externe

Maintenant que vous savez tout ou presque sur les processeurs inclus dans ce dossier, passons en page suivante à la description du protocole de test.


Configurations et protocole de test

Pour ce dossier, nous réutilisons le protocole de test que nous avons figé pour un an : tout d'abord, nous utilisons Windows 11 (22H2), qui a eu le temps de mûrir pour expurger les bugs de jeunesse. Nous employons une GeForce RTX 4090 FE, afin de repousser très largement la limitation GPU qui pourrait empêcher de réellement différencier les processeurs les plus rapides entre eux, y compris en FHD pour certains jeux. Concernant les tests Linux, nous utilisons Ubuntu, dans sa version 22.10. D'un point de vue général, la "philosophie" de notre protocole est la suivante : faire la part belle aux applications courantes les plus gourmandes et tirant parti des puces multicœurs. Le nombre de tests réalisés est donc réduit (nous ne cherchons pas l'exhaustivité), en choisissant ceux nous semblant pertinents et surtout représentatifs des gains à attendre d'un processeur multicœur véloce. En effet, gagner par exemple plusieurs minutes pour une tâche de rendu ou d'encodage, ne se ressent pas du tout de la même façon côté utilisateur, que de gagner par exemple une seconde pour une mise en page, mais qui pourrait pourtant impacter l'indice de performance global de manière similaire, sans que cela ne soit réellement pertinent.

Voici les applications utilisées :

  • AIDA64 - 6.85.6345
  • CPU-Z Test 17.01.64
  • Cinebench R23.200
  • 7-zip 22.01
  • Stockfish 15.1
  • Blender - 3.4.1
  • After Effects - 23.2.1
  • VEGAS Pro - 20.0.370
  • DxO PhotoLab - 6.4.0
  • Lightroom Classic - 12.2.1
  • HandBrake - 1.6.1
  • Cinema 4D 2023.1.4
  • Arnold for Maya - 5.2.2.4
  • Visual Studio 2022 - 17.5.2
  • GCC - 12.2.0
  • TensorFlow 2.12.0
  • Anno 1800 - 17.1.1232159
  • Cyberpunk 2077 - 1.62
  • Doom Eternal - 6.66 Rev 2
  • F1 2022 - 1.19.959964
  • Far Cry 6 - 1.7.0
  • Grand Theft Auto V - 1.0.2944.0
  • HITMAN 3 - 3.150.0
  • Microsoft Flight Simulator - 1.31.22.0
  • Project CARS - 1.0.0.0.0724
  • Total War : Warhammer III - 3.1.0
  • Watch Dogs : Legion - 1.5.6
  • X-Plane 12 - 12.05
  • Baldur's Gate III - 4.1.1.4494476
  • Call of Duty: Modern Warfare III - 1.29.1.16888868
  • Diablo IV - 1.30.49404
  • Prince of Persia: The Lost Crown - 1.0.3+TU3.375453.2398915

Nous désactivons les différentes "optimisations" des constructeurs au sein du bios des cartes mères, afin de retrouver le comportement des CPU au plus près des spécifications de leurs concepteurs.

Pour rappel, la gestion de la limite de puissance diffère entre les 2 constructeurs. Ainsi, AMD utilise une valeur unique nommée PPT (Power Package Tracking), qui va s'appliquer systématiquement (hors overclocking). Intel de son côté, définit 2 valeurs qu'il nomme depuis Alder Lake, Maximum Turbo Power (PL2 pour Power Limit 2) et Processor Base Power (PL1).

La première citée correspond à la limite de puissance que le CPU va se voir attribuée durant un laps de temps donné (Tau), avant de basculer vers la seconde, qui correspond donc à la limite de puissance à longue durée. Depuis la Gen 12, les processeurs K disposent de la même valeur dans les 2 cas. Pour les autres puces des bleus, nous fixons la valeur TAU à 56 secondes et les PL1 / PL2 aux spécifications d'Intel (vous retrouverez les valeurs spécifiques de chaque processeur dans le tableau en page précédente) :

• Composants communs

GeForce RTX 4090 FESeasonic Prime TXWD Black SN850

Afin d'évaluer nos différents processeurs, nous avons retenu des éléments de configuration type, indépendamment de la plateforme, afin de respecter l'équité entre les différentes configurations. La carte graphique, comme indiquée précédemment, est donc la référence la plus rapide à l'heure actuelle, à savoir une GeForce RTX 4090. Les tests sont systématiquement exécutés sur un très véloce SSD Western Digital Black SN850 1 To, connecté à un port NVMe câblé en PCIe 4.0 (4 lignes). Enfin, l'alimentation est un modèle Seasonic Prime PX de 1 000 W, disposant de la certification 80+ Platinum et adapté à des configurations pouvant engloutir de nombreux Watts.

Côté mémoire, G.Skill nous a procuré des kits mémoires nous permettant de mener à bien nos tests et ceci qu'il s'agisse de DDR4 comme DDR5, adaptés à une configuration Intel (disposant d'un profil XMP) comme AMD (profil EXPO). Jetons donc un coup d'œil à cela.

  • G.Skill Trident Z RGB / DDR4-3200 / 14-14-14-34
  • G.Skill Flare X5 / DDR5-6000 / 30-38-38-96
  • G.Skill Trident Z5 RGB / DDR5-7200 / 34-45-45-115
  • G.Skill Trident Z5 Neo RGB / DDR5-6400 / 32-39-39-102 (tests IGP)

Concernant les fréquences de fonctionnement de la mémoire, il existe plusieurs approches possibles : soit respecter à la lettre les spécifications officielles des concepteurs, souvent très conservatrices puisque devant prendre en considération le côté exotique de certaines barrettes, soit au-delà et souvent plus en phase avec l'usage qui sera fait par de nombreux acquéreurs. Nous avons opté pour cette dernière approche, en choisissant une fréquence de fonctionnement commune (pour un même type de mémoire) entre les concurrents, puisque l'on teste ici les CPU et ce même si la capacité à gérer des fréquences mémoire élevées n'est pas identique entre plateformes.

Compte tenu de la particularité de la plateforme LGA1700 d'Intel, pouvant utiliser soit de la DDR4 soit de la DDR5, nous avons décidé (arbitrairement nous en convenons) de coupler les processeurs K à la dernière citée et les autres à la première. Cela nous a paru logique vis-à-vis des prix respectifs des composants. Toutefois, vous retrouverez 2 lignes pour le Core i5-12400F, celles incluant la mention (DDR5) vous permettant de juger l'impact de la mémoire sur ce type de processeur.

G.Skill Trident Z RGB G.Skill Flare X5 G.Skill Trident Z5 RGB

• Plateforme LGA1700 (DDR5)

ASUS ROG MAXIMUS Z790 HERO (BIOS 0904) + Asus TUF Gaming Z790-Pro WiFi (BIOS 1611) pour Gen 14 & tests IGP
G.SKILL Trident Z5 RGB - 2 x 16 Go @DDR5-6000 (30-38-38)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus Maximus Z790 Hero

• Plateforme LGA1700 (DDR4)

MSI MAG B660M Mortar WiFi DDR4 (BIOS 7D42v1C)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

MSI MAG B660M Mortar WiFI DDR4

• Plateforme LGA1200

ASUS ROG MAXIMUS XIII HERO (BIOS 1701)
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Maximus XIII Hero

• Plateforme LGA2066

Gigabyte AORUS X299 Gaming 7 (BIOS F9r)
G.SKILL Trident Z RGB - 4 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Gigabyte AORUS X299 Gaming 7

• Plateforme AM5

ASUS ROG CROSSHAIR X670E EXTREME (BIOS 1202/1410) + ASRock B650 Pro RS (bios 2.08.AS01)
G.SKILL Flare X5 - 2 x 16 Go @DDR5-6000 (30-38-38)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

Asus ROG Crosshair X670E Extreme

• Plateforme AM4

ASUS ROG CROSSHAIR VIII DARK HERO (BIOS 4402) + MSI B550 Tomahawk (BIOS AF0) pour les tests IGP
G.SKILL Trident Z RGB - 2 x 16 Go @DDR4-3200 (14-14-14)
GeForce RTX 4090 FE
Samsung 980 Pro / Western Digital SN850 Black / Samsung 970 Evo Plus
Seasonic Prime PX-1000 W

 Asus ROG Crosshair VIII Dark Hero

• Dissipateur

Le refroidissement CPU est assuré par un excellent modèle de chez Noctua : le NH-U12A, capable de concurrencer la plupart des AIO avec les processeurs mainstream modernes, et très pratique à utiliser dans le cadre de nos tests, via les kits de fixations du constructeur lui permettant de s'adapter à la plupart des plateformes. La pâte thermique est également d'origine Noctua, il s'agit de la non moins excellente NT-H2.

Noctua NH-U12A

• Processeurs testés

Après cette brève, mais nécessaire remise en contexte terminée, détaillons à présent les caractéristiques principales des CPU testés au sein du tableau suivant.

CPU Micro Architecture (ou nom de code) Fréquence Turbo max. (GHz) Cœurs Performance Coeurs Efficients Threads Cache L3 (Mo) Canaux mémoire Puissance max. courte durée (Watts) Puissance max. longue durée (Watts)
Ryzen 7 8700G Zen 4 5,1 8 - 16 16 2 - 88
Ryzen 5 8600G Zen 4 5,0 6 - 12 16 2 - 88
Ryzen 5 8500G Zen 4 5,0 2 4 12 16 2 - 88
Ryzen 9 7950X3D Zen 4 5,7 16 - 32 128 2 - 162
Ryzen 9 7950X Zen 4 5,7 16 - 32 64 2 - 230
Ryzen 9 7900X Zen 4 5,6 12 - 24 64 2 - 230
Ryzen 7 7800X3D Zen 4 5,0 8 - 16 96 2 - 162
Ryzen 7 7700X Zen 4 5,4 8 - 16 32 2 - 142
Ryzen 5 7600X Zen 4 5,3 6 - 12 32 2 - 142
Ryzen 9 5950X Zen 3 4,9 16 - 32 64 2 - 142
Ryzen 9 5900X Zen 3 4,8 12 - 24 64 2 - 142
Ryzen 7 5800X3D Zen 3 4,5 8 - 16 96 2 - 142
Ryzen 7 5800X Zen 3 4,7 8 - 16 32 2 - 142
Ryzen 7 5700G Zen 3 4,6 8 - 16 16 2 - 88
Ryzen 5 5600X Zen 3 4,6 6 - 12 32 2 - 88
Ryzen 9 3950X Zen 2 4,7 16 - 32 64 2 - 142
Ryzen 9 3900X Zen 2 4,6 12 - 24 64 2 - 142
Ryzen 7 3800X Zen 2 4,5 8 - 16 32 2 - 142
Ryzen 5 3600X Zen 2 4,4 6 - 12 32 2 - 128
Ryzen 5 3400G Zen + 4,2 4 - 8 4 2 - 88
Ryzen 3 3300X Zen 2 4,3 4 - 8 16 2 - 88
Ryzen 3 3100 Zen 2 3,9 4 - 8 16 2 - 88
Ryzen 7 2700X Zen + 4,3 8 - 16 16 2 - 142
Ryzen 5 2600X Zen + 4,2 6 - 12 16 2 - 128
Core i9-14900K Raptor Lake Refresh 6,0 8 16 32 36 2 253 253
Core i7-14700K Raptor Lake Refresh 5,6 8 12 28 33 2 253 253
Core i5-14600K Raptor Lake Refresh 5,3 6 8 20 24 2 181 181
Core i9-13900KS Raptor Lake 6,0 8 16 32 36 2 253 253
Core i9-13900K Raptor Lake 5,8 8 16 32 36 2 253 253
Core i7-13700K Raptor Lake 5,4 8 8 24 30 2 253 253
Core i7-13700 Raptor Lake 5,2 8 8 24 30 2 219 65
Core i5-13600K Raptor Lake 5,1 6 8 20 24 2 181 181
Core i5-13400F Raptor Lake 4,6 6 4 16 20 2 148 65
Core i3-13100F Raptor Lake 4,5 4 - 8 12 2 89 58
Core i9-12900KS Alder Lake 5,5 8 8 24 30 2 241 241
Core i9-12900K Alder Lake 5,2 8 8 24 30 2 241 241
Core i7-12700K Alder Lake 5,0 8 4 20 25 2 190 190
Core i5-12600K Alder Lake 4,9 6 4 16 20 2 150 150
Core i5-12400F Alder Lake 4,4 6 - 12 18 2 117 65
Core i3-12100 Alder Lake 4,3 4 - 8 12 2 89 60
Pentium G7400 Alder Lake 3,7 2 - 4 6 2 46 46
Core i9-11900K Rocket Lake 5,3 8 - 16 16 2 251 125
Core i5-11600K Rocket Lake 4,9 6 - 12 12 2 251 125
Core i9-10980XE Cascade Lake 4,8 18 - 36 24,75 4 165 165
Core i9-10900K Comet Lake 5,3 10 - 20 20 2 250 125
Core i7-10700K Comet Lake 5,1 8 - 16 16 2 229 125
Core i5-10600K Comet Lake 4,8 6 - 12 12 2 182 125

N'ayant pas de Core i7-10700K a disposition, nous avons utilisé un Core i7-10700 sur lequel nous avons poussé les limites de consommation au niveau de son grand frère. Si cela n'en fait pas un modèle K, il s'en approche beaucoup lors des tests les plus parallélisés, moins en monothread du fait de fréquences notablement plus basses dans ces conditions. C'est pourquoi vous retrouvez cette référence identifiée par une * dans nos graphiques.

• Logiciels

Windows 11 - Build 22621.1413
Pilotes Nvidia 531.29 (551.23 pour GTX 1650)
Pilotes AMD 24.1.1 (IGP)
Pilotes Intel 101.5234 (IGP)
Pilotes chipset AMD 5.09.20.417
Pilotes chipset Intel 10.1.19199.8340

Nous employons Windows 11 en version Pro qui est un environnement propice à l'utilisation de toutes les capacités de nos CPU, en particulier les multicœurs massifs, qui pouvaient s'avérer quelque peu bridés par le scheduler de Windows plus anciens. Il gère également bien mieux l'affectation des processus au sein des processeurs Ryzen, ainsi que la latence au niveau des changements de fréquence. De même, l'hétérogénéité des processeurs Intel est bien mieux prise en compte. Les mises à jour ont été installées jusqu'au 11/04/2023 (hors jeux), puis bloquées pour maintenir la même configuration entre CPU. Nous rechargeons une image disque initiale à chaque changement de carte mère / microarchitecture.

• Benchmarks Linux

Acheter un CPU doté de très nombreux cœurs en 2023 n'est pas forcément exclusif à un usage ludique windowsien. Or, dans divers domaines, dont la programmation, nombreux sont les professionnels ou professionnels en devenir à s'aventurer sur l'OS manchot. Nous avons décidé pour cette nouvelle fournée de tests d'en reconduire certains sous Linux, notre image maison ayant migré sous Ubuntu, du fait d'un suivi logiciel plus régulier indispensable à la compatibilité de nos nouveaux venus. Nous nous appuyons sur la version 22.10, toutes les mises à jour jusqu'au 21/04/2023 ayant été appliquées.

Concernant les différents tests, nous avons utilisé les exécutables compilés en 64-bit (si existants) des différentes applications. Nous limitons l'usage de RAM à la même valeur entre plateformes au niveau des logiciels, afin de ne pas créer de distorsion à ce niveau, si d'aventure les capacités totales n'étaient pas identiques. Lorsque des options d'accélération GPU sont disponibles au sein des logiciels, ces dernières sont systématiquement désactivées pour se concentrer sur les prestations CPU "pures". Nous désactivons au sein des cartes mères tous les contrôleurs inutilisés (stockage, Wi-Fi, BT, etc.) ainsi que les LED ou autres artifices visuels. Tous les benchs sont reproduits entre 2 et 3 fois (selon la répétabilité du test) et le score de la meilleure de ces passes est reporté dans les graphiques, en excluant les scores faisant état d'un écart par trop "anormal".

Pour le domaine ludique, nous reportons cette fois la moyenne (5 passes) arrondie, mais aussi la valeur (arrondie également) du premier centile (1% Low) d'images par seconde. Nous utilisons la définition 1920x1080, qui est d'une part la plus répandue (de très (très) loin) et qui permet d'autre part de différencier les CPU entre eux, en s'affranchissant au maximum de la limitation GPU, via l'utilisation d'une carte graphique très véloce (l'objectif de ce test étant bien d'évaluer les CPU et non les GPU).

Pour tester les GPU intégrés aux APU, nous utilisons par contre les derniers pilotes disponibles pour chaque constructeur (ainsi que pour la GTX 1650 qui sert d'étalon pour ces IGP).

C'est fini pour la description du protocole, mettons donc en action ces CPU/APU.


Tests synthétiques

Nous débutons nos tests synthétiques par AIDA64 et ses outils de "bande passante mémoire" dans un premier temps. La configuration retenue pour les processeurs est pour rappel la suivante : 3200 MHz (14-14-14) pour la DDR4, côté DDR5 c'est 6000 MHz (30-38-38). Les nouveaux venus se comportent globalement un peu mieux que leurs équivalent à chiplets, hormis du côté de la latence. Toutefois, les derniers venus profitant d'AGESA plus récents, nous confirmerons (ou non) cette tendance lors de la mise en place de notre nouveau protocole 2024.

3ae51f4cf03bdd2de034c624db8de30e

Poursuivons avec deux benchmarks synthétiques permettant une comparaison plus aisée des utilisateurs avec leur propre matériel. Le premier test est issu du mondialement célèbre CPU-Z. Nous reportons à la fois les résultats monothread et multithreads. Du fait de fréquences moindres que leurs équivalents de la série 7000, les Ryzen 8000G sont en retrait d'une dizaine de pourcents par rapport à ces derniers. Le 8500G cède par contre plus de 20 % au 8600G en multithreading du fait de ses coeurs c cadencés bien plus bas.

b99aa8ef96e424d42d1b3eacf3632864

Le second test est le non moins célèbre Cinebench R23. Et comme pour le test précédent nous reportons les résultats en ne sollicitant qu'un seul cœur puis tous. Sans surprise, les mêmes causes produisent les mêmes effets avec des écarts du même ordre, y compris entre 8500G et 8600G

a8845ccacb71656799b7e82e7a5ea98a

Voilà, c'est terminé pour les benchs synthétiques, passons à présent aux tests pratiques.


Performances productives

Vous retrouverez dans le graphique suivant les résultats de nos 16 tests pratiques couvrant un large éventail d'activités.

Les performances des Ryzen 7 8700G et Ryzen 5 8600G ont été mis à jour avec le dernier bios désactivant le STAPM. En moyenne le premier cité progresse de 3,2 % et le second de 2,7 %.

8efedc033e85c28b4fba1a4ef74b48b5

Afin d'établir une hiérarchie rapide, nous avons calculé un indice en pondérant le résultat de chaque test précédent. Le Ryzen 5 8600G laisse un avantage de 9 % au Ryzen 5 7600X, quant au Ryzen 7 8700G, il voit le 7700X le devancer de 12 %. C'est donc un écart légèrement moindre que celui qui existait entre les 5700G et 5800X (dont le R7 7700X est le véritable successeur). Le Ryzen 5 8500G lâche de son côté 17 % au 8600G une fois ce dernier débarrassé du STAPM.

bcbb2a8833a32ea43abfabfefcb80383

Voilà pour les tâches que l'on qualifiera de sérieuses, mais comment diable se comportent nos nouveaux venus quand il s'agit de s'adonner à des activités plus fun ? Voyons cela page suivante.


Performances ludiques

Quid des performances ludiques mesurées avec nos différents protagonistes ? À noter que le Pentium G7400 n'a pas réussi à lancer Microsoft Flight Simulator, le chargement se terminant systématiquement par un plantage. Le jeu indique toutefois lors de sa phase d'initialisation que le processeur ne respecte pas le minimum requis, ce n'est donc pas surprenant. Le résultat varie selon les titres, mais globalement nos APU sont en retrait notable par rapport aux versions à même nombre de cœurs de la série 7000. Cela s'explique principalement par le cache L3 et les fréquences, tous deux en recul notable sur les nouveaux venus. Le Ryzen 8500G décroche quelque peu des 2 autres, probablement du fait de ses coeurs Zen 4c moins rapides mais aussi des 4 uniques lignes PCIe qu'il peut accorder à la RTX 4090. Rien de dramatique pour autant.

1c1a03da6c28540efd02fc257430edde

Avant toute chose, rappelons que nous choisissons ici de nous positionner volontairement en situation de limitation CPU, en utilisant des scènes et réglages adaptés, le tout couplé avec une carte graphique clairement surdimensionnée pour la définition utilisée. En condition plus "réaliste", ces situations interviennent bien plus rarement et le GPU s'avère généralement limitant bien avant le CPU, lissant ainsi les écarts entre la plupart des références testées. Toutefois, ce mode opératoire permet d'évaluer nos CPU dans des situations difficiles qui pourraient survenir à l'avenir, avec la complexification croissante des jeux.

À l'instar des tests de production, nous avons réalisé également un indice pour hiérarchiser les différents processeurs selon leurs aptitudes au jeu. Pour rappel, le Pentium G7400 est affligé d'un zéro pointé sur Microsoft Flight Simulator, ce qui impacte largement son indice. Le Core i5-8600G va faire jeu égal avec le R5 5600X, lâchant ainsi 22 % au R5 7600X. Le Ryzen 7 8700G ne fait que marginalement mieux, de quoi contenir l'avantage du R7 7700X sous les 20%. Quid du 8500G ? Il est devancé d'une dizaine de pourcents du fait des raisons évoquées précédemment. Toutefois, on achète rarement un APU pour lui accoler une carte graphique dédiée, puisque l'objectif est bien de pouvoir s'en passer (mais cela peut être utile de connaitre ce comportement si on veut conserver le processeur en lui adjoignant une carte dédiée dans le futur). Est-ce possible ? C'est ce que nous allons vérifier un peu plus bas.

75d756515afdeb4ff19cf270306a1dbb

Performances IGP

Autant être clair tout de suite, ces APU ne vous permettront pas de jouer aux tous derniers jeux AAA dans une définition très élevée et avec les curseurs au maximum. Peuvent-ils par contre contenter des joueurs moins exigeants sur des titres plus anciens ou moins gourmands ? Pour vérifier cela, nous avons retenus 8 jeux pouvant faire office d'échantillon représentatif de ce que l'on peut attendre de tels APU en 1080P et pour différents genres. En guise d'étalon, nous avons également ajouté une GTX 1650 qui était la carte d'entrée de gamme Nvidia pour les joueurs en 2019. Elle reste une des références les plus utilisées à ce jour si on se fie à l'enquête STEAM. Nous avons retenus de la DDR5-6400 et DDR4-3200 pour accompagner nos processeurs, mais vous retrouverez un peu plus bas un graphique mesurant l'impact de la fréquence mémoire sur ces Ryzen 8000G.

Nous avons repris tous les tests en jeu des IGP des Ryzen 8000G en utilisant la carte mère de Gigabyte qui s'avère nettement plus performante pour nos APU avec son dernier Bios (sur certains jeux où la gestion de la mémoire allouée semble bien plus efficace).

99c698a3230a738aaf7e1792e288f60b

Eh bien tout ceci n'est pas mal du tout, puisque les nouveaux venus ne font qu'une bouchée de leur concurrent (les déclinaisons de l'UHD 770 incluses aux Core i9-14900K / Core i7-14700K ne sont que marginalement plus rapides) tandis que l'avantage sur la précédente génération d'APU rouge pour PC de bureau est également criant. Mieux, le 8700G se permet de devancer à 2 occasions la GTX 1650, montrant les progrès notables accomplis. Le 8500G est un bon ton au-dessous, néanmoins, les écarts certes conséquents sont loin du différentiel de caractéristiques des IGP. La bande passante mémoire reste donc une problématique importante pour ce genre de solution. A noter également que les 1% Low sont généralement plus élevés sur la carte dédiée, qui propose une sensation de fluidité bien souvent supérieure même si cela ne se retrouve pas forcément dans les moyennes. C'est donc un point à prendre également en compte, ces solutions imposent généralement pus de compromis qu'un carte dédiée.

D'ailleurs qu'est-ce que ça donne contre une carte graphique de dernière génération ? Comme la plupart de nos cartes graphiques d'entrée de gamme sont parties en vacances dans le sud de la France chez notre Thibaut national qui s'est chargé du test de la RX 7600 XT, nous nous sommes tournés vers Asus qui a réussi à nous procurer en un temps record une RTX 4060 Dual, c'est à dire un des modèles les moins onéreux disponible pour cette référence. Nous les remercions donc chaleureusement. Côté processeur, nous optons pour un R5 7600 très proche en définitif d'un R5 7500F, ce qui permet d'envisager un couple CPU + carte graphique dédiée de dernière génération aux alentours de 500 €. Ca reste 150 € plus cher qu'un Ryzen 7 8700G, mais pour quelles prestations en définitives ? Le graphique suivant reprend une partie des résultats précédents, mais nous avons souhaité le dissocier pour éviter d'écraser trop les échelles, du fait du différentiel de performance très important entre les solutions.

04815785acae286a061226bc23202087

Clairement on ne joue plus dans la même cour entre les 2 options (d'autant que la 4060 est limitée par le CPU ou le moteur du jeu à plusieurs reprises, cette dernière étant prévue pour un niveau de détails tout autre dans cette définition), même si l'APU conserve un avantage sensible au niveau du besoin énergétique global (et financier). Il sera dans tous les cas très important de bien jauger son besoin avant de s'orienter vers un APU au lieu d'un couple CPU + carte dédiée.  Notons aussi qu'AMD met en avant son AFMF qui propose le Frame Generation dans la plupart des jeux. Nous vous avions fait part de notre avis sur la technologie et nous réitérons ce dernier. Si la solution peut dépanner, elle ne change finalement pas la donne dans de nombreux titres du fait de sa désactivation dés qu'un mouvement rapide est effectué, entraînant un yoyo du framerate plus désagréable qu'autre chose.

AMD conseille d'ailleurs d'obtenir sans ce dernier au moins 60 i/s pour l'activer, ce qui est pour le moins contre-intuitif pour un  APU qui va bien souvent peiner à atteindre un tel débit. Il y a bien Hyper-RX couplant AFMF et FSR pour aider à ce niveau. Autant vous dire que la solution nous convient encore moins. Les technologies d'upscaling se montrent pour le moins brouillonnes en 1080P du fait d'un nombre plus réduit d'échantillons, mais le FSR (1) n'emploie pas de composante temporelle ce qui le rend par nature encore moins bon que les FSR 2+. Bref vous l'aurez compris, une bonne implémentation du FSR 3 rendra des jeux bien plus jouables sur cet APU que l'AFMF et Hyper-RX, même si ces technologies ont le mérite d'exister et pourront donc satisfaire certains joueurs qui ne sont pas gênés par les contreparties.

Quid à présent de l'impact de la fréquence mémoire sur les performances de l'IGP ? Nous avons testé pas moins de 6 options, allant de la DDR5-4800 à la 7200. A noter qu'à partir de la DDR5-6400, notre contrôleur mémoire imposait le passage au ratio 1:2 faute de stabilité. C'est ce qui explique aussi la promiscuité des résultats entre DDR5-6000 et 6400. GTA 5 se comporte également étrangement, mais le résultat est systématiquement reproductible, même en multipliant les essais. Si 25 % séparent en moyenne la DDR5-4800 de la DDR5-7200, l'écart moyen en faveur de cette dernière n'est plus que de 10 % face à la 6000 bien moins onéreuse.

Nous n'avons pas repris les tests ci-dessous avec la carte mère Gigabyte faute de temps, mais quelques tests rapides avec cette dernière ne semblent pas indiquer des écarts différents entre les fréquences mémoires que ceux rapportés ici. Nous tâcherons de vérifier cela une fois les Agesa pour ces 8000G plus mâtures.

9598aa9c81bd4cfe36904fcd77adcd54

Voilà pour les performances en jeu, passons aux mesures de consommation page suivante.


Consommation & températures

Intéressons-nous à présent au besoin énergétique des différents processeurs. Nous mesurons ici la consommation totale à la prise, mais aussi sur les lignes 12 V dédiées au CPU. Précisons que nous nous limitons à présent aux seuls connecteurs ATX 4/8 broches, pour nous concentrer exclusivement sur la puissance absorbée par les processeurs, mais ces derniers peuvent également l'être par le biais du connecteur à 24 pins. Il est toutefois difficile pour ce dernier d'isoler la puissance réellement absorbée par les seuls CPU d'où notre choix, même s'il n'est pas parfait. C'est ce qui explique certaines disparités que vous constaterez selon les plateformes au niveau de la consommation à la prise et celle que nous indiquons 12 V (au-delà de la consommation des autres éléments et des pertes dues au bloc d'alimentation). Commençons par la consommation au repos. Si les Ryzen 7000 ne brillaient pas à ce niveau du fait de leur structure en chiplet mais aussi de la carte mère à 2 puces sur X670(E), c'est bien mieux pour les nouveaux venus. Sur carte mère B650, il n'y a plus qu'une seule puce Promontory 21 et on retrouve un design monolithique, ramenant les Ryzen 8000G au niveau des meilleurs à ce niveau.

075220f9a8e6f521bb92e621a0ce4acb

En charge à présent, et ce durant la seconde passe de l'encodage H.264 : les deux CPU vont absorber peu ou prou la même quantité d'énergie, nettement en retrait par rapport à leurs équivalents de la série 7000 qui disposent d'une enveloppe de puissance bien plus élevée. Le R5 8500G tire ici clairement son épingle du jeu avec ses coeurs sous cadencés. Attention toutefois à la comparaison en 12 V, puisque la carte mère étant différente, la répartition de la puissance absorbée via les lignes 12 V peut varier et nous ne prenons pas en compte celle du connecteur ATX 24 broches comme précisé plus haut.

ce7d25ebdae76b6cb50921fe2d2e71c2

Nous croisons enfin les résultats de performance obtenus durant l'encodage, avec la puissance absorbée durant ce dernier pour établir un indice d'efficacité énergétique. Sans surprise, les nouveaux venus profite de leur TDP à 65 W pour se montrer plus efficient que les 7600X et 7700X, même s'il y a match entre le 8700G et le 7800X3D pour cette tâche.

8fceab236dad93f77270b940216852bc

Finissons par les températures mesurées là aussi durant l'opération d'encodage (il s'agit de la valeur de crête mesurée). Avec une puissance plutôt réduite à dissiper, nous nous attendions à un peu mieux de la part des nouveaux venus, à l'exception du 8500G. Peut-être une interface die / heat-spreader moins performante ?

af1a9a60d33a98e51f2400068d4e65a6

Il est temps de passer au verdict page suivante.


Verdict

Alors que penser de ces Ryzen série 8000 ? Si la dénomination retenue est pour le moins étrange, heureusement les qualités du die conçu par AMD et intronisé sur les Ryzen 7000 mobiles l'an passé, restent les même en 2024, faute de concurrence renouvelée sur PC de bureau suite à l'annulation de Meteor Lake pour cette plateforme. Avec ce lancement, la boucle Zen 4 est complète, puisque l'on trouve à présent les versions originelles dotées d'un IGP purement multimédia, les déclinaisons X3D dédiées au jeu (avec l'appoint d'une carte dédiée) et enfin ces APU dont l'IGP permet de jouer dans des conditions décentes, pour peu que l'on se cantonne à une définition standard et des détails faibles. Zen 5 devrait émerger cette année, mais au moins les Ryzen 8000G pourrons pour quelques mois encore, se targuer d'utiliser les dernières architectures CPU et GPU en date du concepteur.

C'est une première depuis l'intronisation du projet Fusion et le résultat est conforme aux attentes, avec un APU pouvant enfin se passer d'une carte graphique dédiée pour le casual gamer, si tant est qu'il n'ait pas la main trop lourde sur les réglages ou qu'il se limite à des jeux plus anciens ou de type MOBA. Qui plus est, AMD met à disposition des utilisateurs sa panoplie complète de technologies accessibles sur une carte dédiée Radeon, y compris le tout récent AFMF. Si ce dernier ne nous convainc pas vraiment, force est de constater qu'il peut s'avérer un précieux atout pour l'utilisateur qui saura faire avec les désagréments qu'il entraîne. De quoi donner un coup de boost supplémentaire à la partie graphique, lorsque cette dernière s'avère un peu juste. L'idéal serait bien entendu un APU reprenant les dernières architectures et disposant d'une enveloppe de puissance bien plus élevée pour lui autoriser une partie graphique plus conséquente, à l'image des SOC pour console. Le prix sera probablement bien plus élevé, mais une telle option trouverait probablement son public désireux d'économiser l'onéreux poste de dépense que constitue la carte graphique dédiée (qui conservera malgré tout ses adeptes en terme de puissance brute, sauf à concevoir un monstre de silicium façon Apple).

La partie CPU de son côté ne souffre pas excessivement de la réduction du cache L3 et des fréquences. C'est en jeu avec une carte dédiée que l'impact est le plus notable, mais les clients visés par ces APU veulent justement se passer d'une telle carte. On notera d'ailleurs qu'il n'y a "que" 8 lignes PCIe Gen 4 dédiées à cet usage, voire 4 pour les deux plus petits. C'est le principal reproche que l'on peut faire à cette série, c'est à dire un nombre total de lignes de ce type plutôt chiche, en particulier pour les 8500G et 8300G. Pour le reste, les Ryzen 8000G atteignent donc avec brio leur objectif et constituent à n'en pas douter d'excellentes options pour ceux dont le besoin colle avec les prestations proposées.

Vous l'aurez compris en parcourant ce dossier, ces nouvelles références sont une réussite, avec pour ne rien gâcher une tarification plutôt agressive, tout du moins face au reste de la gamme Zen 4. A 329 $, le 8700G dispose d'un MSRP sensiblement moindre que celui du 7700X (399 $). Mise à jour : AMD vient de nous communiquer le prix TTC en France, soit 364,90 €. Bien entendu, le prix en boutique de ce dernier a pu baisser depuis son lancement en 2022, malgré tout le nouveau venu devrait s'avérer sensiblement moins cher une fois l'effet nouveauté disparu. Comment se place-t-il face à la concurrence ? Il est positionné en face du Core i5-14600K (319 $). D'un point de vue performances CPU pures, la référence bleu dispose d'un avantage conséquent, avec +29 % en production et +25 % en jeu. Sur ce critère de choix, il n'y a donc pas photo entre les deux références. Par contre, le Ryzen 7 8700G peut faire valoir une consommation électrique bien moindre (un delta de 100 W sur la configuration complète c'est tout sauf négligeable) et surtout une prestation ludique de son IGP sans commune mesure. Selon l'usage visé, le choix sera donc évident pour une option ou l'autre. 

Quid du Ryzen 5 8600G ? Son MSRP de 229 $ devient 254,90 € TTC en France, soit 30 % moins cher que son grand frère ce qui n'est pas négligeable, avec une performance productive en baisse de 18 %. Face au 7600X, il ne lui cède que 9 % en production alors que ce dernier est sensiblement plus cher (299 $). En fait le 8600G se retrouve au même tarif que le 7600 (sans X), ce dernier conserverait normalement un petit avantage si on se base sur les tests des médias ayant été samplés. Bref, à nouveau le choix se basera sur l'usage premier de l'utilisateur. Côté concurrence, c'est au Core i5-14500 qu'il va se frotter d'un point de vue tarifaire (232 $). Nous n'avons pas encore reçu un tel CPU, et il est relativement difficile d'inférer sa position car il utilise un die type Alder Lake disposant de moins de cache L2 que les Raptor Lake, dans une configuration 6P + 8E que nous n'avons pas encore testée. L'ajout de 4 cœurs efficients à un 13400 dans une enveloppe de puissance inchangée, nous ferait penser que les deux concurrents seront aux coudes à coudes en production, le 8600G disposant par contre d'un IGP réellement capable de se substituer à une carte graphique d'entrée de gamme, à contrario de son concurrent.

Terminons par le Ryzen 5 8500G. le prix officiel de ce dernier en France est fixé à 199,90 € TTC. A ce tarif, vous disposerez d'un 6 coeurs / 12 threads parfaitement adapté à de la bureautique et à un usage multimédia avancé, les coeurs Zen 4c se montrant tout à fait capables et ce même pour des tâches lourdes. Son besoin énergétique est également très contenu, tout comme sa température de fonctionnement. Son IGP ne fera pas de miracle en jeu, mais il est possible de s'adonner aux MOBA très confortablement et même d'envisager des jeux traditionnels peu gourmands (et/ou avec des réglages faibles) ou plus anciens, chose beaucoup plus difficile avec l'IGP des Ryzen 7000 traditionnels. La contrepartie sera un nombre de lignes PCIe réduit, ce qui ne posera pas vraiment de soucis à l'utilisateur "moyen", mais pourrait s'avérer limitant pour ceux souhaitant multiplier les solutions de stockage NVMe ou les cartes d'extension PCIe. C'est un compromis qu'il faudra donc accepter, mais l'option n'est pas dénuée d'intérêt pour ceux dont l'usage collerait bien avec les éléments décrits précédemment.


Nous remercions naturellement nos partenaires pour la mise à disposition des éléments ayant permis la réalisation de ce dossier.

  •  
❌
❌