Cet E3 était quelque peu anormal. Nous sommes maintenant sur la voie de la transformation de cet événement, de moins en moins central dans un monde qui se nourrit d'informations et de fuites constantes. Cependant, il existe toujours cette aura d'un événement exclusif, avec les yeux du monde entier, qui permet à E3 de continuer à être un bon moment pour présenter des informations à une masse de journalistes et même au plus grand public, pas seulement dans le secteur. C'est dans ce cadre qu'AMD a décidé de présenter ses nouveaux produits.

AMD est le fournisseur de processeurs et de GPU pour les consoles de Microsoft et Sony. Il le sera également pour la prochaine génération, laissant Intel et Nvidia seuls dans le monde des PC, même si ce dernier a réussi à prendre la part des joueurs de Nintendo. Avec cet article, nous allons essayer de comprendre quelles sont les améliorations et leur impact sur les futures consoles de jeux et ordinateurs.

Beaucoup de noyaux pour tout le monde

La nouvelle offre AMD s'étend sur les deux gammes de produits: CPU et GPU, avec la série de processeurs 3000 et les GPU 5700. Les Ryzen basés sur l’architecture Zen 2 ont déjà été présentés fin mai pour le Computex 2019. Ils ont pris l'E3 pour présenter leur processeur phare: le Ryzen 3950X. Noyau 16. Fils 32. 4.7Ghz de boost, base 3.5Ghz. 105 Consommation. Prix ​​749 $.

Mon doute à ce stade est: pourquoi le présenter comme un processeur de jeu? Les jeux vidéo modernes, s’ils utilisent le noyau 6, sont un miracle. Ici, il y aurait aussi 10, s’arrêtant pour tourner les pouces. La solution a été rapidement annoncée et dévoilée au début de la conférence: le streaming. Aujourd'hui, tout le monde veut essayer de faire passer son jeu à Twitch. Le codage d'un flux vidéo tout en jouant à un jeu lourd, garantissant une haute qualité à ses téléspectateurs, nécessite beaucoup de puissance de calcul. La tâche tombe sur le processeur.

RDNA Ryzen 3000
Des tests préliminaires avec une configuration non spécifiée, mais AMD affiche une performance équivalente, de sorte que la vente de son 3900X dépend d’autres facteurs.

Les streamers qui exercent leur métier disposent souvent de deux ordinateurs: un pour le jeu et un pour gérer le streaming. Avec les processeurs centraux 12 et 16, disponibles sur une plate-forme grand public, AMD s'attaque à ce besoin: tout faire sur un seul ordinateur. Dans la démo présentée, un 3900X (noyau 12) était capable de gérer un flux en Full HD sur 10Mbps avec le préréglage Slow de The Division 2, un jeu capable d'exploiter de manière adéquate une exacerbation. Le processeur Intel était particulièrement occupé par le jeu pour assurer un flux de cette qualité, tandis que le 3900X disposait de beaucoup de puissance libre.

Pour les streamers professionnels, la proposition est très intéressante, principalement parce qu’elle a considérablement réduit le coût d’obtention d’une solution multicœur. Pour l'utilisateur moyen, aspirer à acheter un tel processeur juste pour le streaming est en grande partie inutile. L'encodeur matériel des cartes Nvidia Turing garantit une excellente qualité visuelle (égale au logiciel moyen x264) avec une demande très faible en ressources. Ce noyau est pour toutes les couleurs qui ont besoin de tant de noyaux, donc de travail professionnel, mais pas autant de bande passante dans la mémoire.

ADN Radeon

La partie centrale de la conférence a été la plus intéressante, car elle a présentéune nouvelle famille de processeurs graphiques d'AMD: Ships. Le 7 July arrivera dans les variantes 2: le 5700 et le 5700 XT. Avec Navi, AMD a finalement changé d’architecture. Nous passons du GCN (matériel né dans 2012) maintenant obsolète et inadéquat au RDNA. En termes de nombre, AMD déclare une augmentation de 25% de la performance par horloge et une 50% de meilleure performance par watt. Le changement d'architecture peut être vu par le nombre de transistors. Dans le 251 mm2 seulement, ils ont réussi à placer des milliards de transistors 10,3, une augmentation de 80% par rapport à la précédente Radeon 580.

Le talon d'Achille de l'architecture GCN a toujours été l'efficacité de l'utilisation de leur puissance de calcul. Sur papier, leurs cartes devaient littéralement déchiqueter Nvidia sur tous les segments du marché. Des locaux qui, en réalité, n'ont pas été conservés.
AMD a donc considérablement rationalisé les autoroutes qui acheminent les données vers les unités de calcul de l’architecture.

AMD RDNA
Graphiquement, le changement de logique dans le chemin de données entre les architectures est beaucoup plus évident

GCN avait de larges fronts d'onde 64 et leurs unités SMID avaient des emplacements 16. En RDNA, ce sont tous les deux d'excellents threads 32. Ok, de grands mots. Essayons d’examiner le concept que nous voulons mettre en évidence avec ces changements techniques sans aller trop loin. Le front d'onde est l'ensemble d'instructions regroupées et prêtes à être envoyées aux unités de calcul. L'ancienne architecture nécessitait des cycles 4 pour transmettre des instructions à tous les SMID (64 / 16). De plus, si vous ne pouvez pas regrouper les instructions dans des blocs à partir de threads 64, vous perdez beaucoup de temps avec des parties du GPU en attente.

Pour que tout fonctionne mieux, les développeurs avaient besoin de beaucoup de travail., pour trouver quelque chose à faire avec les pipelines bloqués. C'est pourquoi le très parlé d'Async Compute sur les GPU d'AMD a un effet extrêmement bénéfique. Cela vous permet de profiter des pauses. Ayant réduit la taille du front d’onde dans le RDNA, il permet de grouper plus facilement les charges de travail, tandis que l’augmentation de la taille du SMID permet d’occuper le cycle 1 uniquement pour transmettre les données. C’est la clé de voûte qui permet à l’architecture d’être un réel pas en avant vers l’efficacité. Notez qu'AMD a maintenu la compatibilité avec le front d'onde en largeur 64. Silicium et plus de logique, mais il est essentiel de ne pas briser l'écosystème de la console en un seul coup et de permettre une compatibilité descendante avec tout le code optimisé pour GCN.

Le triangle non

L'autre faiblesse majeure de l'architecture GCN était la capacité de traitement des polygones, qui est restée pratiquement statique depuis la deuxième génération de CGN. C'est également la raison pour laquelle les jeux sur PS4 et Xbox One n'ont pas connu d'augmentation excessive de la masse polygonale, ce qui a favorisé les améliorations dans d'autres domaines. Sur PC, à la place, certains jeux proches de Nvidia pourraient offrir l’utilisation de la tessellation, et donc de nombreux petits polygones, pour enrichir la scène en détails, avec un poids de performance plus limité sur les cartes de l’équipe verte. RDNA s’améliore également dans ce domaine de deux manières différentes.

Tout d’abord, l’architecture est maintenant capable de gérer deux fois plus de polygones dans son cycle de travail par rapport à GCN. Les valeurs, cependant, inférieures à celles de Nvidia avec Turing, mais un énorme pas en avant. Ensuite, les shaders primitifs ont été réintroduits. Vega leur a été présenté, mais ils ont été désactivés parce qu’ils ne fonctionnaient pas. Ce sont des codes capables de traiter la géométrie de manière beaucoup plus efficace. Ces shaders sont capables d'éliminer tous les éléments inutiles pour la scène, à un taux élevé. Si cette fonctionnalité était enfin utilisée, nous parlerions des améliorations des performances de 30%.

A cela s'ajoute aussi un nouveau niveau de mémoire cache, ce qui devrait grandement aider la performance globale. Turing est un grand pas en avant pour Nvidia, principalement pour avoir rempli le GPU de caches mémoire proches des unités de calcul et rapidement. L’approche DMLA est moins invasive, mais constitue néanmoins une amélioration. Les autres fonctionnalités présentées sont des solutions logicielles diverses et possibles, difficiles à juger sans la moindre information, donc au survol, aussi parce qu’elles meurent presque toutes avec le temps.

Écharpe rouge

Je ne sais pas pour vous, mais toute cette matité pour un projet appelé Scarlett ...

Parlons de l'éléphant dans la pièce. Scarlett. Et cette déclaration de 4 fois la puissance de la Xbox One X. Laissez tout le monde faire immédiatement des calculs rapides à l'esprit. 6 × 4 = 24TF. SCARLETT 24 TERAFLOP. Alors, calme-toi. La nouvelle Navi 5700XT, a le pic 9,75TF. Consommez 225 uniquement en watts et coûte 449 $. Qu'est-ce que Scarlett aura jamais à l'intérieur? Compte tenu de l'efficacité par horloge d'avant, 25%, un RDNA à 10TF, doit être rendu sous la forme d'un 12,5 TF CGN. Ici, alors, que le 5700XT ou en tout cas sa variante semble un bon candidat. Mais le vrai pas en avant en est un autre. La transition du noyau Jaguar à un Ryzen. En utilisant le pouvoir du complot, on peut dire que les CPI d'un Zen 2 sont le plus grand noyau 95 des cœurs Jaguar. Cela signifie qu’un Ryzen de 1,17Ghz aura les mêmes performances que le noyau Xbox One X qui se rend sur 2,3Ghz. Maintenant, prenons le turbo 4,7Ghz du 3950X. Ce serait l'équivalent de 9,1Ghz d'une Jaguar. C'est-à-dire, presque fois 4.

C'est donc un peu juste, j'attends des fréquences réalistes autour du 3Ghz et un nombre de cœurs de 8. Si le SMT était activé, il parlerait de deux fois le cœur des consoles actuelles, même avec le 3Ghz un quadruplement de la puissance.

En bas, on parlait de 120fps. Et 120fps est 30 x 4.

Je dirais que le moment est venu de tirer des conclusions. Les produits d'AMD pourraient être le début d'un bon retour, même du côté des GPU. La mentalité derrière leur GPU a changé, s’alignant sur celle de Nvidia. La nouvelle architecture est conçue pour la vitesse, moins d’unités mais une efficacité accrue. L’augmentation des performances du côté de la géométrie apportera vraiment un grand saut polygonale dans les jeux exclusivement de nouvelle génération. Nous regardons les temps futurs avec un œil vif, parce que la technologie qui pilotera les prochaines consoles est finalement quelque chose de convenable et non un déchet d'entrepôt.

commentaires

réponses