Samsung confirme que l’Exynos 2200 apportera le Ray Tracing au Galaxy S22 l’année prochaine

0
85

Plus tôt cette année, la PDG d’AMD, Lisa Su, a confirmé sa collaboration avec Samsung pour introduire le lancer de rayons sur les téléphones. Samsung a maintenant annoncé dans un article sur Webio que l’Exynos 2200 sera le premier à prendre en charge le lancer de rayons.

L’Exynos 2200 comportera un GPU basé sur les architectures AMD RDNA 2 nommé « Voyager ». L’architecture RDNA 2 d’AMD est utilisée non seulement dans leurs GPU RX 6000, mais alimente également les graphiques sur PS5 et Xbox Series X.

Les processeurs HEDT AMD Ryzen Threadripper 5000 ‘Chagall’ auraient été retardés jusqu’en 2022

Exynos 2200 avec prise en charge du traçage de rayons pourrait changer le visage du jeu mobile

Le chipset lui-même s’appelle « Pamir » et pourrait être annoncé plus tôt l’année prochaine ou plus tard cette année. Semblable à l’Exynos 2100, l’Exynos 2200 serait doté d’un seul cœur hautes performances, de trois cœurs de milieu de gamme et de quatre cœurs d’efficacité. Quant au GPU RDNA 2, nous examinons 384 processeurs de flux, ce qui fait allusion à six accélérateurs de rayons.

Il ne fait aucun doute que la prise en charge du lancer de rayons va vous donner à l’Exynos 2200 un avantage sur le Snapdragon 898 de Qualcomm en termes de jeu. Le chipset devrait alimenter la série internationale de smartphones Galaxy S22 et la Galaxy Tab S8 Ultra.

Sur la base de toutes les rumeurs et astuces que nous avons entendues jusqu’à présent, la série Galaxy S22 deviendra officielle, plus tard cette année ou plus tôt cette année. Jusqu’à présent, nous avons essayé de suivre toutes les fuites et nous vous tiendrons au courant pour en savoir plus.

Pour en revenir au lancer de rayons et au RDNA 2, nous avons également entendu des rumeurs selon lesquelles AMD introduirait l’architecture RDNA 2 dans une série Galaxy A plus abordable, mais nous attendons toujours d’en savoir plus à ce sujet.

Pensez-vous que le Galaxy S22 devrait avoir autant de puissance graphique ? Faites-nous part de vos réflexions dans les commentaires ci-dessous.