NVIDIA présente Ray Tracing et DLSS sur ARM pour la première fois

Nerces
Spécialiste Hardware et Gaming
19 juillet 2021 à 17h25
34
© NVIDIA
© NVIDIA

La Game Developers Conference se tient – virtuellement – en ce moment et NVIDIA ne pouvait évidemment pas rester silencieux.

Alors que l'on a beaucoup parlé de l'investissement de NVIDIA dans la société ARM, aujourd'hui l'Américain dévoile des contours de son projet auxquels on ne s'attendait pas forcément.

MediaTek Kompanio 1200 et RTX 3060

Comme l'explique NVIDIA dans son communiqué, l'objectif de sa démonstration de la Game Developpers Conference est de montrer que techniques graphiques modernes et appareils plus économes en énergie ne sont pas nécessairement incompatibles.

Bien sûr, il n'est pas question de laisser un processeur ARM, seul, se dépatouiller avec Wolfenstein: Youngblood. Pour la vidéo que vous pouvez visionner ci-dessous, NVIDIA a donc décidé de lui adjoindre les services d'un GPU GeForce RTX 3060.

La seconde partie de la démo délaisse les « vrais » jeux. Baptisée Bistro, elle est conçue autour du moteur d'Amazon, le Lumberyard. Dans un cas comme dans l'autre, l'intérêt est donc que la machine est basée sur une puce MediaTek Kompanio 1200.

Portage ARM de multiples techniques

Pour parvenir à ce résultat plutôt encourageant, NVIDIA précise qu'il a été dans l'obligation de « porter plusieurs SDK RTX pour qu'ils fonctionnent sur les appareils ARM ». Il cite évidemment son Deep Learning Super Sampling (DLSS), mais ce n'est pas tout.

NVIDIA évoque le RTX Direct Illumination (RTXDI) afin « d'ajouter plus simplement un éclairage dynamique aux environnements » et le NVIDIA Optix AI-Acceleration Denoiser (NRD) qui « utilise l'IA pour rendre des images haute-fidélité plus rapidement ».

Il est aussi question du RTX Memory Utility (RTXMU) pour « optimiser la façon dont les applications utilisent la mémoire graphique » et du RTX Global Illumination (RTXGI), qui « aide à recréer la façon dont la lumière rebondit dans les environnements du monde réel ».

NVIDIA souligne enfin que ce genre de travaux de recherche ne vise pas que le jeu vidéo et que d'autres industries profiteront bientôt de ces avancées, citant la conception automobile ou l'architecture.

Source : communiqué de presse

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (34)

Kratof_Muller
Probablement l’avenir au regard des couts, du linux, de l’arm, c est moins cher que x86 - microsoft.
mamide
tu dis ça comme si x86 était réservé à Microsoft … c’est Microsoft qui s’est adapté au x86 pas le contraire … c’est les fabricants de processeurs qui créent les instructions pas le développeur de logiciel qui ne fait qu’adapter les softs à l’architecture.<br /> En fait Windows ARM ça existe au cas où tu ne le savais pas.
Zakalwe
«&nbsp;est moins cher que&nbsp;»<br /> Nvidia (l’envie) ne connaît pas cette expression. En tout cas sûrement pas ses actionnaires qui réclament leurs dividendes pour les retraites.
cid1
Et bien si on doit se diriger vers des procos ARM pour faire le job à la place d’un proco X86 je ne demande qu’a voir . Mais si on y va c’est la mort des gros boitiers RIP. comment feras t’on pour mettre des CG de la mort qui tue et des refroidisseurs de taille.<br /> Quelqu’un a une réponse???
SPH
Impressionnant cette vidéo. Ca m’a scotché !
Wen84
@cid1 : Tot ou tard, les PC feront théoriquement tous la taille d’un smartphone. Pour moi c’est qu’une question de temps.
kyosho62
C’est déjà le cas &gt; Raspberry
Wen84
Oui enfin j’aurais du préciser TOUS les pc, pour le moment ma carte graphique prend un peu plus de place quand meme
Kratof_Muller
Merci de me prendre pour un idiot, c’est toujours sympa, mon propos parle des couts et rien d’autre «&nbsp;au cas où tu ne le ‹&nbsp;saurais&nbsp;› (conditionnel merci) pas&nbsp;»
Pernel
Et moi dont ^^ Zont abusé NVidia sur la taille du GPU
Kratof_Muller
C’est déjà presque le cas sur les gpu de portable. En baissant la fréquence de 20% on divise par presque deux la conso, ça coute cher en watt les derniers MHz. Donc on aura plus de gros boitiers de 15kg vide ( j en ai un), on se contentera d une alim externe de 200W et d’un boitier ITX ainsi et surtout qu’une standardisation de GPU sur un format slot de type MXM. Perso je laisse certaines machines en H24, si la conso baisse tant mieux. Exemple de machine : HexadeciCore en ARM max tdp 20W a environ 4Ghz en 5 voir 3nm, gpu type RTX 4080 MaxQ pour environ 130-150W. On y est pas encore et il y aura toujours des amateurs de chrome, pompe a eau, led , gros … tres gros, blingbling etc… Mais ce sera une niche pour commencer, à voir si dans le temps ce standard coutera moins cher.
ultrabill
Le coût du matériel c’est une chose. Quoi que, à performance équivalente est-ce qu’un ARM est vraiment moins cher qu’un x86 ?<br /> Une fois que tu as ton PC moins cher sous ARM tu fait quoi avec ? Alors qu’on est tous sur x86 et que Linux est gratuit, ni les utilisateurs ni les éditeurs n’ont sauté les pas. Un changement d’architecture est plutôt un frein qu’un accélérateur, je trouve.
mamide
Loin de moi de te prendre pour un con mais j’ai juste répondu ton commentaire de manière objective … ne pas connaître quelque chose ne fait pas de toi un con sinon il y aurait 8 milliards de cons dans le monde car on ne peut pas connaître tout.<br /> N.B : Je pense qu’on est pas ici pour traiter les gens de cons en tous cas je suis pas là pour ça j’informe de ce que je connais et je prends l’info qui m’intéresse point barre.
mamide
ultrabill:<br /> Le coût du matériel c’est une chose. Quoi que, à performance équivalente est-ce qu’un ARM est vraiment moins cher qu’un x86 ?<br /> En tous cas ARM n’a pas rendu les Macbook Air ou Pro encore moins les iMac plus abordables <br /> ultrabill:<br /> Une fois que tu as ton PC moins cher sous ARM tu fait quoi avec ? Alors qu’on est tous sur x86 et que Linux est gratuit, ni les utilisateurs ni les éditeurs n’ont sauté les pas. Un changement d’architecture est plutôt un frein qu’un accélérateur, je trouve.<br /> Tu m’a enlevé les mots de la bouche … On va faire quoi avec un PC sous ARM si y a pas le côté soft qui suit derrière ???<br /> Et encore pour Apple les grosses entreprises peuvent toujours adapter leur soft mais reste qu’une bonne partie du catalogue x86-64 ne sera plus accessible enfin faut passer par l’émulateur Rosetta 2.
Kratof_Muller
Si je ne fais pas d erreurs, les arm n ont pas d instructions complexes couteuses en watt type AVX ( ca peut servir à traiter des matrices), hors le traitement de matrices se fait beaucoup sur GPU maintenant, du coup, tant que tu n as pas à cross compiler des milliers de lignes de codes, il n est pas certains que tu perçoives une grosse différence à l’utilisation. Il me semble également que la demo en vidéo ne tourne pas sous Windows.
sandalfo
Plus on avance, plus la différence entre les environnements ARM et x86-64 se réduit. Le delta de performance se réduit (voir M1, M1X et M2, cores X1 et X2, A78 et A710) et l’environnement logiciel aussi (Android sous Win11, Win10 et 11 pour ARM, librairies graphiques nVidia portées, macOS sous RISC et x86-64, etc.)<br /> Cette convergence va continuer jusqu’au moment ou on pourra presque indifféremment avoir un CPU RISC (ARM ou Apple ou RISC-V) ou x86-64 et lancer les mêmes logiciels.<br /> Avec une bonne couche d’émulation des deux côtés la majorité des app se lanceront.<br /> Seuls quelques domaines haute performance (jeux, graphisme 3D, video 4K ou 8K, calcul scientifique, etc.) devront être compilés nativement et optimisés pour RISC ou x86-64 et justifieront pour certains d’être dans un environnement CPU plutôt qu’un autre. Et encore, dans ces cas là c’est souvent le GPU qui fait la différence, pas le CPU.
Kratof_Muller
Mon cœur de métier est l’info (depuis presque 20 ans), je ne parle que des couts et rien d’autre dans mon 1er post (au risque de me répéter).<br /> Exposer une techno est éventuellement intéressant mais n’a nul besoin dans une réponse constructive à souligner quelque chose que tu crois que j’ignore (sans en avoir la moindre idée ), c’est une entrée en matière peu recommandable et préjudiciable.
Kratof_Muller
C’est le cas, j’ai un ‹&nbsp;vieux&nbsp;› Mate 20 pro et j’ai acheté un hub usb-c avec 2 hdmi rj45 et 6 usb, quand je branche mon tel dessus, mes deux écrans s allument, je passe automatiquement en mode bureau, avec clavier souris, c est presque comme un PC (sauf le multitâche un poil moins souple …), en plus le gpu est quasi aussi performant que celui d une xbox 360, tout ça pour environ 5W, limite le hub consomme plus que le tel ^^ En tout cas Geforce now tourne nikel dessus sans parler des jeux android.
Blackalf
@mamide message supprimé pour le motif message à caractère agressif.
mamide
Ok ta 20 ans dans l’informatique … en quoi tes 20 ans peuvent bien servir dans une technologie (DLSS et RTX) inventée y a à peine 2 ans et qui est toujours en développement … Oui tu vas me dire le Ray tracing existe depuis longtemps mais désolé le RTX n’est pas que du Ray Tracing comme on le connaissait avant faire du RT en temps réel c’est nouveau et c’est Nvidia qui l’a inventée.
Kratof_Muller
HMMM … Ca me sert à gagner de l’argent auprès de clients que j’écoute au mieux de la politesse exigée par l’étiquette, ainsi qu’à les cadrer un peu dans leurs demandes ou leurs exigences.<br /> «&nbsp;Ok ta 20 ans dans l’informatique … en quoi tes 20 ans peuvent bien servir dans une technologie (DLSS et RTX) inventée y a à pein e 2 ans et qui est toujours en développement … Oui tu vas me dire le Ray tracing existe depuis longtemps mais désolé le RTX n’est pas que du Ray Tracing comme on le connaissait avant faire du RT en temps réel c’est nouveau et c’est Nvidia qui l’a inventée.&nbsp;»<br /> Je ne dis pas ça pour être vexant, mais je crois que tu te disperses en argumentaire, tu te braques et tu finis par parler tout seul.
pecore
Ah ah ah, c’est vrai que Nvidia veut dire «&nbsp;envie&nbsp;», je l’avais oublié. Du coup on comprend mieux certaines choses. Entre autres que le qualificatif «&nbsp;moins cher&nbsp;» n’a pas obligatoirement la même signification pour eux que pour les autres.<br /> Concernant la démo elle-même, si j’ai bien compris et qu’on décode un peu la débauche de termes techniques, c’est de la gestion d’effets de lumière, de l’IA en deep learning et du DLSS pour faire passer le tout. Que du déjà vu en somme si on enlève le processeur ARM.
Kratof_Muller
Et en plus, la demo ne se passe ’ a priori ’ pas dans un environnement windows. Je trouve ça bien cool, il serait intéressant de voir un bench type ashes of singularity pour voir où un top-end arm ( par exemple leur soc mediatek) se situe en «&nbsp;appels de méthodes/secondes&nbsp;» par rapport a un X86.
LeGlop
La démo tourne sur une distribution Arch Linux compilée pour ARM.
Metaphore54
Le rt temps réel n’est pas nouveau, c’est juste qu’on commence à avoir la puissance nécessaire pour le faire.<br /> C’est peut être le moment ou arm est mûre pour se passer du x86. Intel a raté le train, j’espère que le futur passage au risk-v d’intel lui permettra de se raccrocher au dernier wagon pour revenir dans la course.
ultrabill
Ce qui montre que passer d’un OS à un autre, et d’une architecture à une autre, n’est pas si simple. Que cela engendre des coûts pour, finalement, arriver au même résultat. Le ROI est nul.<br /> Kratof_Muller:<br /> Il me semble également que la demo en vidéo ne tourne pas sous Windows.<br /> Comme son nom l’indique c’est une démo. Ça démontre que ça fonctionne, c’est tout.
mamide
Metaphore54:<br /> Le rt temps réel n’est pas nouveau, c’est juste qu’on commence à avoir la puissance nécessaire pour le faire.<br /> Euhhh c’est ce que je disais si on avait pas la puissance pour faire du RT Real Time alors ça n’existe pas et si Nvidia l’a fait car elle avait la puissance et la connaissance pour ça.<br /> Avant Nvidia personne ne parlait de Ray Tracing … maintenant Intel et AMD veulent la même chose mais Nvidia reste toujours la meilleure car chez AMD le jeu devient injouable en activant le Ray Tracing ils l’ont juste fait pour dire qu’on a aussi le RT mais faut le gérer.<br /> Metaphore54:<br /> C’est peut être le moment ou arm est mûre pour se passer du x86. Intel a raté le train, j’espère que le futur passage au risk-v d’intel lui permettra de se raccrocher au dernier wagon pour revenir dans la course.<br /> Intel n’a pas raté le train … elle détient toujours la majorité dans les ventes de CPUs toute catégorie confondue.<br /> Et pour les gamers je vois pas l’intérêt de l’ARM pas avant des années et des années … tu t’imagines Cyberpunk 2077 tournait sous ARM ?? et quel studio s’attaquerait à développer une version ARM pour son jeu ? ça demanderait beaucoup d’investissements car on parle pas là juste de porter un soft sur une autre architecture mais carrément un jeu avec tous les problèmes qu’il y a en x86-64.<br /> Sans parler de Denuvo, la solution anti-piratage la plus utilisée ces dernières années elle doit refaire tout son fonctionnement vu qu’elle déchiffre le contenu du jeu en temps réel pendant son fonctionnement (c’est pour ça que ça bouffe du CPU d’ailleurs) …<br /> ARM est une architecture qui aime l’optimisation car on doit le dire un CPU ARM (genre une citadine) ne fait pas le poids face à un x86-64 (Muscle car) …<br /> Beaucoup voit en ARM une solution basse consommation et tout … j’aimerais bien voir un processeur ARM égaler la puissance d’un CPU de 250 Watts en plein travail (non ne me parlez pas des processeurs d’Apple car les résultats sont biaisés pour moi comme tous les benchs sur les produits Apple).<br /> Quand ARM sera généralisée là on comparera vu qu’il y aura de la matière.<br /> Moi je dirais ARM c’est comme Stadia de Google, ça a de l’avenir mais actuellement ça vaut rien pour la majorité des consommateurs.
mamide
Kratof_Muller:<br /> l serait intéressant de voir un bench type ashes of singularity pour voir où un top-end arm ( par exemple leur soc mediatek) se situe en « appels de méthodes/secondes » par rapport a un X86.<br /> On aimerait surtout un Bench réglo qui ne favorise pas ARM juste pour dire voilà c’est puissant que le x86 … comme le cas d’Apple Silicon où on dit que M1 est plus puissant qu’un i9 même en le comparant avec celui du desktop (250 Watts)
Wen84
Euh… Une xbox 360… 2005, tu sais. Y a pas d’exploit à faire mieux xD<br /> Non, non, faut pas s’emballer, les PC gamer ont encore bien dix ans devant eux encore.
Kratof_Muller
C’est bien possible, mais proposer des machines de bureau et de jeux de moins de 3KG, c’est une niche destinée à prendre de l’importance. Pour te donner raison, notamment sur le raytracing comme gros consommateur de puissance, il faudra passer du faux ray tracing dit pathtracing qui map des models à vertex à des modèles intégralement générés point par point et effectivement cela risque de prendre encore pas mal d’années avant d’avoir des produits performants et accessibles.
Wen84
Kratof_Muller:<br /> C’est bien possible, mais proposer des machines de bureau et de jeux de moins de 3KG, c’est une niche destinée à prendre de l’importance.<br /> Oui et non. Vulgairement, et je reconnais totalement que cette analyse est bancale/simpliste, t’as deux type de gamer : Console et PC. Le public PC ne prendra jamais une petite becane, à moins que ce soit une machine «&nbsp;en plus&nbsp;». Le joueur console ne se pose pas de questions, lui, il ira là où y a le plus gros marketing. Et là, à part etre devin, difficile de se prononcer sur ce qui va se passer dans deux ou trois ans, mais pas sur que ça change du jour au lendemain.<br /> Et pas besoin de jouer sur le ray tracing pour avoir des jeux qui demandent des configs de fou.<br /> Pour le moment, les cartes graphiques (Meme moyen de gamme) deviennent de plus en plus grosses. Je pense que tant qu’on aura pas atteint un vrai seuil de photo réalisme (Et on est loin), tu auras toujours des grosses bécanes.
mamide
Les gars vous pensez vraiment que l’évolution technologique vise réellement à baisser la consommation ?? Nvidia a explosé des records avec ses RTX 3000 … La RTX 3090 dépasse les 450 Watts sur certains modèles Customs.<br /> Les RTX 4000 ça parlent de 500-600 Watts de consommation pour le Très haut de gamme … où est l’évolution avec une conso pareille
TheDidouille
La majorité des joueurs dans le monde joue déjà sur Smartphone /Switch (Linux, iOS, ARM). Ce qui manque à l’ARM, c’est de bon gros AAA.<br /> Le fait que la démo soit présenté sur une Arch Linux est lourde de sens : C’est l’OS sur des Steam Deck (qui consommera 20 Watts… Avec de l’x86). On peut faire bien plus de chose avec un ARM et 20 Watts qu’avec de l’Intel. Ça ne fera peut-être pas disparaître l’x86, mais permettra bien des optimisations impossible à faire aujourd’hui, car limité par le modèle WinTel.
Popoulo
Tu mettras ton boitier dans ta carte graphique
cid1
Ils feront la taille des smartphones mais seront intégrés à l’écran et toute la connectique seras derrière l’écran ,bien sûr ils devront mettre suffisamment de prise usb ou mini usb. ouinnnn j’aimais bien mon gros boitier .
Wen84
Oh non, je pense que ce sera juste des petits boitiers, que tu peux connecter sur des gros écrans. Mais franchement, impossible de vraiment savoir quel forme ça aura
Voir tous les messages sur le forum