IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

NVIDIA dévoile ses GPU Turing avec une GeForce RTX 2080 Ti en tête d'affiche
Qui promet des performances record en matière de ray tracing et d'IA

Le , par Christian Olivier

99PARTAGES

13  0 
En juin dernier, nous avons évoqué sur cette plateforme les nouveautés qui auraient éventuellement pu caractériser les circuits graphiques NVIDIA de la génération Volta à leur sortie en identifiant trois technologies particulières qui avaient de fortes chances de faire leur apparition sur Volta : la norme HDMI 2.1, la VRAM GDDR6 et la technologie RTX.

À ce moment-là, il était encore difficile de déterminer avec précision les spécifications techniques et la nomenclature des GPU nouvelle génération de NVIDIA, mais tout est différent maintenant puisque la marque au caméléon vient d’officialiser ses GPU grand public de la génération Turing. Zoom sur les successeurs de la génération Pascal dévoilés hier soir lors de la GeForce Gaming Celebration qui s’est déroulée à Cologne ;!


Les noms des nouvelles puces graphiques grand public du fondeur NVIDIA sont enfin connus. Après les GPU GeForce de la série 10X0, l’écurie des verts (par opposition à son concurrent AMD connu aussi comme l’écurie des rouges) a finalement opté pour la dénomination GeForce RTX de la série 20X0 pour ses nouveaux GPU grand public basés sur l’architecture Turing. Pour le moment, il semble assez difficile de savoir si NVIDIA a décidé de faire l’impasse sur Volta, si Turing = Volta ou si Turing est une étape intermédiaire avant Volta.

Le fabricant de GPU insiste simplement sur le fait que ses nouveaux GPU Turing gravés en 12 nm offriraient « ;jusqu’à 6 fois plus de performances que les cartes graphiques de la génération précédente ;[Pascal] ». Il aurait déjà prévu des mises à jour avec support ray tracing pour des jeux comme Battlefield V, Shadow of the Tomb Raider et Metro Exodus.




Cette architecture permet à NIVIDIA d’intégrer jusqu’à 18,4 milliards de transistors sur le die d’un seul GPU et ainsi, de créer le plus gros GPU grand public fabriqué à ce jour. Tous les GPU basés sur l'architecture Turing embarquent trois composants clés : des cœurs SM (cœurs CUDA), des cœurs RT (dédiés au Ray-Tracing) et des cœurs Tensor (dédié à l’IA et au Machine Learning). En plus des traditionnels ports HDMI (2.0b), Display Port (1.4) et DVI, on note également l’apparition d’une sortie vidéo USB-Type C (VirtualLink) sur les cartes NIVIDIA Turing, une sortie qui ciblerait les usages en rapport avec la réalité virtuelle.

Le choix de cette nouvelle nomenclature (RTX 20X0 au lieu de GTX) serait dû au fait que l’architecture Turing a donné naissance à la toute première génération de cartes graphiques grand public prenant en charge nativement une technologie de « ;ray tracing ;» (un procédé bien connu dans l’industrie du cinéma) à la sauce NVIDIA. Baptisée RTX, cette technologie a été développée par l’écurie des verts en étroite collaboration avec Microsoft. Signalons au passage que NVIDIA l’avait déjà implémenté sur ses anciens GPU Titan V et Quadro GV100.

C’est pendant la Game Developers Conference 2018 qui s’est tenu en mars dernier que NVIDIA avait présenté sa technologie RTX, une technologie de ray tracing qui permet aux créateurs de contenu et aux développeurs de jeux vidéo de proposer un rendu de qualité cinéma en temps réel pour donner vie à des mondes virtuels. Elle autorise un contrôle plus fin sur la luminosité, les reflets et les ombres afin de fournir des rendus qui sont censés être plus vivants et plus proches du monde réel. Grâce au ray tracing, au lieu de dessiner la projection d’objets 3D sur un plan de pixels, on simule la réalité en suivant le trajet qu’aurait pris un photon qui serait arrivé à l’œil de l’observateur pour déterminer sa véritable couleur.


Le vaisseau amiral de cette nouvelle génération de GPU NVIDIA sera vraisemblablement la GeForce RTX 2080 Ti avec ses 4352 cœurs CUDA, ses 11 Go de VRAM GDDR6, sa bande passante de 616 Gb/s, son TDP de 250 Watts, ses 272 TMUs et 88 ROPs. Il faudra deux connecteurs de 8 broches pour l’alimenter. Ce GPU serait, d’après son fabricant, jusqu’à six fois plus performant en matière de calcul dédié au ray tracing et jusqu’à 10 fois plus performant dans les calculs en rapport avec l’intelligence artificielle que les circuits graphiques GTX de la génération précédente.


La GeForce RTX 2080 Ti est accompagnée par la GeForce RTX 2080 qui dispose de 2944 cœurs CUDA, 8 Go de VRAM GDDR6, d’un TDP de 215 W et d’une bande passante de 448 Gb/s. Il faudra deux connecteurs (8 pins + 6 pins) pour l’alimenter. Leur petite sœur, la GeForce RTX 2070, devrait faire son apparition plus tard dans l’année.


La GeForce RTX 2080 devrait couter 849 euros, contre 1259 euros pour la GeForce RTX 2080 Ti et 639 euros pour la GeForce RTX 2070. Les partenaires de la marque au caméléon ont déjà présenté leurs GPU personnalisés (du côté de chez Asus, EVGA, Gigabyte, MSI, PNY et Zotac notamment). Mais ils ne sont, pour l’instant, disponibles qu’en précommande. L'arrivée officielle des modèles RTX 2080 Ti et RTX 2080 sur le marché est prévue pour le 20 septembre prochain.

Source : NVIDIA, WccfTech

Et vous ?

Qu’en pensez-vous ? Quel est votre avis sur le ray tracing tant plébiscité par NVIDIA ?
Pensez-vous qu’il s’agisse là d’une technologie importante qui pourrait avoir un fort impact dans les années à venir dans l’industrie du jeu ;?

Voir aussi

La prochaine génération de GPU NVIDIA pourrait débarquer fin 2018, avec des dies empilés grâce à la technologie WoW de TSMC

NVIDIA annonce ses cartes graphiques Quadro RTX, la génération Turing met l'accent sur le lancer de rayon en temps réel

NVIDIA lance un système sur puce boosté à l'intelligence artificielle et un kit de développement pour les robots autonomes

Le moteur physique unifié NVIDIA FleX est disponible pour Unity en version bêta, et la performance est déjà présente

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Uther
Expert éminent sénior https://www.developpez.com
Le 21/08/2018 à 10:33
Citation Envoyé par ShigruM Voir le message
Ils savent quand meme que dan les films ou les JV les scènes sombres sont sur éclairé justement pour que l'on puisse voir quelque chose à l'écran ? Imaginer la fin de Titanic ou au lieu de voir rose sur le bout de boit on ne voyait rien tellement il faisait sombre Ou indiana Jones avec un vrao torche dans un temple au lieu de gros spot derrière la caméra on y verrais rien non plus.
Sauf que dans les films justement c'est des choix de réalisation. Les concepteurs de jeux peuvent aussi faire le choix de sur-éclairer une scène s'ils l'estiment nécessaire, mais ça me parait quand même plus logique d'avoir par défaut un éclairage réaliste, surtout dans un jeu, vu que l'on est en partie acteur.

C'est normal d'avoir moins de visibilité à contre-jour, mais dans un jeu réaliste, ça n'est pas forcément un problème, au contraire. On peut généralement se déplacer pour avoir une meilleure vision contrairement à un film ou tout doit être saisi à partir de quelque plans.
5  1 
Avatar de epimannn
Membre habitué https://www.developpez.com
Le 21/08/2018 à 9:37
Si je retiens ce qu'à dit Nvidia les fois précédentes et que je les crois sur parole...
Ce qu'ils nous présentent, c'est une carte Pascale, rafraichie en 12nm avec 2 unités de traitements supplémentaires avant réservées pour les professionnels. Ce qui explique l'augmentation de la taille de la puce.

On nous fait miroiter des perf 6x Pascal, mais uniquement sur des exemple de ray tracing...
J'ai pas entendu parler de jeu commercial bénéficiant de ce boost de x6... Bah ouai, AUCUN jeu actuel ou passé n'utilise le ray tracing qui jusqu'à présent était trop gourmand en ressource...
Pas vu de test sous blender non plus...

J'espère me planter et avoir mal compris, mais ça ressemble à du bullsh*t marketing made in Intel pour faire passer la pilule du feignantisme et du monopolisme.
2  0 
Avatar de Jiai972
Membre du Club https://www.developpez.com
Le 21/08/2018 à 9:33
La qualité des éclairages va s'améliorer au fur et à mesure que la technologie sera utilisée, je ne m'inquiète pas trop.

Par contre l'augmentation des prix est encore violente, surtout si l'on tient compte que le modèle qu'ils appellent maintenant x80 TI correspond aux anciennes x80 (aka meilleur modèle de la première génération de cartes)... pratiquement 50% de plus que la 1080 à sa sortie et le double de la 980.
1  0 
Avatar de arond
Membre expérimenté https://www.developpez.com
Le 21/08/2018 à 8:46
L'image est pixélisé mais on peut déjà dire que c'est beaucoup trop sombre si le but c'est de jouer
Il y a une démo à base de Star Wars avec le Ray Tracing qui traine sur Youtube et le rendu est bien plus appréciable parce que beaucoup plus lumineux
0  0 
Avatar de Alexcouter
Membre régulier https://www.developpez.com
Le 21/08/2018 à 10:09
Citation Envoyé par epimannn Voir le message
J'espère me planter et avoir mal compris, mais ça ressemble à du bullsh*t marketing made in Intel pour faire passer la pilule du feignantisme et du monopolisme.
Voilà un joli résumé de la situation. Y a qu'à voir le teasing de Vega chez AMD pour ne plus être excité par de nouvelles annonces, leur carte révolutionnaire s'était transformée en simple carte graphique capable de concurrencer les verts..
J'espère aussi me planter, vu les prix qui vont être proposés jusqu'à preuve du contraire avec les benchs, on peut se dire "ça vaut le coût". Mais y a déjà un gap énorme entre les démos d'il y a quelques mois, et les rendus présentés in-game, notamment parce qu'ils trichaient en présentant des scènes en gros plan et avec peu de polygones à afficher..
1  1 
Avatar de ShigruM
Nouveau Candidat au Club https://www.developpez.com
Le 21/08/2018 à 7:42
génial,
des reflets a gogo qui fait absolument pas réaliste (la démo de BF V avec la carrosserie de la voiture)
des nouveaux effets d'ombre pas visible a l’œil nue (démo de tomb raider), et l'image de démo sur la news montre une scene visible bien éclairé contre une image ou il fait tres noir et ou on ne voit rien (pas top du coup)
Ils savent quand meme que dan les films ou les JV les scènes sombres sont sur éclairé justement pour que l'on puisse voir quelque chose à l'écran ? Imaginer la fin de Titanic ou au lieu de voir rose sur le bout de boit on ne voyait rien tellement il faisait sombre Ou indiana Jones avec un vrao torche dans un temple au lieu de gros spot derrière la caméra on y verrais rien non plus.

elle coûte combien la 2070

edit: Jen-Hsun Huang a comme toujours une jolie veste en cuir
1  2 
Avatar de CaptainDangeax
Membre expérimenté https://www.developpez.com
Le 21/08/2018 à 9:31
Hier, j'ai regardé une vidéo rigolote de LGR, qui a fait tourner doom3 sur une Voodoo2 après l'avoir patché et réduit les textures. Je me souviens d'avoir joué à la démo et de ne pas être allé plus loin, beaucoup trop sombre... au moins, avec la voodoo2 qui ne gère pas l'éclairage, on joue avec de la lumière.
En tout cas, c'est une bonne nouvelle, moi qui voulait m'acheter une 1080ti avec la prime de rentrée scolaire, les prix vont baisser...
0  1 
Avatar de ShigruM
Nouveau Candidat au Club https://www.developpez.com
Le 21/08/2018 à 10:08
nous auront certes des jeux très beaux mais toujours avec des problèmes de collision, des personnages qui traversent les décors et la végétation comme par magie. Et côté IA, n'en parlons même pas; les perso non jouables seront toujours aussi bêtes
0  4