Dit le môsieur avec son score de 6907 (dont seulement 6710 pour la partie graphique) sur Time Spy.
Visiblement c'est plus cher, mais c'est aussi mieux.
Le dlss c'est vraiment un truc en devenir, ça va pas aider les reviewers
https://www.dsogaming.com/articles/l...n-screenshots/
C'est cool, maintenant grâce à leur technologie de réseaux neuronaux ils arrivent à peu près à égaler un upscale classique.
Début des fuites des parties graphiques intégrées Gen11 d'Intel : ca dépote ?
Il s'agit bien d'APU, pas de CG dédiée.
ton argument "ca baisse avec le temps", ca tient pas compte de 1/ l'inflation et 2/ c'est un argument à puissance constante.
En ce qui concerne le "top", pas vraiment, il ya 20 ans, tu pouvais avoir des voodoo 5 en SLI, par paquet de plusieurs, ca c'était le top, pour avoir des effets "inutiles" comme l'Anti aliasing ...
Et plus récemment, tu oublies que la folie des configs en bi/tri/etc SLI qui faisait exploser les configs des richards du jeu. Evidemment, c'était pas le prix d'une carte, mais c'était une manière d'exploser les perfs, et les prix.
Maintenant, avec les moteurs deffered qui sont pas SLI friendly, cette folie est un peu retombée et remplacée par le fait que les cartes sont de plus en plus parallelisables, en terme de shader units, ce qui fait qu'on peut construire une carte vraiment grosse et peu raisonnable, juste pour etre le premier des benchs. Pour moi, la 2080 Ti, même la 2080, c'est ca et rien de plus, pas vraiment une carte destinée à être vendue en masse, mais à servir de ferrari des salons pour la com.
Ceci dit, je mettrai jamais plus de 400E dans une carte, et deja, c'est beaucoup Pour le RTX, et ses 2 jeux, il suffit d'attendre, dans six mois, on aura deja mieux, et la ps5 sera même pas sortie, on sera encore dans la même gen.
Y'a eu la conf Nvidia au GTC 2019:
https://www.youtube.com/watch?v=orhSaDsdA7k
Pas vraiment d'annonce concernant le matos (certains pensaient qu'ils allaient parler de la prochaine architecture Ampère).
Des choses tournées vers le business (bien qu'il y ait une part pour les joueurs).
Le real time raytracing arrive sur les 10XX : http://www.dsogaming.com/news/nvidia...-dxr-in-april/
Faudra mettre en low avec sans doute un framerate aux fraises mais bon.
Est-ce que c'est vraiment utile ça. Si déjà une 2060 avec des RT cores dédiés est à moitié dans les choux pour le RT...
Je pense que l'idée est moins de faire du temps réel sur les GTX (série 10XX) que de permettre le calcul dessus (rendu avec un logiciel 3D).
Le but c'est d'ouvrir au matos Nvidia un marché potentiel (le GTC s'adresse plutôt à des pro).
C'est sûr que quand on voit les performances de Battlefield sur une RTX, ça risque pas de tourner sur une 1070.
Mais je serais curieux de voir si le ray tracing peut donner des trucs sympa sur des jeux avec des graphismes plus simples (pas forcément de la 3D réaliste) et donc avec des perfs correctes.
ça peut aussi avoir un but "éducatif", faire comprendre aux gens que le raytracing sans unité de calcul dédiée (ou alors un gpu super costaud) c'est un peu compliqué niveau perfs.
Rah la la, la 2080 Ti HoF https://www.tomshardware.fr/test-kfa...of-fame-galax/ pour seulement 1800€
Cordialement.
C'est le blanc Apple qui veux ça.
S'agissant d'Unity deux questions me viennent à l'esprit:
- Ont-ils enfin résolu l'optimisation CPU littéralement à chier de leur moteur?
- Quel est le temps de chargement pour cette scène?
Vous avez vu passé ça ?https://jeux.developpez.com/actu/251...et-DirectX-12/Crytek démontre la faisabilité du lancer de rayons en temps réel sur n'importe quelle carte graphique
NVidia nous enfle ? non ? !!!
Non mais ça c'est évident...
Tu peux même en faire avec ton processeur.
Par contre tu vas être limité en puissance de rendu.
Je laisse aussi aux experts le soin de parler du "vrai" Raytracing avec d'autres formes de Raytracing, je ne suis pas assez calé en la matière.