NVidia qui sait plus quoi inventer pour plomber les perfs de leur génération N-1 et pousser à l'upgrade......
Oui on en est là
Je me fais aucun soucis, ça va marcher, ça fait des années que leur politique est un succès....
NVidia qui sait plus quoi inventer pour plomber les perfs de leur génération N-1 et pousser à l'upgrade......
Oui on en est là
Je me fais aucun soucis, ça va marcher, ça fait des années que leur politique est un succès....
Enfin, en pratique ça va être dans 3 jeux, dans lesquels ça sera inexploitable quelle que soit la carte, et on ne reverra plus jamais puisque l'impact visuel à moins de zoomer sur une image fixe est nul.
Je préfère qu'on fasse les "erreurs" dans les technos de ce genre vite, ça empêche de les refaire après.
Je suis également le premier à affirmer que quelques pixels de différence ne se voient généralement pas dans l'action d'un jeu mais les techniques AA rapides dégradent quand même fortement l'image avec un aspect flouté ou imprécis parfois très désagréable.
Si on ajoute à ça la latence que ces traitements ajoutent (je ne parle pas de l'impact sur le nombre de FPS mais de décalage) je préfère carrément m'en passer.
Entre les moteurs 3D à rendu différé, nos moniteurs qui affichent 3 frames de décalage, le V-Sync et les filtres post-traitement j'ai parfois la très désagréable impression que mes actions physiques paraissent une demi-seconde plus tard à l'affichage...
Le flou c'est surtout pour le FXAA vu que c'est la base de son fonctionnement. Puis maintenant il y a des alternatives assez folles aux AA packagés dans les jeux (typiquement le SMAA de Reshade qui donne des résultats assez bleffants (presque au niveau du MSAA) avec une conso à peine plus élevée que le FXAA).
Un AA qui me bluff c'est le CMAA qu'on trouve sur certains jeux Blizzard.
Mais c'est l'optimisation des AA ces dernières années ainsi que l'oubli du MSAA dans plus en plus de jeux qui font que la durée de vie des GPU a augmenté imho.
Franchement le MSAAx2 (+MFAA) c'était quasi obligatoire même avec un jeu en faible/moyen.
Et pourtant, le MSAA c'est une plaie au niveau des performances, et surtout, c'est archi-inefficace sur un moteur 3D moderne.
Toutes ces formes d'AA restent loin des SGSSAA / OGSSAA.
Le SMAA je le trouve particulièrement inefficient, j'ai l'impression quelque fois qu'il ne filtre rien de la scène.
Perso je l'ai collé sur Rise of the Tomb Raider et j'avoue que je suis bluffé, il est quasiment aussi bon que le SSAA proposé et franchement après avoir fait tourné par mal de fois le benchmark, ils restent quelques scintillements (aucun des AA proposés ne les corrige) mais le résultat est plutôt convaincant pour la consommation . Après je me rappelle plus mais j'avais un autre jeu où en effet le SMAA fourni était assez pourri...
EDIT : j'ai vu qu'on pouvait forcer le SGSSAA (ou autre) via le Nvidia Inspector, quelqu'un a déjà essayé ?
Le SGSSAA et autres conneries, c'est le principe du SSAA, mais sans conserver le rapport d'écran d'origine, pour calculer "juste" une image deux fois plus large plutôt que deux fois plus large et deux fois plus haute.
Pas du tout le SGSSAA est beaucoup plus évolué qu'un bête SSAA, la différence est flagrante si tu l'as déjà activé au moins une fois :
Et il demande quelques tweaks de plus qu'un SSAA :Nvidia implemented TRSSAA as an alpha test that supersampled pixels that passed. A bug was present in one of the drivers they released for the new fermi cards that caused the alpha test to always pass and therefore apply SGSSAA to all pixels. They fixed the bug in the next release but many users said that they liked the look of fullscene SGSSAA and complained about its removal. This caused nvidia to release a tool that allowed the bug to be re-enabled. Despite the fact that this tool was made by nvidia they do not officially support it, it comes with a nice fat "use at your own risk" warning. The new fermi cards + new drivers made nhancer no longer compatible (since it never got updated for the 200 series drivers) and since the developer of nhancer has dropped off the face of the planet we can expect it to never be updated. However in the meantime another developer made a better app that did the same thing, nvidia inspector. He included the SGSSAA hack in it.
Therefore SGSSAA technically comes in two forms, FSSGSSAA (fullscene sparse gride supersampling anti-aliasing, which is SGSSAA applied to the entire scene) or TRSGSSAA (tranparency sparse grid supersampling anti-aliasing, which is SGSSAA applied only to transparent textures).
Set negative lod to allow and set the lod bias as follows:
1x2 OGSSAA (2 samples): -0.5
2x1 OGSSAA (2 samples): -0.5
2xSGSSAA (2 samples): -0.5
2x2 OGSSAA (4 samples): -1.0
4xSGSSAA (4 samples): -1.0
8xSGSSAA (8 samples): -1.5
3x3 OGSSAA (9 samples): -1.58 (or as close as you can get)
4x4 OGSSAA (16 samples): -2.0
The formula for determining the correct lod bias is "y = -0.5 * log, base 2, of (n)" where n is the number of samples and y is the correct lod bias. Of course since some of you may have forgotten how to use logarithms I went ahead and typed out the correct values for each SSAA mode above. This function simply means that every time you double the number of samples you subtract another 0.5 from the lod bias.
Dernière modification par Blazkowicz ; 05/08/2018 à 22h13.
La conso moindre ça m'étonnerait, le MSAA c'est gourmand comparé aux méthodes d'AA basées sur les filtres/shaders (FXAA, MLAA et compagnie) mais c'est du pipi de chat à côté de tout ce qui repose sur le supersampling/downsampling.
J'ai surtout cherché hier soir à le tester sur Rise of the Tomb Raider sur lequel je suis en ce moment mais pas moyen de trouver le flag d'Antialiasing Compatibility
Ce n'est que pour les jeux Directx 9 il me semble, point de salut pour les jeux Dx10 et 11/12.
Fuite pour 800$ la 2080 et 1000$ la 2080Ti ?
Réponse des quelques jours (heures?)
C'est ce qu'on lit un peu partout.
Avec une 2070 aux alentours de 400$ HT
https://wccftech.com/pny-nvidia-gefo...for-pre-order/
Les tarifs sont (vachement) gonflé de PNY. C'est possible que ce soit 1) des placeholders, 2) Le vrai prix, mais auquel cas il faut prendre en compte que PNY donne 700$ et 900$ comme prix pour la 1080 et 1080Ti.
Voici le lien pour l'annonce :
https://www.nvidia.com/en-us/geforce...n-august-20th/
Ou directement sur https://www.twitch.tv/nvidia
TDP de 285 Watts pour les GTX 2080 et 2080 Ti (6 + 8 pins PCI express pour les 2).
La 2080 Ti monte moins haut (fréquence de boost) mais dispose de 4352 Cuda cores (!) contre 2944 Cuda cores pour la 2080.
https://www.cowcotland.com/news/6370...-les-prix.html
Je regarde le flux Twitch (qui a renvoyé vers le flux français).
https://www.twitch.tv/nvidiageforcef...00000003282951
C'est quoi ces 3 branleurs ?
Moi j'ai un réseau pourri
Je regardais le lien de MetalD. ; C'est pas la même chose en effet "en FR" !
C'était pas à 18h la conf ?
Ils sont à la bourre ?
Je suis passé sur le flux youtube officiel:
https://www.youtube.com/watch?v=IG2wVjQUr3c