Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 231 sur 235 PremièrePremière ... 131181221223224225226227228229230231232233234235 DernièreDernière
Affichage des résultats 6 901 à 6 930 sur 7047
  1. #6901
    Citation Envoyé par Dross Voir le message
    ps: haha ces guignols de HU qui - comme les mesures de l'impact réel du FG montrent que c'est imperceptible (va sentir 5ms de diff...) - inventent un scénario complètement farfelu (échanger des frames normales par du FG) pour faire exploser les valeurs de latence.
    Au contraire c'est tout à fait pertinent, vu que ce scénario farfelu c'est celui qu'à choisi Nvidia pour affirmer que la 5070 était aussi rapide que la 4090. Le but de ces graphs du bas c'est de montrer que le MFG n'est pas un booster de perfs. Ça montre quelle est la différence entre un 120 fps sans frame gen, et un 120fps via un FG de 2, 3 et 4. On voit que si on nous dit qu'un jeu tourne à 120 fps avec frame gen ça peut très bien en réalité cacher des perfs dégueulasses si ce framerate a été obtenu via un FG de x4. La différence de latence entre un 120 fps obtenu via FGx2 et un x4 est énorme. Et c'est précisément le scénario qu'Nvidia a présenté en comparant la 5070 utilisant le multi frame gen vs la 4090 en frame gen de base, les framerates sont les mêmes mais les latences sont très, très différentes.

    Ça veut aussi dire que les configs recommandées par les éditeurs de jeux seront encore plus vaseuses, on nous présentait déjà des configs minimales, recommandées et optimales avec frame gen activé. Maintenant va savoir ce que veut réellement dire "60 fps en détails hauts*" avec la petite astérisque en bas qui dit "*: avec DLSS4". 60 fps avec du x2, x3 ou x4? 60 fps avec un MFG x4 c'est une jouabilité de 15 fps.
    Dernière modification par Kimuji ; 26/01/2025 à 04h32.

  2. #6902
    Citation Envoyé par Dross Voir le message
    Bien évidemment, en fait c'est là que DF est bien meilleurs que tout les autres sur ce point : ils sont les seuls à insister sur la difficulté à montrer les forces et les faiblesses du FG dans les reviews :

    - oui les artefacts sont présents, mais sur des frames qui restent x2, x3, x4 moins longtemps à l'écran et donc plus dur à détecter et à voir (et donc montrer les artefacts en screen n'est pas du tout représentatif de ce qu'on vois à l'écran)
    - oui la latence augmente de manière très marginale (tellement marginale que certains testeurs obtiennent des valeurs étonnantes comme LTT), et reste dans tout les cas bien en deçà des valeurs natives sans Reflex (on se demande bien comment on a pus jouer dans ces conditions terribles depuis 30 ans...).


    ps: haha ces guignols de HU qui - comme les mesures de l'impact réel du FG montrent que c'est imperceptible (va sentir 5ms de diff...) - inventent un scénario complètement farfelu (échanger des frames normales par du FG) pour faire exploser les valeurs de latence.
    évidemment que le but est d'échanger des frames natives contre des FG.
    Kimuji le montre bien avec la com de NVidia. Mais entre un jeu qui tourne à 60fps natif et un jeu qui tourne à 60fps avec 3/4 de FG, ça n'a absolument rien à voir en termes d'expérience de jeu. Dans le premier cas, c'est très confortable, dans le deuxième c'est ignoble. Expliquer qu'une 5070 a les perfs d'une 4090, c'est se foutre de la gueule du monde, mais c'est devenu la norme et ça ne va faire qu'empirer car je suppose qu'on aura du multiFG x10 sur les RTX 60.

    Heureusement justement qu'il y a des sites HU pour remettre les choses en place, mais quelle est leur influence par rapport à la com' officielle de NVidia ?
    Sortis de ces quelques Youtubeurs spécialisés et compétents, le message, c'est bien qu'une 5070 équivaut une 4090, et même elle la dépasse. La preuve capture d'écran à l'appui avec fps affichés.
    https://www.pcgamesn.com/nvidia/gefo...x-5070-vs-4090

    Le scénario de LTT d'activer le multiframegen x4 sur un jeu qui tourne déjà à plus à 60fps sans upscaling, qui va profiter des 280fps affichés ? Tu prends un écran haut de gamme genre Alienware AW3423DWF à plus de 1000 balles, il n'est que 165Hz. Passer à 280fps avec trois quarts de FG, le résultat c'est qu'une bonne partie des frames natives ne vont pas s'afficher et les artefacts seront beaucoup plus visibles. Déjà que même en natif, on conseille toujours de bloquer les fps sous la fréquence de rafraichissement pour éviter le tearing et sans se problème de sacrifier l'affichage de frames natives pour des FG...

    Et là je parle de leur exemple avec RT Ultra. L'autre exemple avec RT medium, ils ne donnent même pas les fps, mais on doit être j'imagine autour des 150fps natifs. C'est sûr que ça va pas énormément augmenter la latence dans un cas pareil où les frames sont très courtes, mais à quoi ça sert d'afficher 300 ou 600 fps quand quasi personne n'a d'écran adapté.

    Pourtant c'est dans ce cas là, quand on dépasse les 100fps natifs, que là oui, les inconvénients du FG disparaissent. Pour profiter du multiFG x4, faut un écran de plus de 400Hz (et de très très bons yeux parce que perso, au dessus de 80fps, j'ai beaucoup de mal à ressentir l'augmentation de fluidité quand les fps augmentent).


    Concernant l'augmentation de la latence de 6ms, c'est pas énorme, ça ne va pas rendre le jeu injouable, mais c'est comme passer de latence d'un jeu qui tourne 78fps à la latence d'un jeu qui tourne à 62fps, ce que montre HU. Personnellement, je suis plus sensible à la perte de réactivité des contrôles quand on perd 16fps plutôt qu'à la diminution de la fluidité du défilement des images. La latence, c'est ça qui joue sur la jouabilité d'un jeu.
    Mais ça c'est un exemple avec des fps déjà relativement hauts en natif. Les mêmes paramètres graphiques avec une 5070 plutôt que la 5090, ça va être une autre histoire question augmentation de la latence.
    Dernière modification par Borh ; 26/01/2025 à 09h47.

  3. #6903
    Citation Envoyé par Dross Voir le message
    et reste dans tout les cas bien en deçà des valeurs natives sans Reflex (on se demande bien comment on a pus jouer dans ces conditions terribles depuis 30 ans...).
    La latence était plus faible avant mais depuis quelques années le rendu s'est complexifié ce qui a augmenté la latence.

  4. #6904
    Dross, tu es tellement le pendant de Tilt sur AMD :-(

  5. #6905
    C'est pour ça que je possède un 7800x3D et que je suis le premier à trouver les GPU Intel très intéressants (dès la première gen, si on jouais exclusivement en DX12)...

    Le scénario de HU est farfelu car c'est évident que si on a le matos pour rouler en 120 FPS natif, jamais on n'activera le FrameGen pour volontairement perdre de la qualité et augmenter la latence. Cette comparaison n'a aucuns sens.

    Mais ce matos, on ne l'a pas toujours, voir il n'existe tout simplement pas (pour faire tourner Cyberpunk en PathTracing sur un écran 4K, 240Hz par exemple), voir on l'avait mais les années s'écoulant rendant le matos moins performants on hésite à migrer et acheter la nouvelle gen.

    Et c'est ce cas là qui sera la réalité des utilisateurs dans 100% des cas : tu roule ton jeu, il tourne comme de la merde, à 30FPS. Tu fait quoi. Tu active Reflex, ok, t'obtiens une latence équivalente à un rendu 60FPS+. Mais ça reste saccadé à l'écran. Tu commence à lorgner sur le FrameGen à ce moment là. Si t'a un écran 120Hz, tu peux considérer activer le x3/x4. Certes c'est pas équivalent à un rendu natif (que de toutes manières tu ne peux pas avoir avec ton matos actuel), mais ça te donne un moyen d'améliorer ton expérience.

    Donc ces graphiques illustrent un cas d'usage qui représentera 0% des utilisateurs. C'est en cela qu'il est assez particulier.

    Et si c'est pour critiquer l'annonce d'Nvidia, bah il faut vraiment vous faire un dessin (plusieurs en fait), pour rappeler que c'est du marketing et donc à prendre avec (de très grosses) pincettes ? Qui est dupe ? Qui a été dupe plus longtemps que 5 mins durant la présentation ? Bon.

  6. #6906
    Citation Envoyé par Dross Voir le message
    Le scénario de HU est farfelu car c'est évident que si on a le matos pour rouler en 120 FPS natif, jamais on n'activera le FrameGen pour volontairement perdre de la qualité et augmenter la latence. Cette comparaison n'a aucuns sens.
    Ce n'est absolument pas ce qui est suggéré, tu n'as toujours pas compris le but de cette comparaison.

    Et si, vu comment Nvidia communique lourdement dessus, il est important de montrer de façon claire qu'un framerate identique ne veut pas dire des performances identiques.

  7. #6907
    Ouais j'ai bien aimé la démarche de HU à prendre l'usage par tous les bouts. Partir de la fréquence d'affichage est un bon principe pour savoir si de l'interpolation multi-frame a un intérêt. Idéalement faudrait ajouter une étude de marché avec la fréquence max typique des écrans des joueurs.

    Après pour savoir quel framerate minimal est pertinent, ça dépend des jeux et des joueurs.
    Le problème du framerate faible n'est pas que la latence mais la taille des artefacts si les images sont trop différentes. C'est aussi ce que répond le VP DL de Nvidia dans l'interview de DF quand ils parlent du framerate minimal recommandé.
    Pour illustrer avec des exemples à ma sauce, dans MSFS à 30 FPS ça va (sauf peut-être si on fait de l'acrobatie), dans un jeu d'action nerveux c'est un coup à se retrouver avec des artefacts énormes, même sans parler de latence.

    De toute façon ça va se généraliser, chacun pourra tester et régler comme il le sent.

  8. #6908
    Citation Envoyé par Kimuji Voir le message
    Ce n'est absolument pas ce qui est suggéré, tu n'as toujours pas compris le but de cette comparaison.
    J'ai très bien compris le but de cette comparaison, ne t'inquiète pas : le but c'est de faire croire que l'activation du FrameGen fait s'envoler la latence dans des proportions absurdes et est donc inutilisable.

    Il faut savoir que la manière de présenter une information influe énormément sur la manière dont les gens vont la percevoir. Et que cette manière de présenter ces résultats est tout sauf neutre, d'ailleurs même le canard qui a partagé la vidéo en premier s'est probablement fait piéger par cette manière de présenter l'info :

    Citation Envoyé par skyblazer Voir le message
    Ca reste inutilisable dans de bonnes conditions en dessous de 60 FPS, comme avant. Ca augmente la latence, comme avant, mais encore un peu plus quand on génère plus d'images, ce qui est logique.
    Un revers important de la médaille souligné, c'est qu'à moins d'avoir un écran 180Hz ou 240Hz, il n'y a virtuellement pas de bonne situation pour l'utiliser.
    Il n'en a retenu que ça augmentait suffisamment la latence pour être inexploitable, alors que tout les résultats qu'on a montrent que même dans les cas les plus difficiles, à 30 FPS, l'activation du FrameGen aboutis à une latence inférieure au natif sans reflex. Et que si ce n'est clairement pas de la qualité du natif, la techno donne une nouvelle dimension de réglage disponible aux joueurs et qu'il n'est pas toujours évident de dire l'état qu'on préfère (ça sera donc du cas par cas, en fonction des types de jeux et des préférences de chacun).
    Le parfait contraire d'inutilisable donc.

    Ce n'est pas étonnant que HU oriente ses résultats de cette manière ceci dit, ils font toujours ça : que ça soit pour Nvidia ou AMD d'ailleurs, ils orienteront toujours leurs résultats pour faire du buzz, quite à présenter les choses de manière trompeuse (j'ai de nombreux autres exemples, comme prendre un cas particulier et faire croire que c'est le cas usuel, etc).

  9. #6909
    Citation Envoyé par Dross Voir le message
    Il n'en a retenu que ça augmentait suffisamment la latence pour être inexploitable, alors que tout les résultats qu'on a montrent que même dans les cas les plus difficiles, à 30 FPS, l'activation du FrameGen aboutis à une latence inférieure au natif sans reflex.
    Faut que tu me l'explique, celle-là.

    Mais bon, d'où on a besoin d'évaluer un fonctionnement à 30 im/s ? C'est inexploitable, qu'on double, triple, quadruple le nb d'images, ça reste un jeu qui tourne à 30. Certains ont joué effectivement à 25 / 30 im/s, parce que matos de merde. Nvidia crois vraiment qu'on va accepter de mettre 1000€ dans une CG dernier cri pour continuer à jouer à 30 im/s dans les cas extrêmes où la CG ne suit pas pour faire semblant d'avoir 90 im/s ?

    En réalité oui, le x3 et à fortiori le x4 ne serviront quasiment jamais. La base confortable se situe à 60, le x3 tombe alors à 180. Il faut un moniteur 240 mini.
    Au pire un 55 qui donne du 165 en x3, mais plus bas, ecran 144, ça fait du 48, correct mais encore une fois c'est dommage de se limiter à 48 sur une CG moderne, autant viser une CG qui cible le 60 mini et si on veut vraiment booster les im/s, un doublement à 120 suffit amplement.
    Vraiment étrange, cette mise en avant du multiframen generation, ça ne sera viable que pour des cas à la marge.

  10. #6910
    D'une façon très générale, ce qui me gêne avec toutes ces technos (que ça soit la génération d'images intermédiaires, l'upscale des images entre le rendu et l'affichage, etc), c'est que plus ça va, plus ils mettent l'accent dessus.
    Plus ça va, moins les gaps de perfs à proprement parler sont intéressants. Ils mettent en avant ces technos pour vendre des taux d'images par seconde waouh, ce qui est aisé quand tu rends dans un déf inférieure et que tu rajoutes des images intermédiaires entre tes frames rendues.

    Et même si les technos marchent bien, ça n'en reste pas moins des GPUs pas sensationnels techniquement parlant par rapport aux précédents.
    Alors qu'on a en parallèle, avec les années, fait glisser les gammes vers des budgets démesurément plus élevés.
    J'ai du mal à m'enthousiasmer autour de tout ça.

    Pire encore, on fait exploser les consos pour proposer des perfs à la hausse. Comme ça il faut des alimentations plus costaudes, ça tire plus de jus, ça génère plus de chaleur, alors qu'on devrait clairement chercher à faire l'inverse.
    Que ce soit par soucis écologique ou pour essayer de ne pas faire flamber sa facture d'électricité qui prend déjà bien feu toute seule.

    Discours de vieux con, mais bon : les générations de GPU c'était clairement mieux avant.

  11. #6911
    Citation Envoyé par XWolverine Voir le message
    Faut que tu me l'explique, celle-là.
    De toute façon la comparaison avec "le natif sans reflex" n'a strictement aucun sens puisqu'on peut activer reflex en natif.

  12. #6912
    Citation Envoyé par Taro Voir le message
    Discours de vieux con, mais bon : les générations de GPU c'était clairement mieux avant.
    Ah je préfère que ça stagne, comme ça je garde mon matos plus longtemps. C'est dommage pour le progrès de la technologie humaine, mais bon…
    Suffit de ne pas céder aux sirènes du marketing et upgrader quand on en a vraiment besoin, en restant raisonnable plutôt que prendre une usine à gaz.
    Certaines technos rendent quand même obsolète le matos, mais ça se fait sur quasi 10 ans au lieu de quelques années à la grande époque.
    2024 marque le début de la fin pour ma GTX 1070 (avec des jeux qui ne m'intéressent pas trop), mais ça va empirer en 2025.

  13. #6913
    Bien sûr que si : déjà car tout les jeux ne sont pas compatibles avec Reflex (et ceux qui le sont aujourd'hui, le sont que depuis très peu de temps : via le support DLSS 3 qui forçait sa mise en place) et qu'on jouaient bien correctement avant cela, les jeux n'étaient pas injouables !

    C'est ça qui est un peu délirant avec toutes ces critiques, la base de la latence ""acceptable"" c'est devenu la latence sous reflex, c'est n'importe quoi.

  14. #6914
    9 GPUs that don’t need an upgrade to the RTX 50 series

    Et effectivement, avec le patch 2.21 je peux toujours faire tourner CP2077 à + de 30 fps, en Path Tracing (sur mon écran 1440p) avec ma RTX 3080. Je joue chill et je suis une esthète donc ça me va trèèès bien .
    Donc non merci probablement pour cette génération 50xx. Y’a qu’en production qu’on pourrait se laisser tenter, mais c’est vraiment très cher et on peut s’arranger pour être patients sur nos rendus.

    Par contre, le panneau de l’App Nvidia est capable de faire n’imp (dans le sens où il n’affiche pas les vrais paramètres de réglage de la carte). Méfiez-vous parce que pour le coup on ne voit rien, sauf qu’une fois en jeu le résultat est déplorable.
    On utilise GPU Tweak III et ça fonctionne très bien.

  15. #6915
    Citation Envoyé par Dross Voir le message
    Bien sûr que si : déjà car tout les jeux ne sont pas compatibles avec Reflex (et ceux qui le sont aujourd'hui, le sont que depuis très peu de temps : via le support DLSS 3 qui forçait sa mise en place) et qu'on jouaient bien correctement avant cela, les jeux n'étaient pas injouables !
    Pour te citer toi-même:
    tout les résultats qu'on a montrent que même dans les cas les plus difficiles, à 30 FPS, l'activation du FrameGen aboutis à une latence inférieure au natif sans reflex.
    Ce sont les mêmes jeux. Les jeux qui proposent le DLSS3 sont tous compatibles reflex et donc il est possible d'utiliser reflex sans frame gen sur ces titres. Donc la comparaison de latence entre frame gen + reflex vs frame gen off + reflex off n'a pas de sens. Si tu veux comparer les latences il faut activer reflex dans les deux cas, et pas seulement avec frame gen pour ensuite venir nous dire que la latence est meilleures avec frame gen...

    Et note que je fais bien la distinction entre DLSS et frame gen. Quand on voit du DLSS 3 afficher une meilleure latence que du natif c'est grâce à l'upscaling qui fait monter le framerate de base. La meilleure latence possible étant DLSS + Reflex et frame gen off.

  16. #6916
    Je suis d'accords, mais je répondais à ce message de ta part :

    Citation Envoyé par Kimuji Voir le message
    De toute façon la comparaison avec "le natif sans reflex" n'a strictement aucun sens puisqu'on peut activer reflex en natif.
    Et je réitère : bien entendu que si, ça a du sens. Pas par rapport à ce qu'on pourrai obtenir (car oui, comme tu le dis, on peux avoir mieux, vu que Reflex est dispo) mais par rapport à ce qui est du domaine de l'utilisable, du jouable.

    Et là dessus, on peux au moins (au moins ! la limite est potentiellement plus haute !) considérer que ce qui est du domaine de l'utilisable, du jouable, c'est minimalement les conditions avec lesquelles nous étions en train de jouer jusqu'en 2022 c'est à dire le natif sans reflex. Et dire le contraire, c'est faire preuve de la plus grande mauvaise foi possible.

    C'est bien dans ce sens là, qu'évacuer les chiffres de la latence en natif sans reflex est bien plus du domaine du fanboy que de celui qui veux se faire une idée objective de la technologie. Car dans une comparaison, les référentiels sont très importants, le référentiel du max est intéressant, certes, mais celui de ce à quoi nous sommes habitués (jusqu'en 2022 tout du moins) l'est tout autant.

  17. #6917
    Citation Envoyé par Dross Voir le message
    Il n'en a retenu que ça augmentait suffisamment la latence pour être inexploitable, alors que tout les résultats qu'on a montrent que même dans les cas les plus difficiles, à 30 FPS, l'activation du FrameGen aboutis à une latence inférieure au natif sans reflex.
    Tu peux montrer une source là dessus ?
    Perso, j'avoue que l'idée de jouer à 120fps avec la latence d'un jeu à 30fps me semble sans intérêt. Pour moi, l'intérêt d'augmenter les fps a toujours été d'améliorer la jouabilité et le gameplay ce qui là n'est pas le cas.
    Mais si certains apprécient que c'est pas pire niveau latence (donc pas plus jouable, mais pas moins) why not.
    Dernière modification par Borh ; 27/01/2025 à 07h57.

  18. #6918
    Non mais sérieux, tu oppose ta stat idiote sur le 30 im/s natif aux retours sur la video du test du DLSS4 et du multiframe generation et quand on te dit que c'est idiot, tu pars dans des comparaisons avec le "avant" que reflex ne soit sorti.
    Maintenant tu vas repondre quoi, que "idiot" ne peut pas se rapporter à l'IA donc ce que je dis est faux ?
    C'est la défense Chewbacca, ton argumentaire, la moitié du temps.

  19. #6919
    Ca y est, on s'absente quelque temps et c'est la foire ...

    Non sérieusement je rejoins ce qui semble être le majorité.
    Vendre des carte hors de prix pour te venter du 120 FPS, avec du FG*4 alors que de base, ça aurait tourné à 40. Oui oui, 40, parce que 4*40 -les pertes=120.

    L'intérêt de cette nouvelle feature c'est d'alimenter en FPS les écrans 240 Hz et plus. Intérêt ? Pour moi aucun, et pourtant je suis très sensible à la fluidité (excluant ici la latence). Au delà de 100/120 Hz, je ne fait plus la différence. Mon écran actuel fait du 144 Hz, le précédent du 165Hz et honnêtement j'ai jamais vu de différence majeure entre 100 et 165.

    Cependant, je comprends très bien l'intérêt d'augmenter le frame rate de base afin de réduire la latence. Mais attention quand même, l'intérêt de baisser la latence au delà du perceptible peut devenir aussi complétement idiot. En jeux compétitifs en ligne entre les tick rate à 60 Hz (16.6 ms) max et la latence réseau (30/40 ms en fibre+100ms de latence serveur), réduire la latence native au delà des 8.3 ms (=120 Hz) ça n'a pas un intérêt énorme. Tenter de gagner sur l'élément qui est déjà le moins impactant n'est jamais idéal.

    Bref, j'aurais tendance à trouver cette nouvelle feature du FG 3 ou 4x pas très intéressante de base. Après sur un jeu solo, pour des personnes qui comme moi sont plus sensibles à l'aspect fluidité qu'à la réactivité du gameplay, je pense que c'est un truc que je pourrais essayer d'utiliser.

  20. #6920
    Ayant un écran 165 Hz ( et 120 me suffirait même), ça me fout le doute quand à mon idée d'éventuellement me prendre une 4070 Ti (pas de FE dommage).

    Limite ça me donne envie de surveiller leboncoin et cie pour chopper une 4080 Normale/Super à un prix intéressant en espérant qu'il y ait des gens assez bêtes pour en revendre (donc pour se prendre une 5080).

    Edit : je viens jeter un oeil, les quelques annonces que je vois sont à 900-1100 €, ils peuvent se gratter, on sent les types qui veulent financer au maximum l'achat de leur 5080.

  21. #6921
    Citation Envoyé par Borh Voir le message
    J'ai testé le DLSS4 sur Cyberpunk.
    Je vous laisse deviner sur quelle capture (tip : regardez l'hélipad).
    Au niveau des perfs, je passe de 63.7fps à 62.1fps sur le benchmark. Donc les RTX non 50 ne semble pas si désavantagés.

    https://jolstatic.fr/attachments/2/9..._24_213142.jpg
    https://jolstatic.fr/attachments/3/9..._24_213200.jpg

    L'upscaling DLSS était déjà très bien, donc la différence est pas aussi spectaculaire que le passage du DLSS1 au DLSS2.1 ou que la différence entre DLSS et FSR. Mais c'est appréciable.
    j'ai du mal à voir la moindre différence entre les 2 screens, alors je n'imagine pas en mouvement (ou alors c'est peut-être plus visible).
    CPU : INTEL 13thGen Core i5-13600K - GPU : NVIDIA GeForce RTX 4070Ti - CM : GIGABYTE Z690 AORUS ELITE AX - RAM : 32Go KINGSTON 5200MHZ CL40 SSD : WD Black SN850X 2To - Alim : CORSAIR RM850X - Boitier : Be Quiet Pure Base 500DX

  22. #6922
    Citation Envoyé par BenoitBMC Voir le message
    j'ai du mal à voir la moindre différence entre les 2 screens, alors je n'imagine pas en mouvement (ou alors c'est peut-être plus visible).
    1er en DLSS4 et 2eme en DLSS3. Visible "tres facilement" sur la bande jaune autour de l'héliport 2B.

  23. #6923
    Citation Envoyé par BenoitBMC Voir le message
    j'ai du mal à voir la moindre différence entre les 2 screens, alors je n'imagine pas en mouvement (ou alors c'est peut-être plus visible).
    En fait j'ai refait des tests mais en DLSS performance, et là voit vraiment beaucoup plus la différence.
    Les deux captures étaient en DLSS auto, et avec ma 4090, j'imagine que ça équivaut à DLSS qualité le plus souvent.

    En DLSS performance, c'est vraiment pas beau avec le modèle CNN, j'ai un peu l'impression de voir du FSR, beaucoup d'artefacts et de scintillement. Avec le modèle Transformer, l'image devient beaucoup plus stable (tout en restant beaucoup plus floue et instable qu'en mode qualité).

    Bref, l'intérêt du nouveau modèle, c'est surtout pour le DLSS performance et les petites configs. J'espère qu'on l'aura sur switch 2, typiquement ça peut permettre de gros gains.

  24. #6924
    Perso, je serais assez curieux de voir l'impact de cette nouvelle génération sur la vente d'écrans. Car si j'ai à peu près compris les 3 478 messages postés ici (oups, 3 479 avec celui-ci ) et les quelques vidéos que j'ai regardées ici et là, l'évolution n'étant pas très significative, et les prix n'étant pas vraiment annoncés à la baisse, j'ai comme l'impression qu'un paquet de joueurs vont gentiment attendre (comme moi) avant de passer à un écran plus gourmand en ressources... Je me trompe ?
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

  25. #6925
    Citation Envoyé par Ashley TOUCRU Voir le message
    Perso, je serais assez curieux de voir l'impact de cette nouvelle génération sur la vente d'écrans. Car si j'ai à peu près compris les 3 478 messages postés ici (oups, 3 479 avec celui-ci ) et les quelques vidéos que j'ai regardées ici et là, l'évolution n'étant pas très significative, et les prix n'étant pas vraiment annoncés à la baisse, j'ai comme l'impression qu'un paquet de joueurs vont gentiment attendre (comme moi) avant de passer à un écran plus gourmand en ressources... Je me trompe ?
    Ben j'aurai bien remplacer la 7900 XTX, mais je m'attendais à mieux et j'ai très peu pour la 5080.
    En tout cas les perfs/W ne sont pas au rendez-vous, les performances supplémentaire se faisant en augment la consommation. Le 4090 à 75 % des perfs de la 5090 quand la conso de la 4090 est 70 % de celle de la 5090. Ce qui est cohérent avec les cores CUDA puisque la 4090 à 75 % des cores de la 5090.

    Bref la 5080 qui à sur le papier une config très proche de la 4080 super devrait avoir les perfs de la 4080 super, en tout cas en perf de base. C'est bien triste.

  26. #6926
    Citation Envoyé par Borh Voir le message
    Bref, l'intérêt du nouveau modèle, c'est surtout pour le DLSS performance et les petites configs. J'espère qu'on l'aura sur switch 2, typiquement ça peut permettre de gros gains.
    Faut faire gaffe aux petites configs avec le nouveau modèle, on ne sait pas quelle génération de tensor cores et nombre il y a dans la Switch 2, mais ça risque d'être trop lourd.
    À une époque une rumeur/leak disait que Nintendo bossait avec Nvidia sur un modèle plus léger que CNN déjà (ce qui avait alimenté les rumeurs de DLSS sur Switch 2). Faudrait retrouver la ref précise mais DF en reparlait lors d'un de leurs shows.
    Bon pour l'upscaling ça va largement, mais je ne sais pas s'il y en a qui ont fait ces tests avec des GPU entrée de gamme, ça serait intéressant de voir s'il y a une différence notable. Mais c'est proportionnel au nombre d'unités de calcul, il ne devrait pas y avoir de goulet d'étranglement.

    Citation Envoyé par 564.3 Voir le message
    Texte: https://www.eurogamer.net/digitalfou...l-enhancements

    […]

    Tableau récapitulatif des perfs par rapport à l'ancien modèle CNN:
    RTX 2080 Ti RTX 3090 RTX 4090 RTX 5090
    4K Super Res CNN 100.0% 100.0% 100.0% 100.0%
    4K Super Res Transformer 92.1% 93.5% 95.3% 96.0%
    4K Ray Reconstruction CNN 100.0% 100.0% 100.0% 100.0%
    4K Ray Reconstruction Transformer 64.7% 68.7% 95.2% 93.0%

  27. #6927
    Citation Envoyé par Berk-124 Voir le message
    1er en DLSS4 et 2eme en DLSS3. Visible "tres facilement" sur la bande jaune autour de l'héliport 2B.
    merci pour la précision, je le vois bien :-)
    C'est pas ça qui me poussera à changer de matos, tant que le mien tourne :-)
    CPU : INTEL 13thGen Core i5-13600K - GPU : NVIDIA GeForce RTX 4070Ti - CM : GIGABYTE Z690 AORUS ELITE AX - RAM : 32Go KINGSTON 5200MHZ CL40 SSD : WD Black SN850X 2To - Alim : CORSAIR RM850X - Boitier : Be Quiet Pure Base 500DX

  28. #6928
    Citation Envoyé par 564.3 Voir le message
    Faut faire gaffe aux petites configs avec le nouveau modèle, on ne sait pas quelle génération de tensor cores et nombre il y a dans la Switch 2, mais ça risque d'être trop lourd.
    À une époque une rumeur/leak disait que Nintendo bossait avec Nvidia sur un modèle plus léger que CNN déjà (ce qui avait alimenté les rumeurs de DLSS sur Switch 2). Faudrait retrouver la ref précise mais DF en reparlait lors d'un de leurs shows.
    Bon pour l'upscaling ça va largement, mais je ne sais pas s'il y en a qui ont fait ces tests avec des GPU entrée de gamme, ça serait intéressant de voir s'il y a une différence notable. Mais c'est proportionnel au nombre d'unités de calcul, il ne devrait pas y avoir de goulet d'étranglement.
    Je ne suis pas sûr que tu parles de ça exactement mais j'ai regardé cette vidéo que je trouve bien synthétique :

    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

  29. #6929
    Citation Envoyé par Berk-124 Voir le message
    Ben j'aurai bien remplacer la 7900 XTX, mais je m'attendais à mieux et j'ai très peu pour la 5080.
    En tout cas les perfs/W ne sont pas au rendez-vous, les performances supplémentaire se faisant en augment la consommation. Le 4090 à 75 % des perfs de la 5090 quand la conso de la 4090 est 70 % de celle de la 5090. Ce qui est cohérent avec les cores CUDA puisque la 4090 à 75 % des cores de la 5090.

    Bref la 5080 qui à sur le papier une config très proche de la 4080 super devrait avoir les perfs de la 4080 super, en tout cas en perf de base. C'est bien triste.
    Quoi, tu ne me vends plus ta 7900xtx !
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

  30. #6930
    Citation Envoyé par Ashley TOUCRU Voir le message
    Je ne suis pas sûr que tu parles de ça exactement mais j'ai regardé cette vidéo que je trouve bien synthétique :

    https://www.youtube.com/watch?v=UppezSbHbUc
    Ah ouais il a testé sur plus de jeux et avec des cartes entrée de gamme de chaque génération, les moyennes:
    https://www.youtube.com/watch?v=UppezSbHbUc&t=733s



    Il y a quand même un petit décrochement sur l'entrée de gamme, mais c'est surtout entre génération qu'on voit des différences. Et de gros écarts selon les jeux aussi.

    Le pire cas, où ça fait bien mal:



    En raster -22% pour la RTX 2080Ti et -32% pour la RTX 2060
    Bon pour une RTX 2060 même avec l'ancien modèle valait mieux lacher du lest coté options de rendu en plus, c'est pas vraiment un cas pratique réel.
    On verra des analyses plus complètes ici et là par la suite je suppose.

Page 231 sur 235 PremièrePremière ... 131181221223224225226227228229230231232233234235 DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •