Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 1 sur 2 12 DernièreDernière
Affichage des résultats 1 à 30 sur 48
  1. #1
    Salut,

    Je voudrais savoir pourquoi sur PC le 30 fps est injouable, ça saccade bien trop. Je parle de jeu comme AC ou Batman.

    J'entends souvent dire que 30 fps ça passe sur console ou quand je vois mon frère jouer c'est fluide alors que du 30 fps.

    ?

  2. #2
    Salut,

    Alors en virant les causes suivantes extérieures du genre :
    - Je suis plus près de l'écran
    - Mon pc est pas assez puissant et il n'atteint pas les 30 fps sur tel ou tel jeu
    -
    - etc...

    C'est dû au frame pacing ( Si tu lis l'anglais tu as cet article rédigé par une pointure ).

    Imagine ce cas extrême, jeu A tourne à 30 FPS "tandis que" jeu B tourne à 30 FPS :
    - Jeu A affiche 30 images s'affichant toutes pendant 33,3 millisecondes chacune
    - Jeu B affiche 10 images s'affichant pendant pendant 60 millisecondes, 10 images pendant 10 ms et 10 images pendant 30 ms
    => Jeu B va paraître moins fluide

    Les jeux consoles sont la plupart du temps optimisés pour se rapprocher du cas cas A, mais suffit de jouer à Bloodborne sur PS4 pour te rendre compte qu'il y a des exceptions


    ( Par contre j'ai cru à un message bidon alors que tu as 200 messages : mets un avatar, et poste dans un sous-forum adéquat ! )

  3. #3
    Non la question est sérieuse.

    Après dans l'article il parvient il me semble à avoir quelques chose de correcte en utilisant entre autre RTSS.

    C'est ce que j'ai fait, j'ai limité à 30 fps, mais ça saccoade.

  4. #4
    Renseigne toi sur freesync ou gsync

  5. #5
    Justement j'ai un écran G-Sync je devrais pas avoir de saccade normalement.

  6. #6
    Un joueur PC qui s’arrête à du 30 FPS...autant prendre une console

  7. #7
    La question est bien vague, et effectivement y'a plein de facteurs qui jouent. Notamment notre cerveau, qui, ce con, n'a pas les mêmes niveau d'exigence chez tout le monde.
    on a la techno d'affichage qui n'est pas la même entre un moniteur et une TV (une TV a beaucoup plus de filtres). On peut avoir notamment de soptions de fluidification d el'image qui seraient activées sur la TV. On a des codes qui sont finalement différents entre les jeux, et des étapes de rendu qui peuvent varier grandement. On a des gestion des FPS différentes, du lag qui n'est pas le même non plus, etc.


    l'écran peut jouer beaucoup, ainsi que les options que tu auras activées dessus ou non. Si tu veux éliminer ce facteur, teste de brancher ton pc sur la même tv, et regarde si l'impression de fluidité est différente pour un framerate égal.

    Sinon, comme énoncé de manière un peu abrupte par RsRaidersCPC, si tu es limité à 30 fps sur un jeu PC, alors la puissance du PC est peut-être à remettre en cause.

    Mais au final, pourquoi poses-tu la question: tu es limité niveau puissance sur ton PC et ça te gêne? C'est juste par curiosité? Là on n'a pas tes motivations, on n'a pas les options activées ou pas, etc. bref, on manque de contexte et d'informations pour pouvoir répondre correctement. Déjà, quelles sont tes criètes pour dire que le jeu rame ou pas? fluidité d'affichage? présence de tearing? décalage entre input et effet en jeu? micro-freezes?
    pouet!

  8. #8
    Mmmmhh, tu évoques AC et j'ai eu cet effet en jouant à Syndicate que j'ai tenté de comprendre. L'animation du personnage me semblait super saccadée au début (après je m'y suis fait mais l'impression restait quand même), en particulier la veste, c'était frappant parce que le reste autour était fluide, j'avais comme l'impression que l'animation du tissu était en 30 fps alors que tout le reste était à 60, d'où la sensation de saccade à cause du contraste, serait-ce possiblement la même chose ici ? Je dis peut-être n'importe quoi c'était peut-être dans ma tête mais c'est la seule explication qui m'est venue à l'époque quand j'essayais d'analyser ce qui n'allait pas. Et Batman/AC ont en commun d'avoir des animations de capes.
    Dans Batman également, le dernier, le portage était foiré et ils ont mis des rustines comme ils pouvaient, en affichant les fps on peut constater que le jeu passe à 30 fps sur certains plan, et 60 fps le reste du temps, le passage de l'un à l'autre rend le 30 fps saccadé à l'oeil, de même qu'un jeu où les cut-scene sont en 30 fps, c'est le contraste brutal qui créer le problème (il me semble que c'est sur DAI que j'avais vécu ça), là où la console affiche toujours le même framerate en théorie.

    Ceci dit, si tu as limité à 30 fps constamment, alors là je ne saurais expliquer, je ne suis clairement pas expert tout ceci est du ressenti.
    Dernière modification par CHbox ; 13/09/2018 à 10h40.
    Coucou

  9. #9
    Essais de forcer le Vsync dans les paramètres vidéos de ta CG (section paramètre 3D et sélectionne ton jeu) sur "adaptive half refresh rate"; ça va te bloquer directement ton jeu à 30 fps. J'avais testé ça en cherchant à fluidifier un 30fps sur moniteur pc. J'avais noté une nette différence avec ce vsync.
    Après effectivement la techno de l'écran joue. J'avais fait Arkham Night en 30 fps sur mon plasma, c'était fluide, rien à redire.

  10. #10
    Yes,

    J'ai une MSI 1070, et je pense que le cpu,i5 6500, est limité surtout sur le dernier assassin, mais oui c'est juste par curiosité. Comme je l'ai dit j'entends souvent "à 30 fps ça passe" et mon frère joue sur console et effectivement je vois pas de saccade.

    Car je pense que pour certains jeux, 30 fps suffisent ?!

  11. #11
    Sur PC aussi, 30fps peuvent passer.
    Mais comme on l'a dit ça dépend de plein de choses:
    - la tolérance de l'individu en question
    - le jeu utilisé (un jeu avec des scrollings horizontaux ou beaucoup d'action/de mouvement passeront bien moins qu'un RTS, par exemple)
    - les options de "fluidification" qui sont activées sur l'écran
    - la stabilité du framerate (très important, ça)
    - etc

    Perso j'ai régulièrement tourné à 30fps sur pas mal de jeux, et si je pense que je remarquerais une différence entre 30 et 60fps, je ne suis pas sûr que je serais réellement gêné à 30.
    pouet!

  12. #12
    C'est surtout flagrant sur certain jeux tel que wwe ou des jeux de baston, auquel les animation de départ, fatality et autre qte passe a 30 alors que le reste du jeu est a 60. Si tout le jeu serait a 30 on verra pas la différence.

    Sinon la distance entre le joueur et l'ecran peut jouer aussi, on percois moins le 30 fps a une bonne distance. Enfin on y fait moins attention.

  13. #13
    Chez moi c'est horrible,

    Et justement le G-Sync doit palier à ça quand on descend en fps, non ?

  14. #14
    Citation Envoyé par duke Voir le message
    Chez moi c'est horrible,

    Et justement le G-Sync doit palier à ça quand on descend en fps, non ?
    Gsync ne sert qu'à t'éviter les saccades dues à la vsync, rien d'autre. Si cela vient du moteur 3d du jeu, gsync ne te servira à rien.

    Il y a pleins de facteurs qui font qu'un jeu à 30 fps te paraisse fluide ou pas:
    - le moteur du jeu bien optimisé ou pas
    - le motion blur qui aide à augmenter l'impression de fluidité
    -le genre car un jeu où tu déplaces rapidement la caméra, la sensation de saccade peut être plus importante
    - ton exigence. Certains de nos jours ne jurent que par 60 fps minimum alors qu'il y a 30 ans, quand on avait 20 fps, on trouvait ça suffisamment fluide pour s'éclater.
    etc

  15. #15
    Citation Envoyé par duke Voir le message
    Chez moi c'est horrible,

    Et justement le G-Sync doit palier à ça quand on descend en fps, non ?
    Faut bien comprendre que 30 fps ça restera 30 fps, G-Sync ou pas. La G-Sync va simplement traiter les désagréments que peux provoquer un framerate qui joue au yoyo (stuttering et tearing).
    Mais contrairement à ce qu'on peux parfois lire, ça ne va absolument pas te donner la sensation de jouer à 60 fps quand le jeu ne tourne qu'à 30.

  16. #16
    Donc c'est normal somme toute.

    Je me disais que je pouvais privilégier le rendu et baisser de fps pour certain jeux qui ne demande pas de grand mouvement comme tu dis.

  17. #17
    Citation Envoyé par Vladivostok Voir le message
    Faut bien comprendre que 30 fps ça restera 30 fps, G-Sync ou pas. La G-Sync va simplement traiter les désagréments que peux provoquer un framerate qui joue au yoyo (stuttering et tearing).
    Mais contrairement à ce qu'on peux parfois lire, ça ne va absolument pas te donner la sensation de jouer à 60 fps quand le jeu ne tourne qu'à 30.
    Par contre sous les 30fps le module double les images, par exemple si le jeu tombe à 24fps le module G-Sync va dédoubler l'image pour faire du 48fps.

    Mais à 30fps ça fera pas de miracle tu auras comme les autres l'ont déjà dit une image toutes les 33.33ms.

  18. #18
    Je comprends pas un truc avec G-Sync on dit souvent dire de laisser le V-Sync activé et d'autre non.

    Quand est-il ? Quel environnement faut-il avoir ?

  19. #19
    Tout l'intérêt de g-sync est justement d'éviter d'avoir à utiliser la v-sync. Donc v-sync à "non" systématiquement !!
    pouet!

  20. #20
    Citation Envoyé par Erokh Voir le message
    Tout l'intérêt de g-sync est justement d'éviter d'avoir à utiliser la v-sync. Donc v-sync à "non" systématiquement !!
    Faux, car le G-Sync est associé aux V-Sync dans les pilotes(cf cet article qui explique tout cela), donc il faut activer le VSync dans les pilotes mais le désactiver dans le jeu et il faut de préférence limiter les fps en dessous de 144Hz.

  21. #21
    La base, dans ce genre de question, c'est de donner le nom du jeu dans lequel ça saccade, la configuration complète du PC et les réglages utilisés en jeu.

    Si tu as un PC avec un i5 6500 cadencé à 2.7Ghz, une 1070, 4Go de RAM et que tu tentes de jouer au dernier AC en ultra, 2k avec un MSAA bloqué sur 8x, tu auras fatalement des drops de framerates.

    Merci donc de donner plus de précisions afin qu'on puisse t'aider de façon plus pertinente.

  22. #22
    Nan, mais je pense que sa question est pourquoi 30 fps sont "injouables" sur pc, alors que sur console ça tient la route.

    Sinon, oué son i5 bride déja la 1070, et pour le peu qu'il n'ai pas 12go de ram minimun c'est encore pire. ( 8go c'est mort maintenant )

  23. #23
    Cela dépend des jeux, mais pour AC j'ai mis en Ultra et descendu les ombres, détails environnement et occlusion ambiant. le 6500 c'est 3.2 Ghz. et 16Go de Ram.

    Je retrouve plus les test qui montré bien qu'avec un autre cpu le gain était palpable.

    Mais c'est vraiment pas clair pour le G-Sync.

  24. #24
    Je dis peut être des conneries, mais il me semble que le GSync ne sert à rien si t'es à 30fps constant. Le GSync c'est pour adapter la fréquence de rafraichissement de ton écran aux FPS pour compenser les variations.
    Donc si tu as GSync, je dirais qu'il vaut mieux débloquer les FPS et le laisser faire son travail.

  25. #25
    J'ai croisé ce très bon article sur la raison derrière les "saccades", ce bégaiement ou "stuttering" en anglais. Les causes derrière ont été fouillé par l'équipe derrière Serious Sam. Voici leur très bon article sur ce phénomène.
    https://medium.com/@alen.ladavac/the...g-168f899aec92

    Je résume l'article : C'est effectivement un problème de timing à FPS constant, et le soucis est assez original, et simple une fois expliqué (mais sans solution simple, malheureusement). Le problème, en résumé, vient du fait que la Carte Graphique fonctionne, depuis des années, sur le principe de buffer de commande. De façon tout à fait indépendante du PC. Le PC lui ne sait QUE quand le buffer est pris en compte par la carte graphique, mais pas quand il est vidé sur l'écran. Donc un jeu ne sait jamais, actuellement, quand l'image est affiché sur l'écran et fait la supposition (fausse) que la vitesse d'entrée dans le buffer est la même que celle de la sortie.

    Donc si la carte graphique, en interne, pour X raisons, s'amuse à remplir ou vider le buffer à des vitesses différentes, en se rattrapant (par exemple elle ralentit sur la prise en charge d'une frame du buffer, mais accélère sur la suivante). Tu obtient un 30FPS ou un 60FPS stable délivré par la carte graphique, et donc stable sur l'écran, mais du point de vue du jeu il voit un buffer oscillant. Comme le jeu "pense" qu'a une image la CG a pris plus de temps de calcul, bah il augmente le temps "physique" dans le jeu (si 40ms s'écoule entre deux images il faut que les persos se déplace en accord avec ces 40 ms, si c'est 20ms idem, donc le déplacement est différent selon l'écart de temps entre les images) mais comme la CG se rattrape à l'image d'après, bah le jeu "pense" alors qu'il est en avance, et pouf, il ralentit tout ce qui est mouvement etc .. au niveau du moteur du jeu et donc ça n'a pas de rapport avec le nombre de FPS.

    Le tout donne lieu à une saccade, cette saccade n'est absolument pas due à une image qui aurait sauté physiquement et est donc indépendante du freesync, vsync ou gsync ou autres méthodes et reste très présente sur les écrans qui en sont doté, et même parfois encore plus visible (vu que tout le reste est propre, on ne voit plus que ça) : exemple avec Subnautica. Quelques parades sont détaillées dans l'article mais ne sont pas applicable sur des PC de joueurs standard. La seule parade propre est l'implémentation d'une info sur le "quand l'image s'affiche réellement" que la CG renverrait au programme. Mais pour l'instant il n'y a que des proposition d'implémentation (dans Vulkain, la suite d'OpenGL) et donc il y a encore bien de la marge avant de vivre dans un monde sans saccade. Le taf qui a été fait sur freesync et gsync va neanmoins pas mal aider car il supprime l'une des cause de variance dans le buffer (la différence entre la vitesse du buffer, sa fréquence, sa phase, et la fréquence/phase de l'écran)

    La parade la plus simple en l'absence actuel de la bonne solution, serait que l'OS se charge de rendre le buffer le plus propre possible, avec que 100% du jeu à l’intérieur. Et même comme ça, je doute qu'on puisse arriver à supprimer toutes les sources de changement de vitesse dans la gestion de ce buffer ... néanmoins je pense que c'est comme ça, pour répondre à ta question initiale, que les fabricants de console arrivent à avoir un FPS constant "propre", tout simplement en s'assurant qu'il n'y ai que le jeu, et vraiment que lui qui touche au buffer de la CG. Il faut aussi savoir que si le matériel est connu, cela permet la mise en place de l'astuce décrite dans l'article. Si ton matos peut faire tourner le jeu TOUT LE TEMPS et ASSUREMENT à 40FPS et que la sortie désiré est à 30, alors il suffit de mettre une limite dans le moteur du jeu à 30FPS et de dire au jeu "ne t'occupe pas des éventuelles variations du buffer, ce sera toujours à 30FPS, donc calcul en conséquence et n’envoie que 30 frame par seconde avec un écart dans le jeu constant. " . D’où un jeu sans saccade. Pour peu qu'aucune scène ne foutent la merde, car dans ce cas on verra un retard.

    C'est évidement inapplicable sur PC, le matériel variable fait qu'il est impossible pour le devs de s'assurer que le joueur aura un FPS absolument stable tout le temps. Il doit donc prévoir en conséquence, donc prendre en compte la seule info qu'il a pour accélérer ou ralentir le jeu : le buffer. Info erronée donc, qui aboutit aux saccades. Notons que Gsync et Freesync pourrait, ici à contrario, foutre le boxon en l'absence de la "bonne" solution, car par essence ils fonctionnent en FPS très variable. Un Gsync non borné à quelque chose de correcte sur une config moyenne (disons 60fps) est donc, en théorie, une catastrophe niveau source de saccade, car toute variation de framerate engendre ces fameux recalage et instabilités dans le buffer, donc on est tout content avec ses FPS variant entre 100 et 130, disons, et son écran qui suit fluidement la cadence, mais en vrai c'est multiplier les sources de caca pour le buffer de la CG (fonctionne au max de ses capacités ET à freq variable). A l'inverse, un Gsync avec une borne haute à 60fps sur un bon PC est par contre sans doute meilleure qu'un écran classique niveau saccade car il retire une contrainte au niveau du buffer sur le fait de correspondre à l'écran en sortie tout en tournant dans 95% des scenes à fréquences stable, que des cas idéaux niveau saccade donc.

    Voili voilou.

    Donc en pratique sur PC :
    - Avoir une bonne config qui fait que la CG a masse de temps pour traiter les infos, donc n’accélère et ne ralentit pas trop le buffer, ou très rarement. Le but est donc d’être pas "juste à la limite" mais bien "très au dessus" de ce qui est demandé, si tu veut un jeu vraiment fluide et irréprochable.
    - Ne pas avoir de truc qui tourne en fond et qui pourrait toucher à la CG
    - Certains disent que du coups désactiver les améliorations visuelles de l'OS et activer le plein écran "exclusif" (désactivé par défaut dans pas mal de jeu moderne) aide à la fluidité du buffer (pas d'info venant de tout pleins de sources variables). Donc à éviter les saccades. A vérifier néanmoins.
    - Avoir du Gsync, mais en bornant le jeu à une borne haute de FPS qui permettent de respecter la première condition. (donc rarement à la bornes naturelle haute du Gsync de 144Hz, peu de config tiennent ce framerate en toute condition sur un gros jeu)

    Voila voila, c'est tout. Et si tu veut faire tourner un jeu à 30FPS c'est théoriquement un bon plan ... à partir du moment ou ton PC est capable de le faire tourner à 50 et que tu le limite à 30


    Sinon il semble que les jeux soient de plus en plus "saccadé" et affecté par ce phénomène (voir les stats dans l'article). Je pense perso que c'est due à une combinaison de facteur :

    -
    Des jeux de plus en plus variable en eux même, avec des scenes demandant des ressources très différentes, des jeux parfois très peu optimisé etc... qui foutent donc le bazars dans la gestion du fameux "buffer" et compte énormément sur la fiabilité de son info pour rectifier la donnée de vitesse du moteur de jeu lors des scenes variables. D'ou les saccades. -> Ce n'est un secret pour personnes que les pics et vallée de framerate sont très courant sur les jeux modernes.

    - L'accessibilité des moteurs clé en main aident à avoir de plus en plus de joli jeu fait par pleins de petites équipes, mais n'aide vraiment pas à avoir des jeux optimisé et à framerate constant.

    - L'abandon du "matériel constant" chez les fabricant de console, parfois sur les même génération de console, à fait passer bien des équipes de "on pond un jeu qui doit respecter un framerate constant dans toutes les scenes et ne pas trop sautiller dans tout les sens" à "de toute façon le matériel est trop différent pour se prendre le chou et les Xbox et PS4 ce sont des PC maintenant, on dévs donc un seul gros jeu à framerate très variable et on bidouillera ensuite". D'ou, à mon avis, une plus grande quantité de jeu comptant sur le "recalage via l'info du buffer quand la scène XXX fait descendre les FPS de tout le monde en dessous de 15" et du point de vue des joueurs PC, moins de jeu optimisé pour rentrer dans le moules des consoles, moule plus petit donc gâteau facile à fourrer dans un moule plus grand si on veut. Et parfaitement rond pour coller au moule no1, donc la carte graphique aime ça, miam. Maintenant on aura de moins en moins de jeu de ce type. D’où de plus grosse possibilité de saccade un peu partout.

    - La présence d'OS qui sont prioritaire sur la CG pour faire de joli fenêtre et tout. Et donc une gestion en interne en plus et des trucs qui tournent éventuellement sur la CG en fond. Comme les OS sont de plus en plus "beau", la CG est de plus en plus exploités et donc soumise au phénomène en question de buffer oscillant en présence de trop de sources à traiter variable. Pour tester cette hypothèse il faudrait tenter de jouer à des jeux saccadé sur une config et un OS puis sur une version d'un OS bien en dessous, comme XP. Malheureusement peu de jeu sont retro-compatible si loin. Un test sur certaines distrib de linux pourrait servir de modèle de comparaison.

    Cet ensemble fait qu'a mon avis le phénomène "saccade" est devenu prépondérant sur les jeux modernes et risque de devenir plus important encore. Et ça explique du coups le fait que des équipes tafs sur le fait de le résoudre (implémentation Vulkain et voir les autres liens à ce propos dans l'article, mais on peut s'attendre à des CG qui répondent à cette demande très vite).

    Voila, j'ai épuisé toute ma science de ce domaine, durement acquise lors de mes recherches sur le pourquoi des saccades dans Subnautica. Si ça aide.
    Désolé pour les fautes d'orthographes et la lisibilité du texte, mais moi je vais faire dodoooooooo.
    Dernière modification par Nilsou ; 17/09/2018 à 16h30.

  26. #26
    Citation Envoyé par duke Voir le message
    Je comprends pas un truc avec G-Sync on dit souvent dire de laisser le V-Sync activé et d'autre non.

    Quand est-il ? Quel environnement faut-il avoir ?
    Il en est que c'est libre. C'est juste que maintenant, tu as le choix mais ça ne change rien ou presque.
    Dans la plage de fréquence où gsync est actif, vsync ne sert à rien donc sur on ou off c'est pareil. en dehors de cette plage, vsync s'active si tu l'as activé. sinon, il est inactif.

    Un exemple: Si ton écran est 120hz et que tu te trouves avec un jeu variant entre 60 et 115fps, que tu aies activé vsync ou pas, ce sera pareil.
    Si maintenant, dans le même jeu tu as un passage qui monterait au dessus de 120fps, avec vsync on, tu resteras à 120fps. avec vsync off tu monteras au dessus de 120fps et là tu seras comme tout écran sans vsync avec possibilté de tearing tant que tu es au dessus de 120fps.

    Pour éviter cela, le mieux est de laisser vsync activé sauf si tu aimes avoir des fps au dessus du taux de rafraichissement de ton écran.

    Nvidia conseille d'activer vsync dans les drivers et pas dans les jeux car cela pourrait parfois causer des incompatibilités mais je n'en ai jamais vu.

  27. #27
    tu monteras au dessus de 120fps et là tu seras comme tout écran sans vsync avec possibilté de tearing tant que tu es au dessus de 120fps.
    Et en échange, avec Vsync ON tout ce qui sera au dessus ajoutera de la latence, d'où la recommandation de régler quand possible la limite de FPS dans le jeu à 143 ( ou 119, 99,84,59 .. )

  28. #28
    Citation Envoyé par Niark Voir le message
    Et en échange, avec Vsync ON tout ce qui sera au dessus ajoutera de la latence, d'où la recommandation de régler quand possible la limite de FPS dans le jeu à 143 ( ou 119, 99,84,59 .. )
    En vsync on, tu auras la latence du vsync on mais tu ne monteras jamais au dessus de 120fps si tu as un écran 120hz.

    Si tu parles de l'article de blur busters ( https://www.blurbusters.com/gsync/gs...nd-settings/6/ )qui a testé ça, je connais mais la latence de vsync on, ça ne m'a jamais géné dans les jeux auxquels je joue ne faisant pas de l'esport ou du multi compétitif. Si ça gêne oui mais dans le cas contraire, ça ne sera pas utile.

    Si tu veux avoir une latence ultra réduite, il est plutôt conseillé de se mettre 3-4 fps en dessous du taux de rafraichissement de ton écran qu'1 fps car les variations des limiteurs de fps peuvent faire que ça touche la limite dans certains cas.

  29. #29
    Je me répète mais c'est vraiment pas clair tout ça, y a pas un set unique ou paramétrage classique pour ne plus se soucié de ça, car faut aussi prendre en compte la fréquence à laquelle on est apparemment.

  30. #30
    Citation Envoyé par ravenloft75 Voir le message
    Il en est que c'est libre. C'est juste que maintenant, tu as le choix mais ça ne change rien ou presque.
    Dans la plage de fréquence où gsync est actif, vsync ne sert à rien donc sur on ou off c'est pareil. en dehors de cette plage, vsync s'active si tu l'as activé. sinon, il est inactif.

    Un exemple: Si ton écran est 120hz et que tu te trouves avec un jeu variant entre 60 et 115fps, que tu aies activé vsync ou pas, ce sera pareil.
    Si maintenant, dans le même jeu tu as un passage qui monterait au dessus de 120fps, avec vsync on, tu resteras à 120fps. avec vsync off tu monteras au dessus de 120fps et là tu seras comme tout écran sans vsync avec possibilté de tearing tant que tu es au dessus de 120fps.

    Pour éviter cela, le mieux est de laisser vsync activé sauf si tu aimes avoir des fps au dessus du taux de rafraichissement de ton écran.

    Nvidia conseille d'activer vsync dans les drivers et pas dans les jeux car cela pourrait parfois causer des incompatibilités mais je n'en ai jamais vu.
    C'est surtout que laisser vsync en off, comme je l'ai expliqué plus haut dans mon gros pavé, c'est s'affranchir de borne max de FPS. C'est ultra negatif pour l'histoire du buffer car c'est poussé la CG dans ses retranchement de la gestion du dit buffer de commande.
    C'est aussi de la merde puisque tu fait probablement dans ce cas tourner la CG à 100% sur le GPU, donc elle va chauffer, et quand elle chauffe le mécanisme de diminution de fréquence de la CG par sécurité va prendre le relai. La CG va donc voir sa fréquence varier ou pire, osciller, ce qui va pourrir sa gestion prédictive du buffer de commande, donc pourrir les infos que le jeu croit avoir sur l'affichage des images, donc causer des saccades.
    Dans TOUT LES CAS ne pas définir de bornes max est donc négatif.

    La recommandation de Nvidia est donc bonne. Le seul hic est sans doute que parfois le paramètre vsync de nvidia peut se meli mélo avec celui in-game, mais c'est rare.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •