Le TXAA est géré à 100% par la cg je ne vois pas en quoi le désactiver aide le processeur. Si on gagne en fluidité en désactivant l'antialiasing ça veut dire que c'était la cg qui était en difficulté.
Et BF1 n'est pas hyper gourmand en CPU. 110 fps avec un CPU AMD et une Fury en 1080p. Et on est bien limité globalement par le GPU et non le CPU puisqu'on passe à 120 fps avec une GTX 1070. L'i5-2500K est peut être un poil vieux mais il reste compétitif face à l'offre AMD pour ce qui est des jeux, surtout si on a moyen de l'OC.
Je savais que ces options sont bien gourmades - mais j'ai cru qu'une Gtx 1080 pourrait activer. C'est du "bon sens" que si on suit l'actualité des GPU, ce qui n'est pas le cas de tout le monde. Vu le prix d'un GPU (et mes souvenirs des premiers jeux quand j'ai eu ma 770), je m'attendais à plus de la 1080.
Bon à savoir, je venais justement pour confirmer cela. Mais vu le prix du GPU, j'ai cru un temps que ça pouvais être le cas, et j'ai vu ensuite les benchmarks.
Aucune idée pour els jeux en géénral, je vais chercher l'info ne serait-ce que pour moi.
Mais si tu une Gtx, GeForce fais des tests pour chaque option, et indique celles qui taxent le plus.
Par ex, pour Titanfall 2 :
http://www.geforce.com/whats-new/gui...tweaking-guide
Une question sans doute déjà posée:
Hormis la taille qu'elle est la différence entre les cartes mini et les normales? Je suis intéressé par une 1060 6go et je m'interroge sur la fiabilité des modèles courts.
Battle.net: JeTueIls#2821 Steam:CPC-JeTueIls COD: XxJeTueIlsxX Uplay: tkt.JeTueIls
Je confirme ce que donne Sanakan comme lien. Tape le nom de ton jeu + tweaks, parfois tu trouves des conseils et de belles comparaisons. Au bout de 2 ou 3 du même genre, tu comprends ce que tu peux essayer en premier.
Mais de toute façon, tous les trucs genre hairwork (Witcher, Tomb Raider) ou végétation réaliste (GTA) sont des bouffe-performance, pour commencer.
L'anti-aliasing trop poussé est également très gourmand (même si pour le coup je comprends mieux l'apport visuel), il existe souvent des solutions genre FXAA qui mettent un peu de flou mais sans vraie conséquence sur les performances, si les autres bouffent trop.
Le topic de Rocket League : vroum vroum hop but.
Wai le txaa qui tire sur le proc me semble improbable. Par contre je te garantis que mon proc à 4.3ghz tape de temps en temps du 100% sur le frostbite et vla la chute de fps.
les articles qui te montrent 120fps avec une 1070 faut voir les conditions, juste sur le solo non ? En multi 64 pour 120fps faut que je tourne le dos à l'action.
Dernière modification par MegABiloU ; 10/11/2016 à 13h26.
boaf ça prend 10 minutes
Si, tu peux comparer tes scores avant et après overclocking.
Vérifier que ton matériel est conforme aux attentes etc...
Dernière modification par MegABiloU ; 10/11/2016 à 14h24.
À l'utilisation courante il s'avère pourtant que si.
Le passage à Win 10 Anniversary et l'utilisation de Windows Defender ont conduit ce dernier à consommer près de 30% des ressources CPU.
J'expérimentais en même temps de grosses pertes de fluidité sur BF1 jusque là inexpliquées.
70% de ressources CPU d'un i5 3750K OC à 4.1 Ghz n'est donc a priori pas suffisant pour faire tourner le jeu à son plein potentiel.
Edith: Je n'avais pas vu le post de gary.
Windows defender qui pompe 30% de CPU? Et sinon qu'est-ce que vous voulez que je vous dise, payez vous un i7-6700K si vous jugez qu'un i5 à 4,3Ghz c'est nul. C'est comme la GTX 1070 pas suffisante pour le 1080p, si c'est nul prenez plus cher. C'est pas compliqué.
Sous win 8.1 mon htpc m'a fait le coup des 30% UC permanents. Il cherchait en permanence des maj sans jamais y arriver...
Kimuji, les gens veulent juste avoir le meilleur rapport prix/perf dans les jeux qu'ils utilisent qu'y a t'il d’aberrant ? Oui pour rocket league pas la peine d'avoir aussi gros. Dans Arma spas la meme, etc etc. Et si au passage on voit que ce n'est pas leur matos qui est pourri mais un juste réglage à la con: tant mieux.
C'est quoi cette histoire de windows defender qui pompe 30%...? Cela n'a rien de normal. Et cela ne justifie pas du tout de changer de CPU.
Tu peux au choix, changer d'antivirus, chercher pourquoi celui-ci est anormalement lourd sur ton système, ou le désactiver avant de lancer un jeu.
Et oui, si tu prends un meilleur processeur tu auras TOUJOURS (sauf cas atypiques) des FPS en plus. La question est de savoir où il faut investir son argent pour y gagner le maximum. Si en changeant de CM + CPU + RAM pour 600€ tu gagnes 10% de FPS, mais que tu peux prendre 50% en changeant de CG pour 400€, le meilleur choix est évident.
Évidemment si tu peux / comptes tout changer la question ne se pose pas vraiment. Mais dans la majeur partie des cas / jeux, et en 1080p@60Hz, un i5 2500k n'est toujours pas limitant de nos jours et l'investissement ne se justifie pas, rationnellement.
Ce qui n'empêchera personne de ne pas être totalement rationnel, mais autant craquer son slip en toute connaissance de cause
On a testé ce midi sur le PC d'un collègue, i5-2500k + gtx770, avec afterburner à côté. Le CPU est constamment à 98/100%, en ultra (sauf les deux dernières options désactivés, l'AA et je sais plus quoi), la carte oscille entre 70 et 100% d'utilisation, et les FPS sont globalement stables à 60, quelques chutes dans des situations ponctuelles, mais de là à dire que ça vient du CPU, pas évident vu qu'il est au taquet tout le temps...
Ce soir je test sur ma machine avec le i5-2400 et la r9 390 on verra bien...
PS : même en normal le CPU est toujours au taquet, changer les options graphiques n'influent pas du tout dessus (logique mais bon...)
J'en profite pour y aller avec une autre question, si j'ai un écran 60hz, on est d'accord que je ne peux en aucun cas dépasser 60 FPS générées sur le compteur IG ?
Dernière modification par GrOsBiLL45 ; 10/11/2016 à 16h30.
Sur le compteur, si. Il faut désactiver la Vsync et une éventuelle limite d'images par seconde.
Par contre ton écran n'affichera réellement que 60 images par seconde. Si tu en as moins, elles seront dupliquées. Si tu en as plus, elles seront mélangées (d'où le tearing).
Si tu veux je peux essayer de développer un peu tout ça.
Je veux bien ouais...j'avoue que la synchro verticale j'ai jamais su s'il était bon de l'activer ou non, et dans quels cas...(d'ailleurs dans BF1 j'ai pas souvenir d'avoir vu l'option..)
C'est ce qu'on leur propose justement, jusqu'à ce que des gens très malins débarquent pour dire non on conseille mal parce que une GTX 1060 et un i5 @4,3Ghz c'est pas assez pour jouer confortablement en 1080p.
Alors je leur donne ce qu'ils veulent: Titan X et i7-6700K OC à 4,8Ghz et 32 Go de ram comme ça on est sur que ça descend jamais en dessous des 60fps en 1080p (sauf qu'il y aura toujours moyen de descendre en dessous en cherchant un peu).
Il y a quand même un cas où calculer plus d'images que ce que peut afficher ton écrans est utile : cela réduit le décalage entre ce que tu vois à l'écran et l'état actuel du jeu.
Mais pour que ce soit vraiment utile, faut calculer au moins 2 ou 3 fois plus d'images que requis (genre avoir 200FPS sur un écran 60Hz par exemple).
Après, en dehors des FPS en compétitif, l'utilité est quand même assez limitée (surtout quand on a tous des écrans 120/144Hz ).
C'était la minute enculage de mouche.
A 60 Hz ton écran attend une image tous les 1/60e de seconde, à intervalles purement réguliers.
A une image donnée, la dernière image rendue par la carte graphique est envoyée à l'écran. Sauf que c'est une vulgaire grille de pixels, et la carte était peut-être en train d'écrire une nouvelle image sur la grille. Comme elle n'a pas encore fini, l'image qui apparait à l'écran est en fait un combiné de deux images différentes, et si tu tournais la caméra on voit vite un phénomène de "déchirement", le fameux tearing :
Globalement si tu joues sur un écran 60 Hz voilà les cas possibles :
- Tu es à moins de 60 fps : certaines images apparaitront plusieurs fois de suite
- Tu es pile poil à 60 fps, ou tu actives la Vsync qui force la carte graphique à attendre que l'écran récupère l'image pour dessiner la suivante : c'est fluide et sans tearing, mais les images "attendent" et donc tu vois plus tard les réactions à tes intéractions clavier/souris ("input lag", mais soyons sérieux à moins de jouer en mondial de Counter Strike on s'en branle, là où le tearing lui est très voyant)
- Tu es à plus de 60 fps et sans Vsync : l'écran affiche des combinés de plusieurs images, le tearing est là
Alors là je regrette mais c'est un phénoméne que tu subis et que tu ressens dans la seconde et c'est absolument inconfortable/injouable selon les jeux, pas besoin d'être un joueur d'e-sport, c'est d'ailleurs l'argument numéro un qui me ferait passer à Freesync. Ça et l'absence de tearing dont l'inconvénient est moindre parce qu'au bout d'un moment je ne fais même plus attention aux déchirures mais là encore ça peut dépendre des jeux.
Merci pour l'explication ! Du coup dans mon cas, y'a pas 36 solutions, le mieux est d'activer la vsync, avoir 100fps sur un écran 60hz, à part générer du tearing, aucun interêt...
Mais j'en déduis que sous BF1 je dois déjà l'avoir activée, car je dépasse jamais 60fps.
Oui sur un écran 60 Hz l'idéal est souvent d'activer la Vsync et de régler les paramètres graphiques de ton jeu pour que tu obtiennes légèrement plus de 60 FPS dans presque toutes les zones / situations.
Il y a le moniteur qui a un rôle très important dans la limitation de l'input lag.
Ici un test comparatif de l'impact de 3 écrans (standard v.s. vsync v.s. freesync) sur l'input lag. ainsi que quelques astuces ingame, regle drivers et utilitaires ayant le but de réduire au maximum, l'input lag.
TLDR : Pour réduire au maximum l'input lag : soit vous vous en fichez du tearing -> désactiver Vsync, soit vous voulez une image sans tearing et un input lag au plus bas, investissez dans un moiniteur Gsync ou Freesync.
Soit vous tolérez 100ms d'input lag et dans ce cas faites ce que vous voulez.
- - - Mise à jour - - -
Attention il y a aussi des jeux qui brident les fps à 60.