Si t'as des petits Freeze ça peu venir de pleins de choses, Thermal Throttle, la carte est trop chaude et réduis ça charge le temps revenir à de bonne température, et vue que les ventilos tourne à fond ça refroidis vite et ça repart aussi sec, mais dans le cas présent ça devrait être répétitif, et arrivé réguliérement, tu peu le verifier avec MSI afterburner, si tu vois que les baisse de FPS correspondent a une baisse d'utilisation GPU et/ou température haute qui chute rapidement.
ça peu être aussi car ta RAM est blindé/trop lente et/ou au fait que le jeu soit sur un disque lent comme un HDD, ou parfois car le jeu est l'OS sont sur le même Disque, c'est qq chose que j'ai subis sur un vieux SSD.
ça peut être aussi la Vram, le fait de demander à ta CG d'afficher des textures trop hautes en qualités fait que parfois t'as des freez le temps qu'elle décharge ce qu'elle n'utilise plus pour charger les nouvelles mais c'est quelque chose qui devrais arrivé surtout lors de changement d’environnement, d'event ou cinématique etc (pas que les textures mais tout ce qui consomme de la Vram, ombre, AO, etc, les textures c'est juste plus facile pour tester et vérifier).
Enfin, oui, ça peu venir du fait d'avoir un seul cable, j'avais une GTX 980 et une Allim Bequiet de 550W mais avec le temps elle à du perdre en efficacité, je n'avais pas pensé à ça avant et j'avais mi un seul câble, et j'avais des drop de perf sans prévenir, sans raison et très aléatoire, quand j'ai eu connaissance de ça, j'ai pris un adaptateur qui passe de 2x3 en Molex vers 2x3 Pin et j'ai mis ça sur la CG, changement radicale!
ça existe de pleins de types ces adaptateur, Sata, Molex, etc.
Sinon les Drivers, ouais, j'en doute quand même, tu peu toujours essayer un fresh instal, t'as peut être fait une bêtise dans tes paramètre ou profils.
(Note: je conseil de mettre "power management" sur "performance optimal", et "filtrage des textures" sur "ultra performance", pour le filtrage des textures tu verras un petit gain et en perf et 0 différences en jeux, tu peu faire le test sur un benchmark comme Heaven pour voir que le gain est réel, c'est une vieille options qui date et qui aujourd'hui ne sert plus à rien vue que la différence et imperceptible en 1080p et au dessus encore plus
... tout comme l’anisotropique qui deviens impossible à différencier entre x8 et x16, mais cette options elle ne consomme rien en ressources, du moins pas assez pour justifier de passé de x8 à x16)
Environ 30% de consommation en moins pour le 5600x comparé au 2600x de ce que j'ai vue, le miens en benchmark CPU Heavy comme Blender ou Cinebench monte a 70 ou 75w maxi (de mémoire), soit pas grand chose vue les perf du bestiau!
- - - Mise à jour - - -
J'ai une seasonic mais j'avais pas ce petit câble, t'aurais la référence ?
C'est aussi car chaque câble est prévu pour délivré une certaine puissance et que même si "théoriquement" l’alim peu envoyer ce qui serra demander par la CG sur un câble unique, avec me temps ce serra moins le cas, c'est pour assurer une meilleur alimentation de la CG plus sable.
Mais pas que!
En fait, de base, sans rien avoir à configurer, depuis Maxwell (ou avant?
) avec les GTX 900, y'a un petit Algorithme qui fait que tant que la CG n'est pas trop haute en température, alors elle vas appeler plus de courant, et si ont lui donne, alors elle augmente ça fréquence, un genre d'auto OC, et donc elle peu dépassé ça consommation théorique tant qu'elle est bien refroidis et que l'alim suis.