Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 201 sur 202 PremièrePremière ... 101151191193194195196197198199200201202 DernièreDernière
Affichage des résultats 6 001 à 6 030 sur 6054
  1. #6001
    Le coil whine est le résultat d'une vibration de certains composants (les VRMs, condensateurs etc., c'est pas du GPU que vient le bruit) causée par le passage du courant. Je ne sais pas exactement pourquoi à utilisation GPU égale les hauts framerates sont plus susceptibles de provoquer du coil whine mais ça a été largement observé. Il est possible que de passer très rapidement d'une image à l'autre cause plus de stress sur le matériel en multipliant les cycles d’activité des composants sur la carte.

  2. #6002
    Le coil whine comme son nom l'indique est le bruit produit par des bobines (l'exemple le plus commun sont les transformateurs et aussi un peu les moteurs), et plus la fréquence est élevé plus il va vibrer.

  3. #6003
    Ça se tient, même si le lien de prime abord ne me semble pas évident. Mais oui il y a probablement une relation entre la fréquence en sortie (fps) et la fréquence de sollicitation des composants (bobines).
    Merci à vous pour les éclaircissements.

  4. #6004
    Pour limiter le phénomène d'ailleurs, tu peux caler une limite max de FPS au niveau de tes drivers, ça permet d'éviter que ça whine dans les écrans de chargement où tes FPS peuvent s'envoler facilement.

  5. #6005
    Hello, j’ai une petite question technique.
    Je joue actuellement à Atomic Heart, en 1440p réglage maxi partout et DLSS qualité sur une RTX 3080 le tout sur une écran 1440p G-sync (avec le module N vidia). J’ai désactivé la V-Sync pour profiter de la G Sync. D’ailleurs V Sync activée (120 hz), j’avais une impression de latence désagréable.
    Pour le coup tout est fluide et sans latence maintenant, mais c’est nouveau (*), j’ai l’impression d’avoir du tearing, première fois que ça me fait ça avec le G-Sync actif.
    Mes FPS m’indiquent 120fps constant (j’ai mis une limite à 120Fps dans le jeu). J’ai l’impression que mon GPU est large et que donc il pourrait fournir plus, est-ce que c’est ça qui pourrait causer ce tearing ? Y-aurait-il un moyen de supprimer cet effet ?

    (*) Après réflexion, je pense que ce n’est pas nouveau, j’ai un peu le même soucis dans Starfield de mémoire.
    Dernière modification par Cedski ; 25/03/2024 à 11h23.

  6. #6006
    Citation Envoyé par Cedski Voir le message
    Hello, j’ai une petite question technique.
    Je joue actuellement à Atomic Heart, en 1140p réglage maxi partout et DLSS qualité sur une RTX 3080 le tout sur une écran 1440p G-sync (avec le module N vidia). J’ai désactivé la V-Sync pour profiter de la G Sync. D’ailleurs V Sync activée (120 hz), j’avais une impression de latence désagréable.
    Pour le coup tout est fluide et sans latence maintenant, mais c’est nouveau (*), j’ai l’impression d’avoir du tearing, première fois que ça me fait ça avec le G-Sync actif.
    Mes FPS m’indiquent 120fps constant (j’ai mis une limite à 120Fps dans le jeu). J’ai l’impression que mon GPU est large et que donc il pourrait fournir plus, est-ce que c’est ça qui pourrait causer ce tearing ? Y-aurait-il un moyen de supprimer cet effet ?

    (*) Après réflexion, je pense que ce n’est pas nouveau, j’ai un peu le même soucis dans Starfield de mémoire.
    Ca m'arrive aussi sur les jeux où les FPS vont dépasser le max de l'écran ; en général je mets une limite quelques fps inférieure au max dans les drivers (140fps pour 144Hz) afin d'éviter le tearing. Si tu mets la limite pile à la fréquence de l'écran, du tearing peut malgré tout apparaître, c'est ce que j'ai constaté par exemple dans EA WRC où j'ai 150-160fps. Il me semble que c'est lié au frame pacing, autrement dit ce n'est pas parce que tu produis 144fps et que ton écran se rafraîchit 144x par secondes que les deux vont se produire pile en même temps et tu peux malgré tout avoir des images qui sont mises à jour pendant une update de l'écran (générant le tearing). Il faut abaisser la limite de fps petit à petit jusqu'à ce que le phénomène disparaisse totalement.

    A la base tu peux virer le DLSS qualité si t'es déjà au max de l'écran, d'expérience personnelle le DLSS qualité en 1440p est visuellement inférieur au natif et provoque certains artéfacts parfois. Je lui préfère le DLAA en natif si je n'ai pas de soucis de perf (100fps+ sans DLSS).

  7. #6007
    On en a déjà discuté, je ne sais plus si c'est sur ce fil ou un autre.
    Le G-sync diminue le tearing mais ne le supprime pas totalement. Perso, j'en avais sur Hogwarts Legacy, et même sans forcément dépasser la limite de rafraichissement de l'écran.

    Si tu veux supprimer le problème, faut mettre une limite de fps un peu inférieure au rafraichissement de l'écran et activer le V-sync, non pas dans le jeu mais dans les drivers.

    Edit : J'ai retrouvé, c'est là
    https://forum.canardpc.com/threads/1...1#post14160475

  8. #6008
    Hum ok en effet, merci ! Je vais tester ça. J'ai mis 120Hz maxi je crois (si j'ai mis un maxi dans les drivers). Je n'avais pas cette info de mettre légèrement inférieur à la limite maxi du jeu.

    Oui je vais supprimer le DLSS pour tester. De base il ne me le proposait pas d'ailleurs, je l'ai rajouter pour l'antialiasing. Je n'ai quasi pas vu d'artefacts. et il parait propre. Mais je suis sans doute habitué maintenant....
    Et j'avoue que j'essaie au maximum de limiter la conso de la carte par "conviction". Et ça me semblait un très bon compromis. (d'ailleurs elle reste très silencieuse - elle est undervoltée).

    Quand il n'y a pas de RTX y a pas à dire ça fait le café encore la 3080...

    - - - Mise à jour - - -

    EDIT: En effet le post de Royal Pin complète bien l'explication de Qiou ! J'aurais jamais eu l'idée de mettre la V Sync dans les options du driver.... Pour moi c'est antinomique avec le G-Sync.

  9. #6009
    Pour info, le dernier driver AMD corrige un problème d'overclocking mémoire de la 7900 GRE.
    En gros on ne pouvait pas aller au delà de 3 % (donc rien). C'est maintenant corrigé et fait de cette carte une concurrente sérieuse à la 4070 super a un prix bien inférieur.


  10. #6010
    Elle vient même concurrencer la 7800XT en fait. Grosso-modo 10% plus chère pour 15 à 20% plus rapide avec ce nouveau driver qui débloque la fréquence de la mémoire.

    Par contre le timing est étrange, les chinois ont cette carte depuis longtemps avec la fréquence mémoire bloquée. Nvidia sort sa gamme "Super" et d'un coup la carte est maintenant distribuée en occident et dans la foulée un nouveau driver vient débrider ses perfs...

  11. #6011
    Citation Envoyé par kimuji Voir le message
    elle vient même concurrencer la 7800xt
    7900 xt

  12. #6012
    Les deux. Mieux que la 7800XT pour à peine plus cher et très proche de la 7900XT pour significativement moins cher.

  13. #6013
    A vrai dire le timing on s'en balance.
    L'important c'est que ça fait une sacré bonne carte.
    Dommage on a pas un retest en RT.
    Mais on peut imaginer être proche de la 4070 et à 10 15 % de la 4070 super.

    Bref parfait pour une config 1080p 240 hz et RT (à 70/80 hz) ou bien du 1440p à 144hz et le même rt avec fsr.

  14. #6014
    Oui le rapport perf/prix est un des meilleurs du moment.

  15. #6015
    Pas vu la vidéo de HU et le transcript n'est pas encore dispo, mais d'après l'article de TPU ça gueulait parce que les power users occidentaux avaient remarqué que les capacités étaient artificiellement contraintes, peut-être pour faciliter le boulot des fabricants en ayant un GPU avec un TDP identique aux RX 7800 XT. On verra s'ils changent le design (et font plus cher) les RX 7900 GRE OC d'usine qui tiennent les mêmes cibles de température et bruit.
    https://www.techpowerup.com/320715/a...e-boost-tested
    Si les GRE ne se vendent pas bien, ça peut aussi être un choix de leur donner un coup de pouce. On verra comment tout ça s'équilibre.

  16. #6016
    Citation Envoyé par Cedski Voir le message
    Hum ok en effet, merci ! Je vais tester ça. J'ai mis 120Hz maxi je crois (si j'ai mis un maxi dans les drivers). Je n'avais pas cette info de mettre légèrement inférieur à la limite maxi du jeu.

    Oui je vais supprimer le DLSS pour tester. De base il ne me le proposait pas d'ailleurs, je l'ai rajouter pour l'antialiasing. Je n'ai quasi pas vu d'artefacts. et il parait propre. Mais je suis sans doute habitué maintenant....
    Et j'avoue que j'essaie au maximum de limiter la conso de la carte par "conviction". Et ça me semblait un très bon compromis. (d'ailleurs elle reste très silencieuse - elle est undervoltée).

    Quand il n'y a pas de RTX y a pas à dire ça fait le café encore la 3080...

    - - - Mise à jour - - -

    EDIT: En effet le post de Royal Pin complète bien l'explication de Qiou ! J'aurais jamais eu l'idée de mettre la V Sync dans les options du driver.... Pour moi c'est antinomique avec le G-Sync.
    Petit retour, limitation des FPS à 117Fps, j'ai mis le mode basse latence aussi (Reflex ?) j'ai pas compris quels sont les désavantages à ne pas l'activer en fait.... Activation du V Sync dans les drivers aussi...
    Plus aucun soucis de tearing.... La latence est inexistante, c'est ultra fluide, un bonheur (j'ai l'impression que je suis très sensible à ce paramètre en fait….).

    Bon j'ai pas désactivé le DLSS, j'ai oublié....

  17. #6017
    Salut,

    J'ai actuellement un 7800X3D associé à une RX6600, je joue en 1440p (pas forcement à fond de taquet en qualité).
    Je viens de récupérer une RTX 2080ti qui a besoin d'un petite réparation (ventilos HS).

    Dans l'hypothèse ou la réparation se passe bien, y a t il un intérêt à switcher mon AMD par la RTX?
    Sur le papier la 2080Ti a l'air vraiment plus véloce que ma 6600 mais elle commence à avoir un peu d'âge.
    Site perso astrophotos

  18. #6018

  19. #6019
    Salut les pros du GPU,

    Demain c'est le grand jour, je vais enfin terminer mon upgrade commencée en 2021, ouf
    Je vais donc commander une CG pour remplacer la vaillante 1070 de 2016 qui m'étonne encore d'une certaine manière, mais qui peine maintenant pour les jeux récents.
    Entre temps je suis passé en 2560*1440 donc encore plus difficile même si le FSR aide beaucoup les anciennes cartes.
    Je pensais partir sur une rx 7800 xt mais un gars du LDLC de mon bled me dis que la 7900 gre est au même prix et qu'il vaut mieux partir sur celle-ci.
    Et aussi de faire gaffe a mon alimentation qui fête ses onze ans cette année, une antec HCG 620 watts de mémoire. il me propose donc de passer en 750W minimum voir 850W pour être tranquille.
    Le reste de la config, Ryzen 7 3800 xt, 16G DDR4, un SSD, un HDD, et un autre SSD mvme a venir.

    Mes deux questions sont:

    -la 7900 gre vaut elle le coup par rapport a la 7800 xt ou y-a t'il un problème qui m'échappe.

    -qu'en est-il de la question de l'alimentation.

    D'avance merci pour vos conseils.
    Cette voix n'a pas de couleur, comme la connerie ou l'ignorance
    Elle puise sa force dans la douleur, l'humiliation et les offenses.

  20. #6020
    Citation Envoyé par job to finish Voir le message
    Mes deux questions sont:

    -la 7900 gre vaut elle le coup par rapport a la 7800 xt ou y-a t'il un problème qui m'échappe.

    -qu'en est-il de la question de l'alimentation.

    D'avance merci pour vos conseils.
    la 7900 GRE est 10% plus performante, 10% plus chère et consomme environ 5% de plus c'est à dire dans les 15-20W.

    Oui, je pense qu'elle vaut le coup si tu peux rallonger 50€ de plus.
    Niveau alim, ça change pas grand chose en pratique.

  21. #6021
    Haha le fameux "je sors déjà 600 balles, je ne suis plus à 50 près".

    Je connais cette theorie, je suis passé par là récemment. (jsuis passé de 300 à 900 pour l'écran que je vise ²)

  22. #6022
    Merci pour la réponse.

    Sauf que la 7900 gre sapphire pulse est au même prix que la 7800 xt sapphire pulse. (599.95€)

    Mais la, vous allez me dire qu'on peut trouver la 7800 xt moins chère...
    Cette voix n'a pas de couleur, comme la connerie ou l'ignorance
    Elle puise sa force dans la douleur, l'humiliation et les offenses.

  23. #6023
    Citation Envoyé par job to finish Voir le message
    Mais la, vous allez me dire qu'on peut trouver la 7800 xt moins chère...
    Tu connais déjà la réponse

  24. #6024
    Hello les Canards,

    Petite question technique..

    Je voudrais utiliser un Luna Display. En gros c'est un dongle pour faire le lien tablette -> PC pour en finalité avoir un dual screen. Ce dongle se branche soit sur le port HDMI du GPU, soit sur un USB-C Thunderbolt. (il existe 2 versions du dongle)

    Le seul port HDMI que j'ai sur ma carte (3060ti) est déjà pris et je n'ai pas d'usb-c thunderbolt sur mon pc fixe.
    Concrètement, utiliser un adaptateur Displayport -> HDMI ça pourrait fonctionner ?

    Il y a des limites à utiliser un adaptateur dans ce sens là où pas du tout ?

    Autre sujet et j'en profite pour avoir un avis ! J'avais déjà ma 3060ti quand j'ai changé d'écran pour un LG C2 42" (4k donc) et forcément elle est un peu juste maintenant.

    Si je veux changer, il faudrait viser quoi ?
    Battletag : Sariyah#2734 / ID PS5 : Oo_Sariyah_oO



  25. #6025
    Hello,

    A quoi sert l'hdmi de ta 3060ti utilisée, à ton écran LG ? Si oui, plutôt là que j'utiliserais l'adaptateur.

    Changer ta 3060ti, oui mais dépend ce que tu recherche en qualité et ton budget... En bon rapport perf/prix, si tu ne cherche pas l'ultra, la 4070s dans les 600-650€ pour les premiers prix avec 60-70% de perf en + ou la 7900 GRE

  26. #6026
    Est-ce que les cartes entrée de gamme actuelles (4060 et je connais pas l'équivalent AMD) permettent de jouer en 1080p, 60FPS, tout en activant le raytracing ? Ou bien c'est encore une technologie trop gourmande et il faut viser des cartes plus haut de gamme?

  27. #6027
    Dépend les jeux surtout...Et ton cpu

    Si on prend par ex. Cyberpunk, je dirais plutôt une 4070

  28. #6028
    Ah ouais j'avais pas imaginé que c'était dépendant du CPU à ce point. Bon bah ça met de côté toute envie impulsive de changer la CG pour un modèle "RT Compatible", car il faudrait aussi changer le CPU et je n'en ai pas l'envie.

    Merci !

  29. #6029
    Tu es aussi handicapé par le fait que le raytracing se conjugue mieux, en terme de performances, avec l’activation du DLSS. Sauf que le DLSS demande de jouer sur un écran 1440p voire 4K si tu veux pas une image floue degueulasse, et la génération de trames demande un frame rate déjà important pour être vraiment bénéfique.

    Je rejoins donc totalement Stiouf. Le raytracing est un sport de riches, et la 4070 Super est la première carte permettant d’en profiter vraiment. Après en toute franchise et selon les tests que j’en vois, plus mon expérience perso, sorti de Cyberpunk et Alan Wake 2, y’a pas tant de jeux où le RT est une grosse claque visuelle. C’est limite décevant après toutes ces années.

  30. #6030
    Le pire sont les jeux qui sont dégradé pour justifie le ray-tracing genre Watch Dogs : Legion qui désactive carrément tout reflets sans le RT bon c'est aussi un jeu Ubisoft.

Page 201 sur 202 PremièrePremière ... 101151191193194195196197198199200201202 DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •