Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 114 sur 202 PremièrePremière ... 1464104106107108109110111112113114115116117118119120121122124164 ... DernièreDernière
Affichage des résultats 3 391 à 3 420 sur 6054
  1. #3391
    J'ai posté une mise à jour sur le topic des rumeurs.

  2. #3392
    Bon j'ai une question....

    J'ai entendu parlé d'un truc il y a peu, dans le dernier CPC hardware, la "BAR resizable", un truc magique qui ferait gagner 5% de FPS.
    J'ai une RTX3080 un chipset X570 (et un R5 5800X). C'est utile d'activer ce truc qui relève de la magie (+5% pour une option à activer dans l'UEFI) ?

  3. #3393
    Encore un truc inutile comme le game mode de Windows.
    Perso je l'ai pas activé. Il y a des videos youtube sur la 3060 Ti qui montrent qu'on gagne quelques fps sur certains jeux mais qu'on en perd aussi sur d'autres.
    Dernière modification par Munshine ; 27/01/2023 à 18h05.

  4. #3394
    Citation Envoyé par Munshine Voir le message
    Encore un truc inutile comme le game mode de Windows.
    Perso je l'ai pas activé. Il y a des videos youtube sur la 3060 Ti qui montrent qu'on gagne quelques fps sur certains jeux mais qu'on en perd aussi sur d'autres.
    Non ça n'est pas inutile. Les gains sont très mesurés chez Nvidia mais en moyenne on gagne plus que l'on perd, sur les GPU AMD les gains sont plus notables et on y perd que très rarement, et pour les GPUs intel c'est carrément indispensable les perfs sont très mauvaises si on ne l'active pas. Les jeux semblent de plus en plus en tirer parti il n'y a plus vraiment aucune raison de ne pas l'activer même sur un GPU Nvidia.
    Dernière modification par Kimuji ; 27/01/2023 à 18h54.

  5. #3395
    Normalement chez nvidia les drivers désactivent automatiquement le rezisable bar dans les titres qui subissent une perte de perfs (on parle des jeux connus, pas des fonds de tiroirs de steam).

  6. #3396
    3D Center fait des analyses complètes du marché allemand assez transposable par chez nous. Je ne suis jamais trop sur de ce que ça vaut, pour ce que j'avais vérifié ça avait l'air pas mal. Y a toujours moyen de tomber sur une super affaire, mais ça fait une ref a priori réaliste.
    Ils viennent de publier le résultat pour janvier:
    - sur la première page la liste du matos par plage de prix, avec les specs et leur indice de performance standardisé (FHD et 4k) https://www.3dcenter.org/artikel/gra...ck-januar-2023
    - sur la deuxième page les graphs dérivés: rapport perf/prix et perf/watt (à chaque fois FHD et 4k) https://www.3dcenter.org/artikel/gra...r-2023-seite-2

    Edit: bon évidemment c'est synthétique et faut vérifier un peu plus loin, du genre la A750 a un bon rapport perf/prix en 4k, mais y a pas mal de problèmes potentiels et ça reste avec un indice faible. Faut voir quelle gamme de perfs on vise aussi.
    D'ailleurs ça serait pas mal d'avoir un point sur où en est Intel, j'avais vu passer qu'ils ont amélioré des choses (wrapping vieux Direct X vers Vulkan avec DXVK, utilisé par Wine/Proton & co), mais pas vu d'analyse complète.
    Dernière modification par 564.3 ; 29/01/2023 à 20h01.

  7. #3397
    L'autre jour on parlait perf sur cyberpunk et de mon 3800x qui est le bottleneck de ma conf (RTX 3080 en GPU), entre temps je suis tombé sur cette vidéo de bench sur cyberpunk, ça test toutes les combinaisons dans les 4 résolutions avec un 5800x 3D et une 4080 :

    https://www.youtube.com/watch?v=U1CuB-YGa9c

    J'imaginais pas qu'un 5800x 3D pouvait bottleneck à ce point !

    Pareil ici avec une i9:

    https://www.youtube.com/watch?v=VpZPRxMAzXs


    J'ai eu du mal à trouver des bench où les personnes utilisaient le DLSS avec des gros CPU+GPU alors que c'est là justement où le CPU bosse dure, comme les bench cpu où les jeux sont lancé en 720p pour by pass les limites GPU.

    Bref, contrairement à ce que je pensais jusqu’à présent, le CPU intervient beaucoup plus aujourd'hui dans le nombre de FPS par rapport à il y a quelques années. Je me souvient encore d'un dossier dans un canardpc hardware (bon ça remonte!) qui montrait qu'entre un CPU milieu de gamme et très haut de gamme il n'y avait pas de gain significatif en jeu, seul le GPU comptait.

  8. #3398
    Le CPU intervient mais dans ton exemple ni l'i9, ni le 5800X 3D ne bottleneck de ma compréhension. Qu'à faible résolution les grosses CG commencent à se tourner les pouces oui mais pas un des 2 proc ne passent les 50% d'usage.
    J'ai du rater un truc.

  9. #3399
    Citation Envoyé par Yorkmouth Voir le message
    L'autre jour on parlait perf sur cyberpunk et de mon 3800x qui est le bottleneck de ma conf (RTX 3080 en GPU), entre temps je suis tombé sur cette vidéo de bench sur cyberpunk, ça test toutes les combinaisons dans les 4 résolutions avec un 5800x 3D et une 4080 :

    https://www.youtube.com/watch?v=U1CuB-YGa9c

    J'imaginais pas qu'un 5800x 3D pouvait bottleneck à ce point !

    Pareil ici avec une i9:

    https://www.youtube.com/watch?v=VpZPRxMAzXs


    J'ai eu du mal à trouver des bench où les personnes utilisaient le DLSS avec des gros CPU+GPU alors que c'est là justement où le CPU bosse dure, comme les bench cpu où les jeux sont lancé en 720p pour by pass les limites GPU.

    Bref, contrairement à ce que je pensais jusqu’à présent, le CPU intervient beaucoup plus aujourd'hui dans le nombre de FPS par rapport à il y a quelques années. Je me souvient encore d'un dossier dans un canardpc hardware (bon ça remonte!) qui montrait qu'entre un CPU milieu de gamme et très haut de gamme il n'y avait pas de gain significatif en jeu, seul le GPU comptait.
    Tu ne peux pas prendre un benchmark sur un seul jeu et faire une généralisation sur tout le reste. Cyberpunk a un comportement particulier.

    La zone testée est particulière en plus (le marché), ça ralentit chez tout le monde et de façon assez uniforme. Le R7 5800X3D est beaucoup plus rapide que le mien et pourtant à cet endroit précis j'ai ces mêmes chutes sous les 60 fps. Vu la différence entre les CPU je devrai être beaucoup plus bas ou alors le R7 5800X3D plus haut. C'est le moteur du jeu qui pédale.

    Le rapport GPU/CPU n'a pas changé, le GPU est encore de nos jours plus important que le CPU dans la grosse majorité des jeux. Les exceptions comme Cyberpunk n'invalident pas une tendance générale. A toutes les époques il y a eu des jeux qui toussaient même avec un gros CPU.
    Dernière modification par Kimuji ; 30/01/2023 à 02h25.

  10. #3400
    Vous pensez quand même pas que le DLSS ça accentuer le phénomène, peu importe le jeu? Vu qu'on joue à des résolutions plus basse en faisant un gros raccourci.

  11. #3401
    Citation Envoyé par Yorkmouth Voir le message
    Vous pensez quand même pas que le DLSS ça accentuer le phénomène, peu importe le jeu? Vu qu'on joue à des résolutions plus basse en faisant un gros raccourci.
    Oui et non le DLSS a justement été développé pour palier à un manque perf du GPU. Alors certes le DLSS3 et FSR3 sont maintenant aussi pensés pour compenser une faiblesse CPU en plus mais on est bien plus souvent confronté à des limites GPU que CPU. Surtout pour 90% des joueurs qui ne mettent pas 1000€ et plus dans une carte graphique.

  12. #3402
    Citation Envoyé par Yorkmouth Voir le message
    Bref, contrairement à ce que je pensais jusqu’à présent, le CPU intervient beaucoup plus aujourd'hui dans le nombre de FPS par rapport à il y a quelques années.

    Et c'est toujours le cas. Dans la plupart des jeux un Ryzen 5 ou core I5 avec 6 core 12 threads c'est suffisant. Et même les R3 et le i3 sont pas dégeux.
    Les jeux, pour la plupart maintenant, sont codés pour utiliser correctement jusqu'à 12 threads, parfois 16, au delà ça n'apporte pas grand chose.
    Du coup la différence de perf entre 2 CPU se fait à la différence d'IPC (instructions par cycle) et de fréquence. Un I5 et un I9 de la même gen on un nombre d'IPC et une fréquence proche, du coup la différence et mineure.

  13. #3403
    Citation Envoyé par Jeliel Voir le message
    Le CPU intervient mais dans ton exemple ni l'i9, ni le 5800X 3D ne bottleneck de ma compréhension. Qu'à faible résolution les grosses CG commencent à se tourner les pouces oui mais pas un des 2 proc ne passent les 50% d'usage.
    J'ai du rater un truc.
    Alors certes, ça ne dépasse pas les 50% au global (pour le Ryzen) mais tu as des cœurs qui saturent. Mais du coup ça doit être ce que dit Kimuji, le moteur du jeu pédale et n'exploite pas la patate de tous les cœurs du Ryzen. Ce n'est pas vrai sur le I9, il y a une répartition parfaite sur tous les cœurs.

  14. #3404
    Citation Envoyé par Berk-124 Voir le message
    Les jeux, pour la plupart maintenant, sont codés pour utiliser correctement jusqu'à 12 threads, parfois 16.
    Les jeux sont beaucoup moins bien multithreadés que ça. Les gains sont marginaux bien en-dessous de 16 ou même 12 threads pour presque tous les jeux.
    "Il y a des enfants en Afrique qui n'ont rien sur leur compte GOG !". "Le prix de 60 boules c'est juste pour choper les cons, les riches, les fans de la licence et les hardcore gamers."

  15. #3405
    Mais même au sein de Cyberpunk 2077 il y a des contextes où le CPU va limiter et d'autres où c'est le GPU. Par exemple dans la zone du marché comme dans la vidéo le CPU est très sollicité mais à certains carrefours de centre ville (et la plus part du temps chez moi) c'est le GPU qui limite. Cyberpunk est un jeu qui pousse les configs à tous les niveaux. Et c'est bien pour ça que beaucoup de gens jouent à CP2077 avec le DLSS et le FSR, c'est parce que le GPU en prend plein le figure. Alors oui il y a un coin où deux où j'ai une chute à cause du CPU mais sans FSR je serai obligé d'y jouer en 1080p high ou 1440p mid/low au lieu du 1440p high parce que mon GPU ne suit tout simplement pas.

    On a vite fait de pointer que lorsque l'utilisation GPU n'est pas à 100% c'est qu'on est en limite CPU, mais un GPU à plus de 95% que l'on qualifie parfois un peu vite de situation normale ben c'est un signe de limite GPU.

    Citation Envoyé par Kaede Voir le message
    Les jeux sont beaucoup moins bien multithreadés que ça. Les gains sont marginaux bien en-dessous de 16 ou même 12 threads pour presque tous les jeux.
    Tout à fait. C'est pour ça qu'entre les CPU 12 et 16 threads de même archi/génération quand on observe une différence c'est 95% du à la fréquence et au cache.

  16. #3406
    Si j'ai bien suivi le film, le DLSS et ses développements sont là pour compenser les pertes de performances des GPU NVidia liées à l'utilisation du Ray Tracing. Si on considère uniquement le niveau des FPS, ça fonctionne bien, mais ailleurs, dans des jeux qui ne sont pas conçus en intégrant la possibilité RT+DLSS, les résultats peuvent être mitigés pour ce qui concerne la qualité de l'image. Comme d'habitude, Nvidia pousse une solution propriétaire avec le projet de verrouiller des parts de marché, technique qui lui a réussi dans le passé, c'est du bon marketing.
    PC Arma3 [Forum]/ Civ 5&6 : Ryzen 5 5600X/RX 5700 8Go/16 Go 3800 C16/ B550 TUF /3x SSD M.2 1To
    PC FS 2020 : Ryzen 7 3700X/RX 6700XT/32 Go 3600 C16/B550M TUF /2x SSD M.2 1To

  17. #3407
    Le DLSS/FSR au delà d'améliorer les performances est aussi une forme d'AA.
    Les résultats sont ce qu'ils sont, il y a des avantages et des inconvénients à ces technos.

    Cependant hormis le ghosting du DLSS, qui tend à être résolu dans les jeux concerné (j'ai notamment en tête CP), j'aurai tendance à dire que le DLSS n'altère pas la qualité.
    Il y même eu des vidéos de comparaison poussées notamment par digital foundry où ils considèrent l'image avec DLSS meilleure que la native ...
    Après c'est plutôt vrai en haute résolution. Clairement en 1080 ça peut être utile pour des carte comme les 3050, mais en mettant le curseur sur qualité. Sinon la résolution de départ est trop basse.*

  18. #3408
    Citation Envoyé par Old_Bear Voir le message
    Si j'ai bien suivi le film, le DLSS et ses développements sont là pour compenser les pertes de performances des GPU NVidia liées à l'utilisation du Ray Tracing. Si on considère uniquement le niveau des FPS, ça fonctionne bien, mais ailleurs, dans des jeux qui ne sont pas conçus en intégrant la possibilité RT+DLSS, les résultats peuvent être mitigés pour ce qui concerne la qualité de l'image. Comme d'habitude, Nvidia pousse une solution propriétaire avec le projet de verrouiller des parts de marché, technique qui lui a réussi dans le passé, c'est du bon marketing.
    Le DLSS aide beaucoup avec le ray tracing qui ne serait quasiment pas viable sans mais ça sert aussi pour toute situation où le GPU est en difficulté, avec RT ou sans. J'ai un GPU AMD qui ne gère pas le RT et ça ne m'empêche pas d'apprécier les service du FSR (en version 2 et plus, parce que le FSR 1...). C'est pareil pour les cartes Nvidia et le DLSS. Après oui le DLSS est proprio, et oui le DLSS3 réservé aux GPU 4xxx uniquement c'est un peu un sale coup mais c'est un autre débat.

    Citation Envoyé par Berk-124 Voir le message
    Le DLSS/FSR au delà d'améliorer les performances est aussi une forme d'AA.
    Oui je m'en sert également pour ça, beaucoup de jeux ont une implémentation très moyenne (pour être gentil) du temporal AA ce qui a pour effet de rendre l'image bien floue, surtout quand il y a du mouvement. Virer l'AA et le remplacer par du DLSS/FSR permet de gagner en netteté.

  19. #3409
    Pour le moment, je n'ai rien vu de bien probant en ce qui concerne FSR sur MSFS 2020. Il faut peut-être attendre que le support de DX 12 soit parfaitement au point.

    Ma config dédiée MSFS 2020 : R7 3700X / ASUS TUF B550M-Plus / RX 6700XT / Crucial 32 Go 3600 MHZ C16 tourne de façon régulière à 60 FPS en Medium ce qui me convient parfaitement avec un affichage instruments de bords très précis. Par contre, j'ai parfois du stuttering en approche.
    J'ai remarqué une charge GPU maximum dans les approches avec un usage à 98/100% au moment de la transition, quand l'affichage procédural de l'environnement remplace complètement l'affichage générique Bing.

    Je vais essayer la fonction Resize Bar pour voir si j'ai des effets positifs.
    PC Arma3 [Forum]/ Civ 5&6 : Ryzen 5 5600X/RX 5700 8Go/16 Go 3800 C16/ B550 TUF /3x SSD M.2 1To
    PC FS 2020 : Ryzen 7 3700X/RX 6700XT/32 Go 3600 C16/B550M TUF /2x SSD M.2 1To

  20. #3410
    MSFS 2020 est un jeu où le R7 5800X3D brille particulièrement.

  21. #3411
    Un processeur plus puissant ne changera rien à la situation où le R7 3700X n'est chargé qu'à 60/75 %, le seul intérêt étant les 96Mo de cache L3.
    L'idée étant de tirer le maximum de la RX 6700XT pour gérer aux mieux les 30 secondes de la transition.
    PC Arma3 [Forum]/ Civ 5&6 : Ryzen 5 5600X/RX 5700 8Go/16 Go 3800 C16/ B550 TUF /3x SSD M.2 1To
    PC FS 2020 : Ryzen 7 3700X/RX 6700XT/32 Go 3600 C16/B550M TUF /2x SSD M.2 1To

  22. #3412
    Bonjour, selon vous cela vaut il la peine de changer une 2070 par une 3070 ?
    Un canard vend celle-ci :https://www.ldlc.com/fiche/PB00385044.html

    C'est un brin cher mais selon ldlc elle mesure 29cm ce qui fait qu'elle est un poil plus petit que la mienne donc pas besoin de changer de boîtier. Ce qui m'embêterai vraiment.
    C'est pas urgent carte ma cg fait encore le taf mais j'ai l'impression que les autres modèles de 3070 sont plus long.
    Et je peux me tromper mais j'imagine que les cg ne vont pas être moins longue.

    - - - Mise à jour - - -

    Mais c'est pour jouer en 1440p donc j'ai l'impression que 8go de ram sur la 3070 vont être limitant ?
    Mais je ne vois pas d'autres solutions pour le futur sans changer de boîtier...
    Citation Envoyé par Sapro Voir le message
    Gourou Raoul ça sonne impec

  23. #3413
    Moi j'ai laissé tombé l'achat de cg d'occas.

    C'est chère, et plus sous garantie.

    Donc j'attend une bonne offre sur une 6800xt / 3080 ca sera 100€ de plus que de l'occasion. Mais neuf et garantie.
    They say jump, you say how hight ? (Rage against the machine / bullet in your head)

  24. #3414
    Citation Envoyé par Raoulospoko Voir le message
    Mais c'est pour jouer en 1440p donc j'ai l'impression que 8go de ram sur la 3070 vont être limitant ?
    Mais je ne vois pas d'autres solutions pour le futur sans changer de boîtier...
    Pour l'instant 8GB ne sont pas limitants en 1440p. A l'avenir... on en sait rien. Peut-être. C'est pour cette raison que j'ai jamais conseillé la 3070, face à une 3060Ti à peine 10% moins rapide et équipée d'autant de Vram.

    Si tu n'en as pas besoin, pourquoi ne pas sauter cette génération 3070? Tu auras un gain plus important avec une carte de 4e génération RTX, tu auras le DLSS3... Evidemment ta limitation de taille est un handicap mais nVidia n'a sorti que des GPUs à 900€+ pour l'instant, attend de voir les 4070 et 4060Ti, ça devrait aller mieux surtout que les Ada Lovelace n'ont pas augmenté la consommation par rapport aux RTX3000 équivalentes - il n'y a donc aucune raison que les cartes sont plus imposantes.

  25. #3415
    Ok merci. Tu as raison, je vais attendre.
    A la base je voulais une 4070 ou une 4070 ti. Mais quand j'ai vu la taille j'ai abandonné.
    Sans compter le prix. Mais dans un ans ou deux il y aura plus de choix.
    Citation Envoyé par Sapro Voir le message
    Gourou Raoul ça sonne impec

  26. #3416
    https://www.topachat.com/pages/detai...n20006630.html

    Bon plan ou pas ?


    Je joue en 1440p avec un 2060 actuellement qui "a du mal" ^^.

    Et le este de la config 3700x / cm b450m / 32go de ram et alim 850w.
    They say jump, you say how hight ? (Rage against the machine / bullet in your head)

  27. #3417
    A mon avis, si tu acceptes les limitations des cartes AMD par rapport au RayTracing+DLSS, c'est un bon plan.
    Tout dépend aussi des jeux que tu joues ou a envie de jouer
    PC Arma3 [Forum]/ Civ 5&6 : Ryzen 5 5600X/RX 5700 8Go/16 Go 3800 C16/ B550 TUF /3x SSD M.2 1To
    PC FS 2020 : Ryzen 7 3700X/RX 6700XT/32 Go 3600 C16/B550M TUF /2x SSD M.2 1To

  28. #3418
    Le rt en vrai je m'en fous.

    Je joue à un peu de tout.

    En ce moment majoritairement escape from tarkov.

    Mais du msfs / dcs / warhammer total war / j'attends avec impatience starfield.
    Dernière modification par MxPx ; 08/02/2023 à 13h39.
    They say jump, you say how hight ? (Rage against the machine / bullet in your head)

  29. #3419
    Citation Envoyé par MxPx Voir le message
    Le rt en vrai je m'en fous.

    Je joue à un peut de tout.

    En ce moment majoritairement à escape from tarkov.

    Mais du msfs / dcs / warhammer total war / j'attends avec impatience starfield.
    Bonjour,

    Ce serait vraiment sympa pour tous ici d'utiliser le correcteur orthographique pour nous permettre de comprendre ce que tu écris du premier coup. C'est une marque de respect élémentaire, ça n'a pas besoin d'être parfait, mais là en 4 lignes je compte quand même 7 fautes qui étaient corrigeables par un correcteur en quelques secondes. Merci à toi.

    Et oui la 6800XT est une carte très performante pour le 1440p - équivalente à une RTX3080 plebiscitée par ici pour jouer en 1440p haute fréquence et même 4K. Ton alim est suffisamment puissante, vérifie juste que ton boîtier dispose de suffisamment de place et de ventilation. Pour ~650€ c'est un plan honnête.

  30. #3420
    oui, pardon, j'étais sur mon fichu téléphone
    They say jump, you say how hight ? (Rage against the machine / bullet in your head)

Page 114 sur 202 PremièrePremière ... 1464104106107108109110111112113114115116117118119120121122124164 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •