Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 215 sur 222 PremièrePremière ... 115165205207208209210211212213214215216217218219220221222 DernièreDernière
Affichage des résultats 6 421 à 6 450 sur 6633
  1. #6421
    Citation Envoyé par Ashley TOUCRU Voir le message
    Merci pour ton retour (il me semble que tu l'avais déjà donné, je l'avais lu). Ce qui me gêne, c'est que je trouve quand même limite qu'une CG "haut du milieu de gamme" à 600 balles ne permette pas d'être au taquet en 2024. Ça signifie pour moi qu'il va falloir rapidement faire des concessions sur des jeux gourmands.
    C'est le problème du 4K. Les grosses définitions c'est un sport de riche. Si tu veux être au taquet avec une carte qui n'est pas l'ultra haut de gamme, faut rester dans les définitions raisonnables.

  2. #6422
    D'ailleurs, est-ce que les cartes d'AMD peuvent faire tourner RTX Remix ?

    Le path tracing sur Deus Ex / UT 99 sans refonte des textures avec du PBR, rend pas trop mal surtout au niveau de l'éclairage et des ombres.




  3. #6423
    Citation Envoyé par Ashley TOUCRU Voir le message
    Alors je résume :
    - Le DLSS c'est bien mais ça bouffe des ressources alors que c'est censé en faire économiser à qualité égale.
    - Le FSR c'est caca pour le moment. C'est moche en mouvement mais en fait non plutôt sur des images fixes. re-
    - Avoir davantage de Vram (7900XT) permet de se passer plus facilement des DLSS et autres papsules à injection pendulaire donc il est préférable de choisir nVidia. re-re-
    - Le seul avantage de la 4070 Super c'est le RT.

    Ma conclusion : on n'a pas beaucoup avancé.

    - - - Mise à jour - - -

    Merci pour ton retour (il me semble que tu l'avais déjà donné, je l'avais lu). Ce qui me gêne, c'est que je trouve quand même limite qu'une CG "haut du milieu de gamme" à 600 balles ne permette pas d'être au taquet en 2024. Ça signifie pour moi qu'il va falloir rapidement faire des concessions sur des jeux gourmands. Certes je joue peu à des AAA (pour ainsi dire pas, même), mais sait-on jamais. Quand je vois qu'Insurgency Sandstorm qui a l'âge de ma CG ne tourne pas à fond, je me dis que ça va faire pareil avec les jeux actuels.
    Du coup, je finis par me demander si le meilleur move n'est pas de miser sur la puissance brute/Vram de chez AMD en espérant que leur FSR 3.5, 4 ou 5 prolonge sa durée de vie ensuite. Surtout que si je change pour un écran aussi cher, ce sera pour profiter au maximum du 144Hz.
    Oublie pas le : en 4K. Si tu joues en 1080P ou 1440P tu n'auras aucun soucis. Et surtout ça dépendra du nombre d'i/s que tu cherches. Pour moi 60 est suffisant. Et je coupe toujours le motion blur et autres saloperies.

  4. #6424
    Citation Envoyé par MetalDestroyer Voir le message
    D'ailleurs, est-ce que les cartes d'AMD peuvent faire tourner RTX Remix ?

    Le path tracing sur Deus Ex / UT 99 sans refonte des textures avec du PBR, rend pas trop mal surtout au niveau de l'éclairage et des ombres.
    C'est clairement pas la meilleure pub pour le path tacing. On sent que c'est un projet amateur encore en cours de développement: bugs de textures, bugs sur les ombres, éclairage bien trop fort sur certaines scènes... Perso je trouve que ça ruine l'identité visuelle du jeu sans le rendre plus beau pour autant. Si on m'avait dit que c'est un mod qui met juste le bloom à fond je l'aurais cru. Dans le genre Quake II RTX rend bien mieux que ça.

  5. #6425
    Citation Envoyé par Ashley TOUCRU Voir le message
    Alors je résume :
    - Le DLSS c'est bien mais ça bouffe des ressources alors que c'est censé en faire économiser à qualité égale.
    - Le FSR c'est caca pour le moment. C'est moche en mouvement mais en fait non plutôt sur des images fixes. re-
    - Avoir davantage de Vram (7900XT) permet de se passer plus facilement des DLSS et autres papsules à injection pendulaire donc il est préférable de choisir nVidia. re-re-
    - Le seul avantage de la 4070 Super c'est le RT.

    Ma conclusion : on n'a pas beaucoup avancé.

    - - - Mise à jour - - -

    Merci pour ton retour (il me semble que tu l'avais déjà donné, je l'avais lu). Ce qui me gêne, c'est que je trouve quand même limite qu'une CG "haut du milieu de gamme" à 600 balles ne permette pas d'être au taquet en 2024. Ça signifie pour moi qu'il va falloir rapidement faire des concessions sur des jeux gourmands. Certes je joue peu à des AAA (pour ainsi dire pas, même), mais sait-on jamais. Quand je vois qu'Insurgency Sandstorm qui a l'âge de ma CG ne tourne pas à fond, je me dis que ça va faire pareil avec les jeux actuels.
    Du coup, je finis par me demander si le meilleur move n'est pas de miser sur la puissance brute/Vram de chez AMD en espérant que leur FSR 3.5, 4 ou 5 prolonge sa durée de vie ensuite. Surtout que si je change pour un écran aussi cher, ce sera pour profiter au maximum du 144Hz.
    Mon avis à 2 cents : Perso je ne partirais pas sur moins que 16GB de VRAM. Peut être que je me trompe, mais si on regarde les consoles moins puissantes, elles ont déjà accès à cette quantité de VRAM. Donc ce ne serait pas raisonnable sur PC de ne pas suivre.

    Mon expérience à 2 cents : J'ai une 6800 (non XT, carte 2 fois moins puissante que la 7900 XT) 16GB de VRAM avec un écran 3440x1440 : ACC pratiquement à fond à 120Hz, synchro verticale (je suis de la veille école), FSR qualité. Cyberpunk pratiquement tout à fond à 60 Hz, synchro verticale, FSR qualité. Et encore la CG tourne à 75% en moyenne sur ces deux jeux.

    Le FSR qualité, je ne vois pas de différences avec le natif (attention j'ai un écran VA, car je fais plutôt du Sim Racing, donc peut être que la différence serait plus visible sur IPS, je ne sais pas).
    Alors oui, pas de Ray tracing, mais je m'en cogne. Je ne suis pas persuadé de son utilité, et les moteurs semblent progresser dans les jeux de lumières sans cette techno. Je viserais toujours 120fps si possible, même avec une RTX.
    Je n'ai pas essayé les derniers jeux UE5, sauf Hellblade 2 en 60 fps sans trop de problème.

    Le seul doute que j'aurais sur la 7900XT actuellement : le FSR risque d'utiliser l'IA sur la prochaine gen. Mais AMD ne lâche pas les joueurs (même ceux sur RTX).

    Bon choix

  6. #6426
    En fait, en lisant vos réponses je m'aperçois que je fais fausse route depuis le début. Et c'est la faute de Qiou qui m'a recommandé le 38" pour conserver la même hauteur que sur mon 32". Oh le vilain ! Mais en fait, perso, le 1440p me va très bien actuellement donc ce qui me correspondrait le mieux c'est un 40" en ips/1440p/144Hz et basta !
    Ça me permettrait de réduire le coût de l'écran de moitié (tout en conservant la même résolution), et éventuellement celui de la CG aussi.

    Edit : ah mince, je sais pourquoi je n'avais pas retenu le 40" : ça n'existe pas en incurvé. En fait, j'ai t'ouvre sur celui-ci en Oled :
    https://www.lcd-compare.com/moniteur...39GS95QE-B.htm

    Edit 2 : du coup, si je pars sur une définition de 3440x1440, est-ce qu'une 7900xt ne serait pas plus intéressante qu'une 4070 Super ? Le DLSS (+framegen) présente-t-il toujours un intérêt aussi grand ?
    Dernière modification par Ashley TOUCRU ; 08/10/2024 à 17h18.
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

  7. #6427
    Sinon, tu fais comme moi, tu ne t’embêtes pas, tu rajoutes 200e et tu prends la 4070 ti s palit

  8. #6428
    Citation Envoyé par Ashley TOUCRU Voir le message
    Edit 2 : du coup, si je pars sur une définition de 3440x1440, est-ce qu'une 7900xt ne serait pas plus intéressante qu'une 4070 Super ? Le DLSS (+framegen) présente-t-il toujours un intérêt aussi grand ?
    Ça sera moins critique que les définitions supérieures, mais ça reste intéressant dès le 1440p. En UWQHD ça l'est encore plus.

    Perso je suis en 3440x1440 avec une 3080 Ti (qui est dans le même niveau de perfs que la 4070S si j'en juge certains benchs) et je suis toujours avec le DLSS activé, et parfois même du framegen tiers quand le titre s'y prête bien (avec une solution tierse : Lossless scaling, voir FSR, vu que j'ai pas accès au DLSS 3).

    J'active systématiquement le RT car pour moi ça fait une grosse différence (je suis passé sur une 30XX pour le DLSS et le support du RT).

    Mais clairement là c'est un match qui fonctionnera bien mieux.

  9. #6429
    Citation Envoyé par pocoyote Voir le message
    Mon avis à 2 cents : Perso je ne partirais pas sur moins que 16GB de VRAM. Peut être que je me trompe, mais si on regarde les consoles moins puissantes, elles ont déjà accès à cette quantité de VRAM. Donc ce ne serait pas raisonnable sur PC de ne pas suivre.
    Les consoles ont 16GB de mémoire partagée, rien que le système en bouffe/réserve plusieurs Go, et il y a d'autres besoins que l'affichage dans un jeu.
    Faut plutôt supposer qu'elles ont au max 12GB de VRAM (dans le cas de la PS5), et de la RAM avec une mauvaise latence pour le reste des traitements.
    La Series X a une séparation physique avec 10GB à 320bits de bande de bande passante et 6GB 192bits.
    Mais ouais sur PC on est un peu décalé par rapport à cette base, les GPU avec une capacité de traitement similaire ont en général 8GB. J'espère que ça passera à 12GB sur la prochaine génération et que ça suivra de façon cohérente.

    On verra ce que donnent les APU Strix Halo qui sortiront début 2025, ils ont fait le pari inverse et mettre de la DDR5 partagée comme les APU/SoC PC habituels (edit: LPDDR5X 256bit selon la rumeur)
    Donc une bonne latence mais une moins bonne bande passante que la GDDR, même s'ils tentent de compenser au mieux en boostant la fréquence.
    Avec Lunar Lake Intel a carrément mis les puces mémoire avec le SoC, et ça a l'air de payer même si tout ne suit pas derrière.

    Bon pour des cartes graphiques dédiées on s'en fout un peu, on a notre mémoire centrale et la mémoire graphique optimales chacune pour leur tache.
    Je n'ai pas bien suivi l'évolution des fonctions pour streamer des assets directement en mémoire graphique, mais la mémoire centrale arrêtera aussi de faire doublon à un moment. Enfin ça peut toujours servir de cache supplémentaire.

    Edit: Et ça sera intéressant de voir ce que donne la PS5 Pro qui reste à 16GB de mémoire totale, avec une capacité de traitement plus élevée. Ils ont laché un peu de lest sur la réserve faite par le système, mais ça ne va pas faire de miracles non plus.
    Pour le coup ça change l'équilibrage de référence pour les archis PC, si on se base là dessus.
    Dernière modification par 564.3 ; 08/10/2024 à 20h07. Motif: typos

  10. #6430
    Je me pose une autre question si concerne l'alimentation. Il semble aussi que les nVidia consomment moins que les AMD. Du coup, j'imagine que ma 650W supporterait mieux une RTX qu'une 7900xt, non ?
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

  11. #6431
    Citation Envoyé par Ashley TOUCRU Voir le message
    Je me pose une autre question si concerne l'alimentation. Il semble aussi que les nVidia consomment moins que les AMD. Du coup, j'imagine que ma 650W supporterait mieux une RTX qu'une 7900xt, non ?
    En pratique ton 5700X3D est un processeur très efficient, il consomme peu. Cela veut dire que sur tes 650W, tu as largement 400W (en crète) à dédier au GPU. Dans un cas similaire au tiens (5800X3D, 64GB ) ma 650W encaisse sans problème une 4080Super. Donc RX7900XT ou équivalent, ça me parait pas trop gênant. Maintenant oui, c'est sûr que tu auras plus de marge (nettement) et plus de facilité à refroidir une RTX4070Super ou une 4070Ti Super.
    Dernière modification par Qiou87 ; 09/10/2024 à 09h00.

  12. #6432
    4700 S 220W annoncés, 7900XT 300W, en effet mais après ça dépend des trucs autour. Je pense que ta 650W supportera les deux.

  13. #6433
    Hello les canards ! [c'est mon post de l'année 2024 ]

    Je suis actuellement sur une Radeon 6700 (tout court) qui m'a jusque là bien servi, et dont le prix à l'époque était ridicule vis à vis de la concurrence.
    Je n'ai pas d'écran adapté au jeu (j'ai 2 dell 27 4K 60hz pour bosser) donc pas un besoin fou de FPS, mais j'aimerai profiter de la 4K sans souffrir sur les rares jeux auxquels je joue encore.

    Ces derniers temps c'était anno 1800, Wartales, BG3...

    Une 7800 XT serait elle une upgrade pertinente ? J'ai un 12400f, 32 go, une seasonic de 750 w.
    Je n'ai pas particulièrement envie de dépenser une fortune ( max 5-600).

  14. #6434
    Salut,

    C'est une bonne upgrade oui, par rapport à la génération de ta CG, c'est l'équivalent d'une 6900XT donc pas loin d'être 2 fois plus puissante
    En ce moment, t'en as 2 sous les 500€
    Sapphire
    https://www.amazon.de/dp/B0CGM19NMS/ à peu près 490€ avec la livraison
    Gigabyte
    https://www.amazon.fr/dp/B0CGRMJF6C/, Prime 491€
    https://www.rueducommerce.fr/p/r24060018377.html, code BLUFF -40€ donc 490€

  15. #6435
    Citation Envoyé par Kimuji Voir le message
    C'est clairement pas la meilleure pub pour le path tacing. On sent que c'est un projet amateur encore en cours de développement: bugs de textures, bugs sur les ombres, éclairage bien trop fort sur certaines scènes... Perso je trouve que ça ruine l'identité visuelle du jeu sans le rendre plus beau pour autant. Si on m'avait dit que c'est un mod qui met juste le bloom à fond je l'aurais cru. Dans le genre Quake II RTX rend bien mieux que ça.
    Oui, là on a juste le stricte minimum. Tu ne peux pas le comparer à Quake II RTX où presque tous les assets ont été remis au goût du jour, comme pour Portal RTX, d'ailleurs.
    Mais rien que sur l'éclairage, l'illumination global et les ombres, c'est déjà pas mal.

  16. #6436
    Je l'ai adoré Deus Ex, et j'ai dû le faire 3 ou 4 fois mais faut dire que même pour l'époque il était franchement pas très beau.
    C'est un exemple un peu extrême mais par exemple, il est sorti après Shenmue, et niveau modélisation, c'est deux mondes différent.
    Ou en prenant un jeu PC plus dans ma norme, le premier Hitman par exemple, a beaucoup mieux vieilli graphiquement.

  17. #6437
    Bonjour
    je viens demander un avis sur le changement de carte .
    Actuellement j'ai une 3060 avec un ryzen 7 5800x 4 HDD , et une alim Corsair 750RMX

    je souhaite passer sur une 4070Super .

    pensez vous que l'alim soit suffisante ?
    le vendeur du magasin m'a conseillé une alim de 1000w, je trouve ça un peu beaucoup non ? mon radiateur à moins de watt. en meme temps plus besoin de radiateur avec ces nouvelles carte graphique


    merci à vous

  18. #6438
    Bonjour,

    Oh oui bien suffisante ton alim surtout que c'est une très bonne alim
    Ce sera la nouvelle prise sur la CG mais normalement un adaptateur est fourni avec

    Tu as bien un SSD quand même dans ta config ? même pour les jeux, c'est un plus

  19. #6439
    Citation Envoyé par legnol Voir le message
    le vendeur du magasin m'a conseillé une alim de 1000w, je trouve ça un peu beaucoup non ? mon radiateur à moins de watt. en meme temps plus besoin de radiateur avec ces nouvelles carte graphique
    Alors soit le vendeur n'y connaît rien, soit il cherchait à te vendre une alim. 1000w c'est complètement surdimensionné.

  20. #6440
    Citation Envoyé par Qiou87 Voir le message
    En pratique ton 5700X3D est un processeur très efficient, il consomme peu. Cela veut dire que sur tes 650W, tu as largement 400W (en crète) à dédier au GPU. Dans un cas similaire au tiens (5800X3D, 64GB ) ma 650W encaisse sans problème une 4080Super. Donc RX7900XT ou équivalent, ça me parait pas trop gênant. Maintenant oui, c'est sûr que tu auras plus de marge (nettement) et plus de facilité à refroidir une RTX4070Super ou une 4070Ti Super.
    C'était mon impression mais je préférais m'en assurer. Merci.
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

  21. #6441
    Citation Envoyé par legnol Voir le message
    le vendeur du magasin m'a conseillé une alim de 1000w
    Tu es tombé sur un demeuré, ou un arnaqueur. Dans les deux cas je n'y remettrai plus les pieds. Ton alimentation suffirait pour une RTX4090, et cet abruti te dit qu'il te faut 1000W pour alimenter un processeur de 120W et une carte graphique de 220W? Sérieusement?

  22. #6442
    Citation Envoyé par Qiou87 Voir le message
    Tu es tombé sur un demeuré, ou un arnaqueur. Dans les deux cas je n'y remettrai plus les pieds. Ton alimentation suffirait pour une RTX4090, et cet abruti te dit qu'il te faut 1000W pour alimenter un processeur de 120W et une carte graphique de 220W? Sérieusement?
    J'ai bien connu un vendeur de grande surface qui a dit à mon grand-père qu'il fallait une carte graphique pcq il jouait au démineur et solitaire...

  23. #6443
    Citation Envoyé par BenoitBMC Voir le message
    J'ai bien connu un vendeur de grande surface qui a dit à mon grand-père qu'il fallait une carte graphique pcq il jouait au démineur et solitaire...
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

  24. #6444
    Citation Envoyé par BenoitBMC Voir le message
    J'ai bien connu un vendeur de grande surface qui a dit à mon grand-père qu'il fallait une carte graphique pcq il jouait au démineur et solitaire...
    Un visionnaire


  25. #6445
    Citation Envoyé par Qiou87 Voir le message
    Tu es tombé sur un demeuré, ou un arnaqueur.
    Il y a une autre voie, il y a longtemps, un vendeur Grosbill a aussi voulu me vendre sur une config une alim oversized. On s'est à moitié embrouillé sur le sujet et son collègue est ensuite venu me voir pour me dire en gros "ne lui en veuillez pas, on a suivi une formation nVidia qui recommande cette puissance d'alim pour votre carte"
    De tous ceux qui n'ont rien à dire, les plus agréables sont ceux qui se taisent (Coluche).

  26. #6446
    Les recommandations de Nvidia sont publiques de nos jours, pour une RTX 4070 Super ils préconisent une alim 650W avec un CPU 105W et leur matos de référence (non précisé). Et ils doivent se mette une bonne marge de sécurité.
    https://www.nvidia.com/fr-fr/geforce...x-4070-family/

  27. #6447
    Citation Envoyé par 564.3 Voir le message
    Les recommandations de Nvidia sont publiques de nos jours, pour une RTX 4070 Super ils préconisent une alim 650W avec un CPU 105W et leur matos de référence (non précisé). Et ils doivent se mette une bonne marge de sécurité.
    https://www.nvidia.com/fr-fr/geforce...x-4070-family/
    Même un slide officiel d'Intel donne une idée, car pour une fois ils font un effort sur la conso de leurs CPUs:


    Donc la config complète avec le CPU le plus gourmand des temps modernes (i9-14900K) et une RTX4090 consomme 527W en jeux. Tu ajoutes 30% de marge pour les pics et le vieillissement de l'alim = 685W. Donc ouais, une alim 750W pour cette config "ultra" qui consomme à fond, c'est ce qu'il faut à peu près.

    Et donc avec un CPU qui consomme moitié moins (5800X), et une carte graphique qui consomme aussi moitié moins (4070S), il faudrait une alim qui peut fournir 250W de plus? Ah ah ah.

  28. #6448
    Citation Envoyé par Qiou87 Voir le message
    Cela veut dire que sur tes 650W, tu as largement 400W (en crète) à dédier au GPU. Dans un cas similaire au tiens (5800X3D, 64GB ) ma 650W encaisse sans problème une 4080Super.
    Ca ca dépend de la silicon lottery et de manière plus générale de la component lottery.

    Mon 5800x + 4 barettes de 8 + 3080 10 Go mettait en sécurité ma seasonic focus gold 650 W.

    Un CPU un peut récalcitrant (derauer avait fait une vidéo sur les différence de consommation des 5600), une alim, un peu sensible, 4 barrettes au lieu de 2, beaucoup de SSD ou HDD, beaucoup de ventilos (c'est mon cas), une carte son ou autre, et on peut se retrouver limite.
    Bref pas de quoi aller prendre une alim de 1000 W, mais attention sur un gros CPU, notamment intel, avec un gros GPU, 650 W c'est pas toujours suffisant et dans ce cas en fonction de la config 750 voir 850 W peuvent être nécessaire.

  29. #6449
    Citation Envoyé par Berk-124 Voir le message
    Ca ca dépend de la silicon lottery et de manière plus générale de la component lottery.

    Mon 5800x + 4 barettes de 8 + 3080 10 Go mettait en sécurité ma seasonic focus gold 650 W.

    Un CPU un peut récalcitrant (derauer avait fait une vidéo sur les différence de consommation des 5600), une alim, un peu sensible, 4 barrettes au lieu de 2, beaucoup de SSD ou HDD, beaucoup de ventilos (c'est mon cas), une carte son ou autre, et on peut se retrouver limite.
    Bref pas de quoi aller prendre une alim de 1000 W, mais attention sur un gros CPU, notamment intel, avec un gros GPU, 650 W c'est pas toujours suffisant et dans ce cas en fonction de la config 750 voir 850 W peuvent être nécessaire.
    Tu parles d'un GPU "donné" pour 350W et qui tapait notoirement des pics à 500W si on plafonnait pas sa tension via un undervolt. Difficile d'extrapoler ce cas-là avec une RTX4070S à 220W, et de dire que c'est pareil, il me semble.

    Sur le reste que tu cites, que ce soit RAM, SSD ou HDD, on parle de quelques watts à chaque fois. Alors oui, tu peux t'amuser à faire un serveur avec 20 HDDs chez toi, mais que tu aies 2 SSDs et 1 HDD, ou 4 SSDs, ou 4 barrettes au lieu de 2, tout cela ne va pas fondamentalement changer la conso totale de ton PC. Idem pour 3 ventilos (la norme), si tu en mets 5, c'est quoi? 20W en plus?

    Si tu reprends ce que je disais, "tu as largement 400W en crète à dédier au GPU". Il se trouve que dans ton exemple personnel, la 3080 dépassait les 400W en crète, et tu te retrouvais donc bien en sécurité. Comme mon conseil n'a rien de général et s'applique au cas particulier d'Ashley, je ne trouve pas où ton message viendrait dire que je me plante et qu'il devrait changer son alim pour une 750W...

  30. #6450
    Mon propos était plutôt de dire que dans le cadre d'une alimentation ce qui peut être suffisant avec 10 % de marge dans un cas, peut ne pas l'être avec la même base de configuration, mais variant à la marge (HDD/SSD/USB/ventilos ...).
    Je prenais mon exemple perso car je sais que pas mal de personnes passaient @ stock une 3080 + 5800x sur une 650 W.

    Der8auer a testé 13 r5 7600, son meilleur en jeu fait 60.8 W quand son moins bon fait 85.7 W = 25 W
    3 ventilos VS 8 =7 à 10 W
    2HDD 3.5 supplémentaire = 15 W
    Quelques LED + une carte PCI = 15 W
    3 ou 4 périphérique USB en plus = 10 W

    Donc 2 machines très proches peuvent rapidement arriver à 50/100 W de différence et pour peu que l'alim de l'un coupe à 640 W quand l'autre va le faire à 660W on se retrouve vite avec une 650 W qui fait le taf et une qui sera insuffisante.

    Bref on va pas dévier plus longtemps.

Page 215 sur 222 PremièrePremière ... 115165205207208209210211212213214215216217218219220221222 DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •