D'ailleurs, est-ce que les cartes d'AMD peuvent faire tourner RTX Remix ?
Le path tracing sur Deus Ex / UT 99 sans refonte des textures avec du PBR, rend pas trop mal surtout au niveau de l'éclairage et des ombres.
C'est clairement pas la meilleure pub pour le path tacing. On sent que c'est un projet amateur encore en cours de développement: bugs de textures, bugs sur les ombres, éclairage bien trop fort sur certaines scènes... Perso je trouve que ça ruine l'identité visuelle du jeu sans le rendre plus beau pour autant. Si on m'avait dit que c'est un mod qui met juste le bloom à fond je l'aurais cru. Dans le genre Quake II RTX rend bien mieux que ça.
Mon avis à 2 cents : Perso je ne partirais pas sur moins que 16GB de VRAM. Peut être que je me trompe, mais si on regarde les consoles moins puissantes, elles ont déjà accès à cette quantité de VRAM. Donc ce ne serait pas raisonnable sur PC de ne pas suivre.
Mon expérience à 2 cents : J'ai une 6800 (non XT, carte 2 fois moins puissante que la 7900 XT) 16GB de VRAM avec un écran 3440x1440 : ACC pratiquement à fond à 120Hz, synchro verticale (je suis de la veille école), FSR qualité. Cyberpunk pratiquement tout à fond à 60 Hz, synchro verticale, FSR qualité. Et encore la CG tourne à 75% en moyenne sur ces deux jeux.
Le FSR qualité, je ne vois pas de différences avec le natif (attention j'ai un écran VA, car je fais plutôt du Sim Racing, donc peut être que la différence serait plus visible sur IPS, je ne sais pas).
Alors oui, pas de Ray tracing, mais je m'en cogne. Je ne suis pas persuadé de son utilité, et les moteurs semblent progresser dans les jeux de lumières sans cette techno. Je viserais toujours 120fps si possible, même avec une RTX.
Je n'ai pas essayé les derniers jeux UE5, sauf Hellblade 2 en 60 fps sans trop de problème.
Le seul doute que j'aurais sur la 7900XT actuellement : le FSR risque d'utiliser l'IA sur la prochaine gen. Mais AMD ne lâche pas les joueurs (même ceux sur RTX).
Bon choix
En fait, en lisant vos réponses je m'aperçois que je fais fausse route depuis le début. Et c'est la faute de Qiou qui m'a recommandé le 38" pour conserver la même hauteur que sur mon 32". Oh le vilain ! Mais en fait, perso, le 1440p me va très bien actuellement donc ce qui me correspondrait le mieux c'est un 40" en ips/1440p/144Hz et basta !
Ça me permettrait de réduire le coût de l'écran de moitié (tout en conservant la même résolution), et éventuellement celui de la CG aussi.
Edit : ah mince, je sais pourquoi je n'avais pas retenu le 40" : ça n'existe pas en incurvé. En fait, j'ai t'ouvre sur celui-ci en Oled :
https://www.lcd-compare.com/moniteur...39GS95QE-B.htm
Edit 2 : du coup, si je pars sur une définition de 3440x1440, est-ce qu'une 7900xt ne serait pas plus intéressante qu'une 4070 Super ? Le DLSS (+framegen) présente-t-il toujours un intérêt aussi grand ?
Dernière modification par Ashley TOUCRU ; 08/10/2024 à 17h18.
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220
Sinon, tu fais comme moi, tu ne t’embêtes pas, tu rajoutes 200e et tu prends la 4070 ti s palit
Ça sera moins critique que les définitions supérieures, mais ça reste intéressant dès le 1440p. En UWQHD ça l'est encore plus.
Perso je suis en 3440x1440 avec une 3080 Ti (qui est dans le même niveau de perfs que la 4070S si j'en juge certains benchs) et je suis toujours avec le DLSS activé, et parfois même du framegen tiers quand le titre s'y prête bien (avec une solution tierse : Lossless scaling, voir FSR, vu que j'ai pas accès au DLSS 3).
J'active systématiquement le RT car pour moi ça fait une grosse différence (je suis passé sur une 30XX pour le DLSS et le support du RT).
Mais clairement là c'est un match qui fonctionnera bien mieux.
Les consoles ont 16GB de mémoire partagée, rien que le système en bouffe/réserve plusieurs Go, et il y a d'autres besoins que l'affichage dans un jeu.
Faut plutôt supposer qu'elles ont au max 12GB de VRAM (dans le cas de la PS5), et de la RAM avec une mauvaise latence pour le reste des traitements.
La Series X a une séparation physique avec 10GB à 320bits de bande de bande passante et 6GB 192bits.
Mais ouais sur PC on est un peu décalé par rapport à cette base, les GPU avec une capacité de traitement similaire ont en général 8GB. J'espère que ça passera à 12GB sur la prochaine génération et que ça suivra de façon cohérente.
On verra ce que donnent les APU Strix Halo qui sortiront début 2025, ils ont fait le pari inverse et mettre de la DDR5 partagée comme les APU/SoC PC habituels (edit: LPDDR5X 256bit selon la rumeur)
Donc une bonne latence mais une moins bonne bande passante que la GDDR, même s'ils tentent de compenser au mieux en boostant la fréquence.
Avec Lunar Lake Intel a carrément mis les puces mémoire avec le SoC, et ça a l'air de payer même si tout ne suit pas derrière.
Bon pour des cartes graphiques dédiées on s'en fout un peu, on a notre mémoire centrale et la mémoire graphique optimales chacune pour leur tache.
Je n'ai pas bien suivi l'évolution des fonctions pour streamer des assets directement en mémoire graphique, mais la mémoire centrale arrêtera aussi de faire doublon à un moment. Enfin ça peut toujours servir de cache supplémentaire.
Edit: Et ça sera intéressant de voir ce que donne la PS5 Pro qui reste à 16GB de mémoire totale, avec une capacité de traitement plus élevée. Ils ont laché un peu de lest sur la réserve faite par le système, mais ça ne va pas faire de miracles non plus.
Pour le coup ça change l'équilibrage de référence pour les archis PC, si on se base là dessus.
Dernière modification par 564.3 ; 08/10/2024 à 20h07. Motif: typos
Je me pose une autre question si concerne l'alimentation. Il semble aussi que les nVidia consomment moins que les AMD. Du coup, j'imagine que ma 650W supporterait mieux une RTX qu'une 7900xt, non ?
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220
En pratique ton 5700X3D est un processeur très efficient, il consomme peu. Cela veut dire que sur tes 650W, tu as largement 400W (en crète) à dédier au GPU. Dans un cas similaire au tiens (5800X3D, 64GB ) ma 650W encaisse sans problème une 4080Super. Donc RX7900XT ou équivalent, ça me parait pas trop gênant. Maintenant oui, c'est sûr que tu auras plus de marge (nettement) et plus de facilité à refroidir une RTX4070Super ou une 4070Ti Super.
Dernière modification par Qiou87 ; 09/10/2024 à 09h00.
4700 S 220W annoncés, 7900XT 300W, en effet mais après ça dépend des trucs autour. Je pense que ta 650W supportera les deux.
Hello les canards ! [c'est mon post de l'année 2024 ]
Je suis actuellement sur une Radeon 6700 (tout court) qui m'a jusque là bien servi, et dont le prix à l'époque était ridicule vis à vis de la concurrence.
Je n'ai pas d'écran adapté au jeu (j'ai 2 dell 27 4K 60hz pour bosser) donc pas un besoin fou de FPS, mais j'aimerai profiter de la 4K sans souffrir sur les rares jeux auxquels je joue encore.
Ces derniers temps c'était anno 1800, Wartales, BG3...
Une 7800 XT serait elle une upgrade pertinente ? J'ai un 12400f, 32 go, une seasonic de 750 w.
Je n'ai pas particulièrement envie de dépenser une fortune ( max 5-600).
Salut,
C'est une bonne upgrade oui, par rapport à la génération de ta CG, c'est l'équivalent d'une 6900XT donc pas loin d'être 2 fois plus puissante
En ce moment, t'en as 2 sous les 500€
Sapphire
https://www.amazon.de/dp/B0CGM19NMS/ à peu près 490€ avec la livraison
Gigabyte
https://www.amazon.fr/dp/B0CGRMJF6C/, Prime 491€
https://www.rueducommerce.fr/p/r24060018377.html, code BLUFF -40€ donc 490€
Je l'ai adoré Deus Ex, et j'ai dû le faire 3 ou 4 fois mais faut dire que même pour l'époque il était franchement pas très beau.
C'est un exemple un peu extrême mais par exemple, il est sorti après Shenmue, et niveau modélisation, c'est deux mondes différent.
Ou en prenant un jeu PC plus dans ma norme, le premier Hitman par exemple, a beaucoup mieux vieilli graphiquement.
Bonjour
je viens demander un avis sur le changement de carte .
Actuellement j'ai une 3060 avec un ryzen 7 5800x 4 HDD , et une alim Corsair 750RMX
je souhaite passer sur une 4070Super .
pensez vous que l'alim soit suffisante ?
le vendeur du magasin m'a conseillé une alim de 1000w, je trouve ça un peu beaucoup non ? mon radiateur à moins de watt. en meme temps plus besoin de radiateur avec ces nouvelles carte graphique
merci à vous
Bonjour,
Oh oui bien suffisante ton alim surtout que c'est une très bonne alim
Ce sera la nouvelle prise sur la CG mais normalement un adaptateur est fourni avec
Tu as bien un SSD quand même dans ta config ? même pour les jeux, c'est un plus
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220
Il y a une autre voie, il y a longtemps, un vendeur Grosbill a aussi voulu me vendre sur une config une alim oversized. On s'est à moitié embrouillé sur le sujet et son collègue est ensuite venu me voir pour me dire en gros "ne lui en veuillez pas, on a suivi une formation nVidia qui recommande cette puissance d'alim pour votre carte"
De tous ceux qui n'ont rien à dire, les plus agréables sont ceux qui se taisent (Coluche).
Les recommandations de Nvidia sont publiques de nos jours, pour une RTX 4070 Super ils préconisent une alim 650W avec un CPU 105W et leur matos de référence (non précisé). Et ils doivent se mette une bonne marge de sécurité.
https://www.nvidia.com/fr-fr/geforce...x-4070-family/
Même un slide officiel d'Intel donne une idée, car pour une fois ils font un effort sur la conso de leurs CPUs:
Donc la config complète avec le CPU le plus gourmand des temps modernes (i9-14900K) et une RTX4090 consomme 527W en jeux. Tu ajoutes 30% de marge pour les pics et le vieillissement de l'alim = 685W. Donc ouais, une alim 750W pour cette config "ultra" qui consomme à fond, c'est ce qu'il faut à peu près.
Et donc avec un CPU qui consomme moitié moins (5800X), et une carte graphique qui consomme aussi moitié moins (4070S), il faudrait une alim qui peut fournir 250W de plus? Ah ah ah.
Ca ca dépend de la silicon lottery et de manière plus générale de la component lottery.
Mon 5800x + 4 barettes de 8 + 3080 10 Go mettait en sécurité ma seasonic focus gold 650 W.
Un CPU un peut récalcitrant (derauer avait fait une vidéo sur les différence de consommation des 5600), une alim, un peu sensible, 4 barrettes au lieu de 2, beaucoup de SSD ou HDD, beaucoup de ventilos (c'est mon cas), une carte son ou autre, et on peut se retrouver limite.
Bref pas de quoi aller prendre une alim de 1000 W, mais attention sur un gros CPU, notamment intel, avec un gros GPU, 650 W c'est pas toujours suffisant et dans ce cas en fonction de la config 750 voir 850 W peuvent être nécessaire.
Tu parles d'un GPU "donné" pour 350W et qui tapait notoirement des pics à 500W si on plafonnait pas sa tension via un undervolt. Difficile d'extrapoler ce cas-là avec une RTX4070S à 220W, et de dire que c'est pareil, il me semble.
Sur le reste que tu cites, que ce soit RAM, SSD ou HDD, on parle de quelques watts à chaque fois. Alors oui, tu peux t'amuser à faire un serveur avec 20 HDDs chez toi, mais que tu aies 2 SSDs et 1 HDD, ou 4 SSDs, ou 4 barrettes au lieu de 2, tout cela ne va pas fondamentalement changer la conso totale de ton PC. Idem pour 3 ventilos (la norme), si tu en mets 5, c'est quoi? 20W en plus?
Si tu reprends ce que je disais, "tu as largement 400W en crète à dédier au GPU". Il se trouve que dans ton exemple personnel, la 3080 dépassait les 400W en crète, et tu te retrouvais donc bien en sécurité. Comme mon conseil n'a rien de général et s'applique au cas particulier d'Ashley, je ne trouve pas où ton message viendrait dire que je me plante et qu'il devrait changer son alim pour une 750W...
Mon propos était plutôt de dire que dans le cadre d'une alimentation ce qui peut être suffisant avec 10 % de marge dans un cas, peut ne pas l'être avec la même base de configuration, mais variant à la marge (HDD/SSD/USB/ventilos ...).
Je prenais mon exemple perso car je sais que pas mal de personnes passaient @ stock une 3080 + 5800x sur une 650 W.
Der8auer a testé 13 r5 7600, son meilleur en jeu fait 60.8 W quand son moins bon fait 85.7 W = 25 W
3 ventilos VS 8 =7 à 10 W
2HDD 3.5 supplémentaire = 15 W
Quelques LED + une carte PCI = 15 W
3 ou 4 périphérique USB en plus = 10 W
Donc 2 machines très proches peuvent rapidement arriver à 50/100 W de différence et pour peu que l'alim de l'un coupe à 640 W quand l'autre va le faire à 660W on se retrouve vite avec une 650 W qui fait le taf et une qui sera insuffisante.
Bref on va pas dévier plus longtemps.