Oui, de fait. Merci pour ton retour. Ensuite, comme en jeux vidéo et pour les softs, si tu as du matos un peu faible concernant les exigences contemporaines, tu galères.
Pas sur Blender, le GPU est utilisé à la fois pour le rendu final et pour la modélisation (à part si on n'utilise que le fil de fer, et encore...). A part si on a besoin de plus de Go qu'il n'y a de VRAM, le CPU sera remisé au second plan.
Blender ne gère pas que Cuda et Optix, non, il gère aussi HIP (AMD) et même les GPU Intel ... juste qu'une CG AMD haut de gamme se fait pulvériser par une Nvidia moyenne, voir basse.
Pour la VRAM, cela dépend de la complexité des scènes, tout le monde n'a pas besoin de 12Go, mais la problématique est que si on part sur un rendu GPU (et il faut, à part les bi-xeon ou les Epyc/Threadripper, le GPU met aussi une raclée aux CPU pour particuliers), le soft aura besoin que tout tienne en VRAM, pas de débordement possible sur la RAM du PC, si on a 64Go de RAM, une CG 8Go et une scène nécessitant 8,1 Go, ça fera une erreur.
Tu peux te faire une opinion sur les perfs entre les modèles via le recueil des utilisateurs, ici :
https://opendata.blender.org/
Tu peux filtrer par modèle de calcul (Cuda, Optix, HIS...), type hardware (CPU, GPU), recherche directe (4070 )...
Merci pour ce retour, ça répond bien à mes interrogations.
Les benchmarks sont en effet assez éloquents et confirment qu'il vaut quand même mieux taper au moins dans les 4070.
En fait c'est assez différent des jeux au sens où c'est toi qui décide de la complexité de la scène et du rendu. Au pire faut découper et optimiser, même si c'est chiant.
Le soft tournera bien sur un ordi pas très balaise, je n'ai pas de problèmes avec ma GTX 1070. Mon frère bosse sur Maya avec une GTX 960 (bon ok, il lance le rendu final sur les gros GPUs au taf).
Tu peux déjà télécharger Blender et lancer le rendu de scènes de démo qui correspondent à ce que tu vises en gros, voir ce que ça donne.
En passant, la page de specs Steam (l'appli y est aussi distribuée): https://store.steampowered.com/app/365670/Blender/
Minimal: CPU 4 cœurs, 8GB RAM, carte graphique avec 2GB de VRAM et support d'OpenGL 4.3
Recommandé: CPU 8 cœurs, 32GB RAM, carte graphique 8GB VRAM
Oui, ça tourne, mais quand j'ai acheté un nouveau PC à ma fille à base de 3060Ti, j'ai testé Blender dessus et le rendu Cycles en modelisation, sur des scènes simples, c'était possible, là où ma 1070, même pas en rêve (en slideshow, en fait).
Blender fait figure d'exception, la plupart des autres ténors du marché n'ont pas une telle différence CPU/GPU, notamment sur la partie modélisation.
Il fait le rendu sous Arnold ? La difference entre CPU et GPU est minime, je veux dire en gamme, genre 7950X et 4080, sous Blender c'est sans commune mesure.
Ouais enfin le rendu Cycles en temps réel c'est le genre de chose que je considère du luxe. Ça améliore le workflow pour certaines taches en faisant gagner du temps quand on tâtonne. Après je ne suis pas un pro.
Sinon je n'ai pas le détail technique de ce qu'il fait avec sa GTX 960, et son CPU est du même tonneau, pas balaise non plus. En dehors du taf il bosse aussi sur des projets perso avec ça, mais c'est plutôt le genre à faire du rendu stylisé pas trop gourmand.
En fait avec le confinement les équipes se sont retrouvées sans ordi ou presque. Ils ont du en distribuer pas mal en urgence, et ceux qui avaient une patate qui fait le taf s'en contentaient. Après ça dépend sur quelle partie du pipeline chacun bosse, il n'y a pas besoin du même matos. Et sinon ils utilisaient du VPN aussi, je crois.
Depuis la 4.2, le rendu EEVEE est plus proche de Cycles (il a une option RayTracing qui améliore drastiquement le rendu) mais en plus rapide, du coup ça peut valoir le coup de mettre le viewport en EEVEE sur les scènes pas trop complexes, quand on veut voir rapidement les éclairages.
C'est GPU aussi, dans tous les cas.
Ah faudra que je teste ça.
Sinon quand vous lancez des gros rendus, au cas où vous n'être pas pressés n'oubliez pas de passer la power limit de votre GPU gamer au minimum.
Les GPU pro ont un réglage proche de l'efficacité, mais ça n'est pas le cas pour nous, les fabricants sont prêts à foutre le feu au papier peint pour gagner 1 FPS.
C'est aussi le cas dans les jeux, mais c'est plus marqué avec cet usage.
J'ai fait un test pour vérifier, c'est bien net… dommage qu'il n'y ait pas de power limit plus faible d'ailleurs, voir quel est le point d'inflexion.
À 75W ma GTX 1070 fait 124 samples/Wh, à 115W 86 samples/Wh. Et la conso ne va pas plus haut quelle que soit la power limit, la fréquence est au max mais une partie du GPU ne sert pas dans ces opérations.
Bon, après faut aussi compter qu'on laisse l'ordi complet allumé, si on l'éteins quand c'est fini.
A propos de la VRAM sous Blender, j'ai téléchargé la scène de démo de la 4.2 (gold splash screen), elle occupe 8,5 Go de VRAM en EEVEE et 11,5 en Cycles (sur 12 Go de ma CG, gloups). Vu que la scène comprend 32,8 millions de triangles, 8Go de VRAM, c'est plus que tranquille sur des projets persos tant qu'on n'est pas pro
Et je confirmes, en EEVEE avec raytracing, le viewport 3D bouge de manière fluide chez moi (en Cycles, clairement pas possible).
Je me requote pour le nouveau W40k Space Marines 2 sponsorisé par AMD. Et comme pour les précédents, pas de Ray Tracing...
C'est vraiment une constante sur les jeux sponsorisés par AMD.
Et du coup, forcément, les Radeon sont plutôt bien placées dans les benchs par rapport aux GeForce.
De là à dire que c'est fait exprès, j'irais pas jusque là, mais c'est tout de même frappant.
Ils pourraient aussi faire du raytracing saupoudré avec doigté et sans option trop lourde.
Mais AMD va refaire avec RDNA 4 a priori, bientôt du gros raytracing pour tous.
Je viens de voir cette vidéo parlant d'un nerf de la 4070 et je me demande quel est l'impact réel en jeu
Entre 0 et 1% dans l'immense majorité.
Il y a quelques exceptions, Alan Wake 2 et Resident Evil Village, où ça monte à environ 5% avec RT activé.
https://wccftech.com/review/galax-ge...goes-gddr6/11/
En fait c'est surtout une question de principe, vendre une carte moins bonne (même si c'est de pas grand chose) qui porte le même nom.
Mais on peut aussi se poser la question du pourquoi la 4070 n'avait pas de GDDR6 dès le départ vu le peu d'impact.
En passant Hardware Unboxed trouve que la version GDDR6 consomme un poil moins que la GDDR6X. Un poil moins de perfs, un poil moins de conso… Faudrait qu'ils en profitent pour baisser le prix un peu aussi, que ça s'aligne mieux avec le rapport perf/prix de la RTX 4070 Super au moins. D'après les index réajustés de 3DCenter, si la RTX 4070 Super est à 600€ la RTX 4070 GDDR6 devrait être à 500-525€. On la trouve au mieux à 570€ là…
La GDDR6x est très cher donc Nvidia la reserve sur leur haut de gamme et Micron en produit pas assez pour toute la gamme.
Je continue d'avancer sur ma config et j'y suis presque. Je suis juste perdu sur le GPU.
Pour rappel le but serait de jouer sur ma TV (4K Samsung)
Je vois plusieurs possibilités :
4K natif sera je pense peu possible suivant les jeux, vu que je vais pas aller sur une 4090 .
Donc :
1440P upscale?
Au niveau des cartes, je trouve par ici:
- 4070: Prix moyen ici: 549 euros. Je parle de 4070 de base pas de TI ou super
- 7800XT: Prix moyen ici 489 euros
- 7900GRE : Prix moyen 569.
A l'aide?
Si tu va partir sur de l'upscale, autant partir avec la marque qui a le meilleur profil pour cela : Nvidia et son DLSS. Non seulement la techno y est plus propre, mais en plus ça reste compatible avec les titres qui ne sont que FSR (l'inverse n'étant pas vrai).
Logique. Apres quelques recherches je pense que je vais partir sur une 4070 Super. C’est 50 euros de plus que la 4070 et elle devrait durer quelques années. Pour jouer a 60 i/s meme en medium ca devrait aller.
Merci pour ta réponse en tout cas.
Entièrement d’accord, et surtout avec le fait de prendre la Super car l’upscaling nécessite de la mémoire vidéo. 12GB sont donc bienvenus…
La super a plus de cuda cores(je ne sais pas si ça aide à mesurer la performance objective d'une carte honnêtement) et un TGP réduit à 220 watts mais je pensais qu'il y avait plus de différences que cela.
Ouais il y a un peu plus de cœurs et un peu plus de conso. L'écart de perfs se creuse un poil avec la GDDR6.
Modèle VRAM Cœurs TDP RTX 4070 12GB GDDR6X ou GDDR6 46 200W (un poil moins avec la GDDR6) RTX 4070 Super 12GB GDDR6X 56 220W
Ça serait pas mal que le tarif de la RTX 4070 GDDR6 descende vers 500€.
Aucune chance et vu comment Nvidia adore se moquer de leur clientèle avec la GT 1030 qui est passée de la GDDR5 à de la simple DDR4 aux RTX 3060 qui passe de 12 à 8 Go de VRAM pour le même prix donc ce sera pareil avec la RTX 4070 GDDR6 (qui sera surtout mis dans les pc pré-assemblé).
D’ailleurs en France le 1er modèle est la MSI RTX 4070 VENTUS 2X E1 12G GDDR6 OC en précommande à 599.99€.
Petit retour sur ma 4070S donc, j'ai pu la tester sur quelques jeux et ça tourne nickel sur ma TV 4K. Je cherche pas la perf a fond et venant d'une PS5 je vise les 60 i/s soit natif soit DLSS et j'y arrive sans problème.
Par contre impossible de faire du 4K, 120Hz et mettre le HDR. Le HDR fonctionne en 60Hz mais pas en 120. J'imagine la carte ne supporte pas tout ça. (mon cable est bien certifié HDMI 2.1 et tout et tout).
Salut les Cartegraphiqueux !
Je vais poser une question à laquelle vous avez dû déjà répondre 1 000 fois.
J'ai bien compris que le FSR d'AMD (même 3.1) restait moins performant que le DLSS des Verts. J'ai vu aussi qu'une 7900XT était plutôt plus performante qu'une 4070 Super en img/sec brutes.
Vu que j'envisage de casser le PEL pour passer à un écran 38" en 3840x1600px, voici mes questionnements :
- Dans quelle mesure le DLSS fait-il vraiment une différence face à la puissance brute de la 7900xt (surtout sur ce genre de définition élevée) ?
- Il semble que le FSR ne soit pas dispo dans tous les jeux, mais qu'en est-il du DLSS ?
- La puissance de calcul du DLSS et de la génération d'images compense-t-elle la plus faible quantité de mémoire vidéo de la 4070S (j'ai lu vos récents commentaires) ? Qu'est-ce qu'on peut attendre concernant sa longévité ? J'ai pas l'intention de dépenser 600 balles dans une CG pour la garder deux ans.
Merci d'avance pour vos éclaircissements.
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220