Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 213 sur 222 PremièrePremière ... 113163203205206207208209210211212213214215216217218219220221 ... DernièreDernière
Affichage des résultats 6 361 à 6 390 sur 6633
  1. #6361
    Citation Envoyé par Thaerlbone Voir le message
    Ah oui pardon, collusion entre une simple 4060 et une 4060 Ti.
    Nope, c'est aussi 8Go sur la 4060 ti et tu as aussi du 16 Go.

    Mais le CPU est tout aussi important.

  2. #6362
    Citation Envoyé par Thaerlbone Voir le message
    Tu confirmes ce qu'il me semblait : il faut du nVidia. Concernant la puissance nécessaire, je suppose que le plus c'est le mieux
    Après ça dépend à quel point tu charges la mule aussi, il y a 10 ou 20 ans les gens se contentaient du matos qu'ils avaient sous la main.
    Maintenant on peut faire de la prévisualisation RT en quasi temps réel, ça aide mais c'est du luxe.

  3. #6363
    Oui, de fait. Merci pour ton retour. Ensuite, comme en jeux vidéo et pour les softs, si tu as du matos un peu faible concernant les exigences contemporaines, tu galères.

  4. #6364
    Citation Envoyé par revanwolf Voir le message
    Mais le CPU est tout aussi important.
    Pas sur Blender, le GPU est utilisé à la fois pour le rendu final et pour la modélisation (à part si on n'utilise que le fil de fer, et encore...). A part si on a besoin de plus de Go qu'il n'y a de VRAM, le CPU sera remisé au second plan.
    Blender ne gère pas que Cuda et Optix, non, il gère aussi HIP (AMD) et même les GPU Intel ... juste qu'une CG AMD haut de gamme se fait pulvériser par une Nvidia moyenne, voir basse.
    Pour la VRAM, cela dépend de la complexité des scènes, tout le monde n'a pas besoin de 12Go, mais la problématique est que si on part sur un rendu GPU (et il faut, à part les bi-xeon ou les Epyc/Threadripper, le GPU met aussi une raclée aux CPU pour particuliers), le soft aura besoin que tout tienne en VRAM, pas de débordement possible sur la RAM du PC, si on a 64Go de RAM, une CG 8Go et une scène nécessitant 8,1 Go, ça fera une erreur.
    Tu peux te faire une opinion sur les perfs entre les modèles via le recueil des utilisateurs, ici :
    https://opendata.blender.org/
    Tu peux filtrer par modèle de calcul (Cuda, Optix, HIS...), type hardware (CPU, GPU), recherche directe (4070 )...

  5. #6365
    Merci pour ce retour, ça répond bien à mes interrogations.
    Les benchmarks sont en effet assez éloquents et confirment qu'il vaut quand même mieux taper au moins dans les 4070.

  6. #6366
    Citation Envoyé par Thaerlbone Voir le message
    Oui, de fait. Merci pour ton retour. Ensuite, comme en jeux vidéo et pour les softs, si tu as du matos un peu faible concernant les exigences contemporaines, tu galères.
    En fait c'est assez différent des jeux au sens où c'est toi qui décide de la complexité de la scène et du rendu. Au pire faut découper et optimiser, même si c'est chiant.
    Le soft tournera bien sur un ordi pas très balaise, je n'ai pas de problèmes avec ma GTX 1070. Mon frère bosse sur Maya avec une GTX 960 (bon ok, il lance le rendu final sur les gros GPUs au taf).
    Tu peux déjà télécharger Blender et lancer le rendu de scènes de démo qui correspondent à ce que tu vises en gros, voir ce que ça donne.

    En passant, la page de specs Steam (l'appli y est aussi distribuée): https://store.steampowered.com/app/365670/Blender/
    Minimal: CPU 4 cœurs, 8GB RAM, carte graphique avec 2GB de VRAM et support d'OpenGL 4.3
    Recommandé: CPU 8 cœurs, 32GB RAM, carte graphique 8GB VRAM

  7. #6367
    Citation Envoyé par 564.3 Voir le message
    Le soft tournera bien sur un ordi pas très balaise, je n'ai pas de problèmes avec ma GTX 1070.
    Oui, ça tourne, mais quand j'ai acheté un nouveau PC à ma fille à base de 3060Ti, j'ai testé Blender dessus et le rendu Cycles en modelisation, sur des scènes simples, c'était possible, là où ma 1070, même pas en rêve (en slideshow, en fait).
    Citation Envoyé par 564.3 Voir le message
    Mon frère bosse sur Maya avec une GTX 960 (bon ok, il lance le rendu final sur les gros GPUs au taf).
    Blender fait figure d'exception, la plupart des autres ténors du marché n'ont pas une telle différence CPU/GPU, notamment sur la partie modélisation.
    Il fait le rendu sous Arnold ? La difference entre CPU et GPU est minime, je veux dire en gamme, genre 7950X et 4080, sous Blender c'est sans commune mesure.

  8. #6368
    Ouais enfin le rendu Cycles en temps réel c'est le genre de chose que je considère du luxe. Ça améliore le workflow pour certaines taches en faisant gagner du temps quand on tâtonne. Après je ne suis pas un pro.

    Sinon je n'ai pas le détail technique de ce qu'il fait avec sa GTX 960, et son CPU est du même tonneau, pas balaise non plus. En dehors du taf il bosse aussi sur des projets perso avec ça, mais c'est plutôt le genre à faire du rendu stylisé pas trop gourmand.
    En fait avec le confinement les équipes se sont retrouvées sans ordi ou presque. Ils ont du en distribuer pas mal en urgence, et ceux qui avaient une patate qui fait le taf s'en contentaient. Après ça dépend sur quelle partie du pipeline chacun bosse, il n'y a pas besoin du même matos. Et sinon ils utilisaient du VPN aussi, je crois.

  9. #6369
    Citation Envoyé par 564.3 Voir le message
    Ouais enfin le rendu Cycles en temps réel c'est le genre de chose que je considère du luxe. Ça améliore le workflow pour certaines taches en faisant gagner du temps quand on tâtonne.
    Depuis la 4.2, le rendu EEVEE est plus proche de Cycles (il a une option RayTracing qui améliore drastiquement le rendu) mais en plus rapide, du coup ça peut valoir le coup de mettre le viewport en EEVEE sur les scènes pas trop complexes, quand on veut voir rapidement les éclairages.
    C'est GPU aussi, dans tous les cas.

  10. #6370
    Ah faudra que je teste ça.

    Sinon quand vous lancez des gros rendus, au cas où vous n'être pas pressés n'oubliez pas de passer la power limit de votre GPU gamer au minimum.
    Les GPU pro ont un réglage proche de l'efficacité, mais ça n'est pas le cas pour nous, les fabricants sont prêts à foutre le feu au papier peint pour gagner 1 FPS.
    C'est aussi le cas dans les jeux, mais c'est plus marqué avec cet usage.

    J'ai fait un test pour vérifier, c'est bien net… dommage qu'il n'y ait pas de power limit plus faible d'ailleurs, voir quel est le point d'inflexion.
    À 75W ma GTX 1070 fait 124 samples/Wh, à 115W 86 samples/Wh. Et la conso ne va pas plus haut quelle que soit la power limit, la fréquence est au max mais une partie du GPU ne sert pas dans ces opérations.
    Bon, après faut aussi compter qu'on laisse l'ordi complet allumé, si on l'éteins quand c'est fini.



  11. #6371
    A propos de la VRAM sous Blender, j'ai téléchargé la scène de démo de la 4.2 (gold splash screen), elle occupe 8,5 Go de VRAM en EEVEE et 11,5 en Cycles (sur 12 Go de ma CG, gloups). Vu que la scène comprend 32,8 millions de triangles, 8Go de VRAM, c'est plus que tranquille sur des projets persos tant qu'on n'est pas pro
    Et je confirmes, en EEVEE avec raytracing, le viewport 3D bouge de manière fluide chez moi (en Cycles, clairement pas possible).

  12. #6372
    Citation Envoyé par Borh Voir le message
    Je ne comprends pas ce qui te fait dire que c'est du sabotage.
    Perso, ce que je vois, c'est les jeux sponsorisés par AMD n'ont, le plus souvent, tout simplement pas de Ray Tracing (SW Jedi Survivor, Starfield, Last of Us...).
    Si faut en passer par là pour que les Radeon ne soient pas trop désavantagées, j'aurais tendance à penser que le sabotage n'est pas dans le sens où tu l'imagines...

    Par contre quand NVidia sponsorise, il y aura forcément du RT voir même du path tracing. C'est évidemment pour mettre les RTX en valeur mais je dirais que c'est AMD de sortir des cartes avec plus de cores spécialisés RT. De ce que j'entends des rumeurs, ce sera le cas pour RDNA5 et tant mieux.
    Je me requote pour le nouveau W40k Space Marines 2 sponsorisé par AMD. Et comme pour les précédents, pas de Ray Tracing...
    C'est vraiment une constante sur les jeux sponsorisés par AMD.
    Et du coup, forcément, les Radeon sont plutôt bien placées dans les benchs par rapport aux GeForce.

    De là à dire que c'est fait exprès, j'irais pas jusque là, mais c'est tout de même frappant.

  13. #6373
    Ils pourraient aussi faire du raytracing saupoudré avec doigté et sans option trop lourde.
    Mais AMD va refaire avec RDNA 4 a priori, bientôt du gros raytracing pour tous.

  14. #6374
    Je viens de voir cette vidéo parlant d'un nerf de la 4070 et je me demande quel est l'impact réel en jeu

  15. #6375
    Entre 0 et 1% dans l'immense majorité.
    Il y a quelques exceptions, Alan Wake 2 et Resident Evil Village, où ça monte à environ 5% avec RT activé.
    https://wccftech.com/review/galax-ge...goes-gddr6/11/

    En fait c'est surtout une question de principe, vendre une carte moins bonne (même si c'est de pas grand chose) qui porte le même nom.
    Mais on peut aussi se poser la question du pourquoi la 4070 n'avait pas de GDDR6 dès le départ vu le peu d'impact.

  16. #6376
    Citation Envoyé par Borh Voir le message
    Mais on peut aussi se poser la question du pourquoi la 4070 n'avait pas de GDDR6 dès le départ vu le peu d'impact.
    Je sais pas si c'est toujours d'actualité mais Nvidia à un contrat d'exclusivité avec Micron pour une utilisation quasi-exclusive de le DGGR6X donc ils sont obligé d'utiliser ce type de mémoire.

  17. #6377
    En passant Hardware Unboxed trouve que la version GDDR6 consomme un poil moins que la GDDR6X. Un poil moins de perfs, un poil moins de conso… Faudrait qu'ils en profitent pour baisser le prix un peu aussi, que ça s'aligne mieux avec le rapport perf/prix de la RTX 4070 Super au moins. D'après les index réajustés de 3DCenter, si la RTX 4070 Super est à 600€ la RTX 4070 GDDR6 devrait être à 500-525€. On la trouve au mieux à 570€ là…

  18. #6378
    Citation Envoyé par revanwolf Voir le message
    Je sais pas si c'est toujours d'actualité mais Nvidia à un contrat d'exclusivité avec Micron pour une utilisation quasi-exclusive de le DGGR6X donc ils sont obligé d'utiliser ce type de mémoire.
    Je ne le savais pas.
    Mais la 4060 a de la GDDR6 donc ce serait bizarre.

  19. #6379
    La GDDR6x est très cher donc Nvidia la reserve sur leur haut de gamme et Micron en produit pas assez pour toute la gamme.

  20. #6380
    Je continue d'avancer sur ma config et j'y suis presque. Je suis juste perdu sur le GPU.

    Pour rappel le but serait de jouer sur ma TV (4K Samsung)

    Je vois plusieurs possibilités :

    4K natif sera je pense peu possible suivant les jeux, vu que je vais pas aller sur une 4090 .

    Donc :

    1440P upscale?

    Au niveau des cartes, je trouve par ici:

    - 4070: Prix moyen ici: 549 euros. Je parle de 4070 de base pas de TI ou super
    - 7800XT: Prix moyen ici 489 euros
    - 7900GRE : Prix moyen 569.

    A l'aide?

  21. #6381
    Si tu va partir sur de l'upscale, autant partir avec la marque qui a le meilleur profil pour cela : Nvidia et son DLSS. Non seulement la techno y est plus propre, mais en plus ça reste compatible avec les titres qui ne sont que FSR (l'inverse n'étant pas vrai).

  22. #6382
    Logique. Apres quelques recherches je pense que je vais partir sur une 4070 Super. C’est 50 euros de plus que la 4070 et elle devrait durer quelques années. Pour jouer a 60 i/s meme en medium ca devrait aller.

    Merci pour ta réponse en tout cas.

  23. #6383
    Entièrement d’accord, et surtout avec le fait de prendre la Super car l’upscaling nécessite de la mémoire vidéo. 12GB sont donc bienvenus…

  24. #6384
    Citation Envoyé par Qiou87 Voir le message
    Entièrement d’accord, et surtout avec le fait de prendre la Super car l’upscaling nécessite de la mémoire vidéo. 12GB sont donc bienvenus…
    La non-super est aussi équipée de 12GB.

  25. #6385
    La super a plus de cuda cores(je ne sais pas si ça aide à mesurer la performance objective d'une carte honnêtement) et un TGP réduit à 220 watts mais je pensais qu'il y avait plus de différences que cela.

  26. #6386
    La 4070 Super est effectivement plus rapide. Mais pas mieux dotée en mémoire.

  27. #6387
    Ouais il y a un peu plus de cœurs et un peu plus de conso. L'écart de perfs se creuse un poil avec la GDDR6.

    Modèle VRAM Cœurs TDP
    RTX 4070 12GB GDDR6X ou GDDR6 46 200W (un poil moins avec la GDDR6)
    RTX 4070 Super 12GB GDDR6X 56 220W

    Ça serait pas mal que le tarif de la RTX 4070 GDDR6 descende vers 500€.

  28. #6388
    Citation Envoyé par 564.3 Voir le message
    Ça serait pas mal que le tarif de la RTX 4070 GDDR6 descende vers 500€.
    Aucune chance et vu comment Nvidia adore se moquer de leur clientèle avec la GT 1030 qui est passée de la GDDR5 à de la simple DDR4 aux RTX 3060 qui passe de 12 à 8 Go de VRAM pour le même prix donc ce sera pareil avec la RTX 4070 GDDR6 (qui sera surtout mis dans les pc pré-assemblé).

    D’ailleurs en France le 1er modèle est la MSI RTX 4070 VENTUS 2X E1 12G GDDR6 OC en précommande à 599.99€.

  29. #6389
    Petit retour sur ma 4070S donc, j'ai pu la tester sur quelques jeux et ça tourne nickel sur ma TV 4K. Je cherche pas la perf a fond et venant d'une PS5 je vise les 60 i/s soit natif soit DLSS et j'y arrive sans problème.

    Par contre impossible de faire du 4K, 120Hz et mettre le HDR. Le HDR fonctionne en 60Hz mais pas en 120. J'imagine la carte ne supporte pas tout ça. (mon cable est bien certifié HDMI 2.1 et tout et tout).

  30. #6390
    Salut les Cartegraphiqueux !
    Je vais poser une question à laquelle vous avez dû déjà répondre 1 000 fois.

    J'ai bien compris que le FSR d'AMD (même 3.1) restait moins performant que le DLSS des Verts. J'ai vu aussi qu'une 7900XT était plutôt plus performante qu'une 4070 Super en img/sec brutes.

    Vu que j'envisage de casser le PEL pour passer à un écran 38" en 3840x1600px, voici mes questionnements :
    - Dans quelle mesure le DLSS fait-il vraiment une différence face à la puissance brute de la 7900xt (surtout sur ce genre de définition élevée) ?
    - Il semble que le FSR ne soit pas dispo dans tous les jeux, mais qu'en est-il du DLSS ?
    - La puissance de calcul du DLSS et de la génération d'images compense-t-elle la plus faible quantité de mémoire vidéo de la 4070S (j'ai lu vos récents commentaires) ? Qu'est-ce qu'on peut attendre concernant sa longévité ? J'ai pas l'intention de dépenser 600 balles dans une CG pour la garder deux ans.

    Merci d'avance pour vos éclaircissements.
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

Page 213 sur 222 PremièrePremière ... 113163203205206207208209210211212213214215216217218219220221 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •