Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 223 sur 236 PremièrePremière ... 123173213215216217218219220221222223224225226227228229230231233 ... DernièreDernière
Affichage des résultats 6 661 à 6 690 sur 7068
  1. #6661
    Non mais le rapport qualité/prix sera exécrable chez Nvidia pour la simple raison qu'ils ont >80% du marché et aucune concurrence sur le haut-de-gamme donc la priorité sera de remplir encore plus les caisses.

    Et je les comprends les gens vont acheter à n'importe quel prix donc pourquoi s'en priver.

  2. #6662
    Ok, donc pour toi, la série 50xx sera hors de prix et côté rapport perf/prix par rapport à une 4070 super ou à une 4070ti sera pourri.
    Donc mieux vaut partir sur une 4070 super ou sur une 4070ti?

  3. #6663
    Citation Envoyé par garfield691 Voir le message
    Ok, donc pour toi, la série 50xx sera hors de prix et côté rapport perf/prix par rapport à une 4070 super ou à une 4070ti sera pourri.
    Donc mieux vaut partir sur une 4070 super ou sur une 4070ti?
    En fait le rapport perf/prix ne progresse pas, ou presque pas, chez nVidia. Et comme AMD ne fait aucune concurrence frontale (ils mettent leurs cartes au prix des cartes nVidia, -5% ou -10% au pire, et basta), le rapport perf/prix stagne.

    Donc tu auras des RTX5000 au même rapport perf/prix que les actuelles, mais ça ne veut pas dire qu'il faut partir sur une 4070Ti Super par exemple ; c'est juste que sa remplaçante, une probable RTX5070, sera au même prix que la 4070Ti Super si ses perfs sont identiques. Et ils te diront que c'est un super deal pour l'acheteur parce que oulala elle est 2x plus rapide en raytracing (toujours incapable de faire tourner du pathtracing en définition native hein, mais bon).

    Puis dans 1 an quand ils auront épuisé les clients capables de payer plein pot, ils feront une série 5000 SUPER en améliorant un peu le placement prix de 2-3 cartes histoire de décider les indécis.

  4. #6664
    J'espère qu'un jour Intel prendra des parts de marché à Nvidia. La B580 serait très compétitive par rapport à une 4060 ... si elle était sortie plus tôt.

  5. #6665
    Ok. Merci pour ta réponse. Elle m'a bien éclairé

  6. #6666
    Je vous trouve un peu dur envers NVIDIA, grace à eux on a des nouvelles technologies hypers intéressantes pour le JV, l'IA.. le DLSS, frame gen etc.... Alors ils sont un peu au dessus d'AMD en gamme tarifaire c'est sur, mais si AMD le pouvait ils se mettraient au même niveau hein.
    Jeu(x) du moment : Diablo 4; Starfield.

  7. #6667
    Citation Envoyé par Aza Voir le message
    Perso j'ai fait le choix de partir sur une 4070 Super à moins de 600e, j'en suis très content.
    T'en trouveras plus à ce prix là !

    En prix raisonnable, je ne vois que cette 4070 à 560€
    https://www.caseking.de/en/gigabyte-.../GCGB-538.html
    ou cette 4070S à 660€
    https://www.amazon.de/dp/B0CRYXR9SQ/
    Dernière modification par Stiouf ; 28/12/2024 à 18h41.

  8. #6668
    Citation Envoyé par Aza Voir le message
    Je vous trouve un peu dur envers NVIDIA, grace à eux on a des nouvelles technologies hypers intéressantes pour le JV, l'IA.. le DLSS, frame gen etc.... Alors ils sont un peu au dessus d'AMD en gamme tarifaire c'est sur, mais si AMD le pouvait ils se mettraient au même niveau hein.
    On est durs parce qu'ils font une marge monstre sur leurs cartes en vendant des GPUs sous équipés en mémoire comparés à leur prix. Ça va faire 2 générations où ils vendent des GPUs à plus de 600 balles avec seulement 12Go de VRAM, des GPUs à plus 1000 balles avec 16Go, et leur entrée de gamme à plus de 300 balles et seulement 8Go. A coté tu as intel qui trouve moyen de mettre 12Go sur leur nouveau GPU à moins de 300 balles et AMD qui équipait déjà ses cartes à 500 balles avec 16Go il y a 4 ans.
    Dernière modification par Kimuji ; 28/12/2024 à 18h52.

  9. #6669
    Citation Envoyé par Aza Voir le message
    Je vous trouve un peu dur envers NVIDIA, grace à eux on a des nouvelles technologies hypers intéressantes pour le JV, l'IA.. le DLSS, frame gen etc.... Alors ils sont un peu au dessus d'AMD en gamme tarifaire c'est sur, mais si AMD le pouvait ils se mettraient au même niveau hein.
    Ces technos ne sont là que parce que l'augmentation de la puissance ne suit plus malgré une conso délirante. C'est un peu de la poudre aux yeux, surtout le frame generation qui ne marche bien que si tu as déjà un framerate confortable.

    Quant aux prix, ce n'est pas Nvidia qui est un peu au-dessus, mais Nvidia qui est tranquillou à des prix abusés et AMD qui, ayant enfin réussi à avoir des CG compétitives (en raster seulement), profite pour aussi taper haut, environ au ratio perfs avec l'equivalent Nvidia (donc un poil en-dessous).

  10. #6670
    Bonsoir amis canards.

    Loin de la bataille du raytracing 4k hyper plus, j'ai besoin d'un petit conseil.

    J'ai lâché le monde du matos il y a fort longtemps et je me demandais si vous auriez une carte à me conseiller qui correspondrait aux pré requis suivants :

    Résolution de l'écran en 2560x1440
    100% bureautique
    Sortie DVI ou HDMI
    Fanless
    Budget le moins cher possible
    Jamais de jeu sur la machine ! C'est un vieux core i5 qui ne monte pas au dessus du 1080p.

    Merci !

  11. #6671
    Définition de l'écran : 2560x1440.
    Lapin compris... Tu as un écran 1440p pour un processeur qui ne montre pas au-dessus du 1080p. En fait, si tu affiches en 1440p le processeur sera moins sollicité puisque tu obtiendras moins d'images par seconde. Et ça tombe bien puisque la DÉFINITION de ton écran est en 1440p. Comment tu fais actuellement, tu affiches du 1080 en fenêtré ? J'ai bon, là ?
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

  12. #6672
    L'ancienne carte (gt980) est morte donc pour l'instant je tourne avec le chipset du cpu. Et c'est dégueulasse.

  13. #6673
    Ah oui, OK. Dans ton cas, est-ce que occase ne serait pas une bonne option ?
    Genre celle-ci : https://forum.canardpc.com/threads/1...VDS-RTX-3070Ti
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

  14. #6674
    Après en passif pas trop vieux tu as que la GT 1030, tu trouve aussi du GT710 mais je suis même pas sur que Nvidia font encore les pilotes pour ce modèle.

  15. #6675
    Si si, de l'occasion, je ne veux pas de neuf mais je suis perdu dans les multiples références.

    Et je n'ai pas envie de faire un achat foireux.

    Édit : une 3070 pour de la bureautique c'est un peu sur calibré...

  16. #6676
    Citation Envoyé par dsparks14 Voir le message
    Si si, de l'occasion, je ne veux pas de neuf mais je suis perdu dans les multiples références.

    Et je n'ai pas envie de faire un achat foireux.

    Édit : une 3070 pour de la bureautique c'est un peu sur calibré...
    Oui, un peu.
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220

  17. #6677
    Citation Envoyé par XWolverine Voir le message
    Ces technos ne sont là que parce que l'augmentation de la puissance ne suit plus malgré une conso délirante
    La conso' délirante c'est encore pire chez AMD. Et c'est très bien si les constructeurs commencent à être en difficulté pour augmenter la puissance des GPU de façon "hardware" (finesse de gravure qui arrive au max' ?), qu'ils arrivent à trouver des solutions "software", comme le DLSS. C'est un super techno' et merci Nvidia, quand on voit tourner CP2077 avec toute les dernières techno' développées chez Nvidia, le RT, le DLSS et tout, c'est juste un bijoux.

    D'ailleurs, toi qui parle d'augmentation de puissance, c'est très bien qu'ils augmentent les perf' de façon software, je me trompe peut-être mais il me semble que le DLSS ou le FG augmentent les FPS sans coût en consommation en plus, si ?

    Bref, je veux pas faire l'avocat du diable, je suis pas CM chez nvidia, je voulais juste rappeler que même s'ils sont sur un grille tarifaire surement plus haute qu'AMD, on leur doit quand même tout sur les dernières techno', et ils sortent des GPU plus qualitatifs à mon avis (meilleures performance/ conso', meilleur environnement software avec des inventions comme le DLSS, le RT, le Reflex, le FG etc...) et la R et D ça a un cout. Etant un gamer depuis 30 ans, je mémerveille des dernières capacités techniques trouvées chaque jour

    Et je ne suis pas anti-AMD, j'ai leur CPU dans toute mes machines depuis les Ryzen ^^

    Citation Envoyé par Kimuji Voir le message
    On est durs parce qu'ils font une marge monstre sur leurs cartes en vendant des GPUs sous équipés en mémoire comparés à leur prix. Ça va faire 2 générations où ils vendent des GPUs à plus de 600 balles avec seulement 12Go de VRAM, des GPUs à plus 1000 balles avec 16Go, et leur entrée de gamme à plus de 300 balles et seulement 8Go. A coté tu as intel qui trouve moyen de mettre 12Go sur leur nouveau GPU à moins de 300 balles et AMD qui équipait déjà ses cartes à 500 balles avec 16Go il y a 4 ans.
    Beh j'imagine que comme ils sont moins bons qu'nvidia à tous les niveaux, ils essaient de se rattraper en foutant mass de Vram dans leur GPU histoire d'avoir au moins un argument de vente en leur faveur. Mais bon, avait t'on vraiment besoin de 16go de vram sur un GPU y'a 4 ans ?

    Edit : j'ai maté les bench' des GPU intel dont tu parlais par curiosité, le A770 a 16 go de Vram mais 22 fps de moyennes sur Starfield en 1440P mdrr, waow, heureusement qu'il y a d'la vram :x Vraiment aucune utilité d'avoir autant sur un GPU si peu performant sérieux...

    Edit ² : ah sinon y'a la B580 aussi qui vient de sortir, 12go de Vram pour un GPU à 380e environs, pas mal, bon par contre 23 fps de moyenne sur Starfield en 1440p hein
    Dernière modification par Aza ; 28/12/2024 à 21h57.
    Jeu(x) du moment : Diablo 4; Starfield.

  18. #6678
    Alors le RT sur Cyberpunk à un énorme défaut : il ne rends que sur 200m au delà tu as plus rien donc tu perds du détail.

    Et Cyberpunk est quand même magnifique en Raster vu qu'il a été développé avant la sortie du RT et ils ont utilisé du rendu RT/PT pour l'intégrer en Raster sur Phantom Liberty.

    Et le RT sur certain jeux est une grosse arnaque, genre sur Hitman 3 où la seule difference est que tu divise les fps par 3.

    Et le DLSS a sa sortie était très mauvais, la partie pilotes est une honte qu'ils commence à peine à rattraper avec le Nvidia App.

    Par contre aucun mot sur le fait que leur fameux Framegen soit limité aux RTX 40x0 comme pas mal de leur nouveautés façon Apple Guignols de l'info style (Ceci est une révolution il faut tout racheter).

  19. #6679
    Citation Envoyé par revanwolf Voir le message
    Par contre aucun mot sur le fait que leur fameux Framegen soit limité aux RTX 40x0 comme pas mal de leur nouveautés façon Apple Guignols de l'info style (Ceci est une révolution il faut tout racheter).
    100% d'accord.

    - - - Mise à jour - - -

    Citation Envoyé par revanwolf Voir le message
    Et le DLSS a sa sortie était très mauvais,
    osef depuis la 2.0 c'est devenu indispensable.

    - - - Mise à jour - - -

    Citation Envoyé par revanwolf Voir le message
    Alors le RT sur Cyberpunk à un énorme défaut : il ne rends que sur 200m au delà tu as plus rien donc tu perds du détail.
    Ok j'avais pas fait gaffe !
    Jeu(x) du moment : Diablo 4; Starfield.

  20. #6680
    Citation Envoyé par Aza Voir le message
    osef depuis la 2.0 c'est devenu indispensable.


    Ça ne l'est que sur des jeux codés par des sagouins.

    Allez je suis un poil mauvaise langue vu que j'utilise le XESS couplé aux FSR 3.1 FG (via DLSS Enabler) avec CyberPunk mais le DLAA et son équivalent chez AMD qui sont la partie anti aliasing mais utilisé sur la résolution native est mieux que le TAA.

  21. #6681
    Citation Envoyé par garfield691 Voir le message
    Ok, donc pour toi, la série 50xx sera hors de prix et côté rapport perf/prix par rapport à une 4070 super ou à une 4070ti sera pourri.
    Donc mieux vaut partir sur une 4070 super ou sur une 4070ti?
    Attention, on n'est pas à l'abri d'une nouvelle techno proprio d'Nvidia sur les 50XX qui y sera exclusive (comme le DLSS3, le Framegen exclusif des 40XX). Donc à prix équivalent, ça pourrai être néanmoins intéressant de prendre dans la nouvelle gamme.


    Citation Envoyé par revanwolf Voir le message
    Et le RT sur certain jeux est une grosse arnaque, genre sur Hitman 3 où la seule difference est que tu divise les fps par 3.
    En effet et sur d'autres, ne pas avoir le RT donne un jeu extrêmement moche car les devs n'ont pas implémenté les anciennes technos de moins bonne qualité. Et ça c'est une tendance qui va s'amplifier qu'on s'en réjouisse ou non.

    Citation Envoyé par revanwolf Voir le message
    Et le DLSS a sa sortie était très mauvais, la partie pilotes est une honte qu'ils commence à peine à rattraper avec le Nvidia App.
    DLSS 1 était mauvais oui... et ça a duré 6 mois. Pour une nouvelle techno, ça va. On peux même considérer qu'à part les très early adopters de la nouvelle gamme, personne n'avais le matos pour le faire tourner, donc ça n'a pas vraiment posé problème dans les faits.

    Pour les drivers, je sais pas de quoi tu parles, Nvidia a toujours été égal ou supérieur à AMD sur cet aspect. L'offre logicielle d'Nvidia est même encore aujourd'hui à son avantage.


    Citation Envoyé par Kimuji Voir le message
    On est durs parce qu'ils font une marge monstre sur leurs cartes en vendant des GPUs sous équipés en mémoire comparés à leur prix. Ça va faire 2 générations où ils vendent des GPUs à plus de 600 balles avec seulement 12Go de VRAM, des GPUs à plus 1000 balles avec 16Go, et leur entrée de gamme à plus de 300 balles et seulement 8Go. A coté tu as intel qui trouve moyen de mettre 12Go sur leur nouveau GPU à moins de 300 balles et AMD qui équipait déjà ses cartes à 500 balles avec 16Go il y a 4 ans.
    Je suis le premier à gueuler contre Nvidia sur le fait qu'ils sont rats sur la VRAM, mais ils ont une raison de le faire que les autres n'ont pas : l'IA.
    Les autres GPU ne sont pas compatibles pour les entraînements IA, donc ce n'est pas comparable.

    Si demain ils collent beaucoup de VRAM à leur GPU grand public, les dev qui bossent en IA se jetterons dessus et ça provoquera le même genre de pénurie que lors de la course au minage par GPU. Et ce n'est pas théorique : au taf on en fait de l’entraînement IA, et je peux vous assurer qu'on garde un œil sur l'offre grand public et que le jour où on peux arrêter de louer des GPU en ligne pour faire l’entraînement, on sortira le porte feuille et on sera pas les seuls.

  22. #6682
    Citation Envoyé par dsparks14 Voir le message
    L'ancienne carte (gt980) est morte donc pour l'instant je tourne avec le chipset du cpu. Et c'est dégueulasse.
    Bizarre j'aurais supposé que la partie graphique du CPU serait l'idéal pour un usage bureautique. Typiquement celle que j'ai sur le laptop du taf suffit bien pour du dual screen (1080p) avec un peu de 3D légère occasionnelle.




    Pour l'IA, tu parles des RTX 5090 avec 32GB de VRAM non ? Le PB pour moi c'est plutôt les éventuelles RTX 5060 avec 8GB et les déclinaisons partant de cette base.
    J'espère que les GPUs de la gamme 250-300$ 125-175W d'AMD et Nvidia vont bien démarrer à 12GB.

  23. #6683
    De tout niveau, tu peux entraîner des modèles avec bien moins que ça aussi. Il y a des gens qui ont acheté des 3090 pour faire de l’entraînement, donc déjà ça pousse pas Nvidia à donner du 24Go en VRAM de manière très légère. Et une fois que tu cap le très haut de gamme (pour essayer de garder les pros sur les GPU pros et le top du top du grand public) quand tu fait le dégressif des gammes, tu te retrouve avec le bas de gamme qui stagne toujours à 8Go (car tu va quand même pas mettre 16Go pour le bas de gamme si les XX70-XX80 stagnent en dessous des 24Go).

    Aussi, avec l'innovation en IA, les besoins en VRAM se réduisent avec le temps, rendant les GPUs grand public encore plus intéressants, donc on peux comprendre qu'Nvidia traîne des pieds sur le sujet (même si en tant que joueur, ça me gonfle autant que vous).

  24. #6684
    Non pas 16GB, faut un juste milieu. Enfin ça a été débattu pas mal de fois ici et référencé chez tous les analystes de matos et moteurs de jeu, va falloir que la mascarade cesse à un moment. Ils peuvent garder une augmentation assez douce mais faudrait un démarrage plus sérieux. Ils profitent de l'inertie du marché matos PC, surtout ces derniers années, mais vaudra mieux pas être les derniers au moment où ça va changer.

  25. #6685
    Bah ça laisse pas beaucoup de marge quand même.

    Tu place les XX80 à 16-18Go car tu veux pas donner 20+ pour l’entraînement IA (qui est effectivement un threshold pour ce genre d'usage).
    Tu donne donc 12-14Go aux XX70 histoire de séparer les gammes.
    Et t'a plus beaucoup de choix ensuite pour le bas de gamme, 8-10Go en gros.

    C'est la raison pour laquelle je suis pas du tout étonné de la déclinaison des 50XX en fait.

  26. #6686
    Par exemple 60 : 12GB, 70: 16GB, 80: 20GB, 90: 24GB (au moins)
    Surtout si la gamme 80 est a 1500$.
    Mais il paraît qu'ils ne partent pas la dessus, va falloir attendre les refreshs. Ça va décaler de 6 mois - 1 an (plutôt) et c'est tout. On part dans la rumeur et spéculation là, c'est juste pour dire qu'il faudra faire gaffe. Et que les analystes vont probablement lever direct le drapeau rouge dans 10j si ça se confirme.

  27. #6687
    Wai mais là t'a deux segments de GPU grand public compatibles entraînement IA. Ce qui est très exactement ce qu'ils essayent d'éviter (ça se vois : la 5090 est assez idéale pour ce genre d'usage et a le double de la 5080, ce n'est pas un hasard).

    D'ailleurs perso, les juteux 32Go de la 5090 pourraient être un argument d'achat pour moi (et uniquement pour l'IA, pour le jeu c'est absolument inutile), là où clairement les 16Go de la 5080 la disqualifie immédiatement.
    Tu me donne un GPU à 20Go+ moins cher que la 5090, je prends sans réfléchir.

  28. #6688
    Citation Envoyé par dsparks14 Voir le message
    Si si, de l'occasion, je ne veux pas de neuf mais je suis perdu dans les multiples références.

    Et je n'ai pas envie de faire un achat foireux.

    Édit : une 3070 pour de la bureautique c'est un peu sur calibré...
    D'où les propositions précédentes de partir sur un GPU d'entrée de gamme, qui ne devrait avoir aucun problème pour tourner sur du WQHD en bureautique. A titre d'exemple, je bosse sur un portable Lenovo pro, avec un GPU intégré (bien pourri), branché à un écran WQHD.

    Donc j'imagine qu'une Nvidia GT 1030, comme proposé plus haut, ou une RX 6400 pourrait faire le taf. C'est quoi ton budget ?
    Le travail c'est la santé, ne rien faire, c'est la conserver
    https://www.flickr.com/photos/mikeul / https://www.500px.com/mikeul

  29. #6689
    Citation Envoyé par Dross Voir le message
    Wai mais là t'a deux segments de GPU grand public compatibles entraînement IA. Ce qui est très exactement ce qu'ils essayent d'éviter (ça se vois : la 5090 est assez idéale pour ce genre d'usage et a le double de la 5080, ce n'est pas un hasard).

    D'ailleurs perso, les juteux 32Go de la 5090 pourraient être un argument d'achat pour moi (et uniquement pour l'IA, pour le jeu c'est absolument inutile), là où clairement les 16Go de la 5080 la disqualifie immédiatement.
    Tu me donne un GPU à 20Go+ moins cher que la 5090, je prends sans réfléchir.
    Bah ils peuvent adoucir la courbe et plafonner à 16GB si c'est vraiment ça le problème et que beaucoup de monde a un seuil à 20GB. Ceux que je connais dans le secteur prennent des GPU à 80GB mais vous devez pas faire la même chose.
    Au pire dans un an t'en auras.

  30. #6690
    Le plafond à 16Go est très exactement ma démonstration précédente qui amène le bas de gamme à 8Go.

    Nous aussi on loue des GPU à 80GB... mais seulement une fraction de ce GPU (les offres clouds sont souvent des formules à 1/4, 1/3, 1/2 de VRAM d'A100 80Go, donc on n'est pas les seuls à utiliser moins que 80Go).

Page 223 sur 236 PremièrePremière ... 123173213215216217218219220221222223224225226227228229230231233 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •