Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 114 sur 313 PremièrePremière ... 1464104106107108109110111112113114115116117118119120121122124164214 ... DernièreDernière
Affichage des résultats 3 391 à 3 420 sur 9367
  1. #3391


    Non parce qu'on vous voit déjà venir avec le connecteur PCI-E 12 pins et les 350W
    Même AMD a eu la décence de se limiter à 2x 8-pins

  2. #3392
    Citation Envoyé par skyblazer Voir le message
    Non parce qu'on vous voit déjà venir avec le connecteur PCI-E 12 pins et les 350W
    Même AMD a eu la décence de se limiter à 2x 8-pins
    Le nouveau connecteurs 12 broches est un 300W comme les 2 connecteurs 8 broches mais en plus fin.

    Les 350W c'est en incluant les 75W via le port PCIE.

  3. #3393
    J'espère que la 3070 ne dépassera pas les 700€ mais j'y crois moyennement...

    Mes prédictions : 3070 à 800€, 3080 à 1200€ et 3090 à 1600€

  4. #3394
    Encore un peu et il suffira de prendre le nom du GPU nVidia comme prix de base d'une config' avec...

  5. #3395
    350W annoncés, ça donnera combien ça en vrai ?

  6. #3396
    Citation Envoyé par TTSev Voir le message
    350W annoncés, ça donnera combien ça en vrai ?
    375W vu que c'est le maximum possible par la connectique.

  7. #3397
    Citation Envoyé par revanwolf Voir le message
    375W vu que c'est le maximum possible par la connectique.
    Naïf, maximum possible de manière sûre par la connectique.
    Et encore c'est limite, la spécification PCI-Express n'autorise que 300W en max (en incluant les alimentations externes). Donc on dépasse déjà les valeurs en théorie sûres.

  8. #3398
    Citation Envoyé par exPomme Voir le message
    Encore un peu et il suffira de prendre le nom du GPU nVidia comme prix de base d'une config' avec...
    Justement, j'étais en train de regarder le coût de mes composants et autant les CPU, je les ai toujours eu dans la même gamme de prix (du Pentium 4 de 2003 au i7 2600K de 2016, de 230 à 280€), autant les CG, la tendance est au grimpage en flèche :

    Et j'ai sauté la génération 20x0 à plus de 500€.
    Je veux bien que les gains en perfs soient plus importants que pour les CPU, mais mon i7 2600K à 275€ de 2016 mettait quand même une bonne branlée à mon Q9550 à 280€ de 2008

  9. #3399
    Ouais, mais ton ATI 8500, elle vaut bien ta dernière GTX à euro constant.

  10. #3400
    +33% en 14 ans, oui, c'est plausible.
    Reste qu'on peut rester pendant 15ans à 300€ pour un CPU mais passer de 300 à 600 pour un GPU de même gamme.

  11. #3401
    Citation Envoyé par XWolverine Voir le message
    +33% en 14 ans, oui, c'est plausible.
    Reste qu'on peut rester pendant 15ans à 300€ pour un CPU mais passer de 300 à 600 pour un GPU de même gamme.
    Nan mais clairement, depuis qu'il y a eu l'histoire du minage, les AMD n'étant plus accessibles à l'époque (prix exorbitant), Nividia en a profité pour monter tranquillement les prix. Derrière AMD n'a pas trop suivi niveau perfs (VEGA bidule...). Du coup, Nividia pouvait laisser les prix haut. Ensuite AMD est revenu avec des cartes franchement pas mal (RX 5700 XT...), mais Nivdia a introduit de nouvelles fonctionnalités "ray bidule et autres" et puis bon, ils ont vu que les gens étaient enclin à mettre du fric pour des cartes graphiques, ils ont continué...

    Coté processeur c'est vrai que les prix n'ont pas forcément énormément augmentés. Par contre, quand on y repense, avant Ryzen, l'évolution n'était pas non plus énorme. D'ailleurs me semble qu'un canard hardware a fait le comparatif des l'évolution des perfs CPU et GPU et clairement, les CPU stagnaient méchamment.

    Je ne suis pas entrain de trouver des excuses à Nivdia hein, mais les perfs ont clairement évoluées côté GPU. Maintenant, irais-je mettre 1500 euros dans une carte graphique ? J'ai déjà eu du mal a lâcher 400 euros pour une GTX 1070 Ti (époque minage) quand je la comparais a mon ancienne 7870 XT à 200 euros et 3 jeux avec

    Bref...les GPU ont certes évolués énormément, mais ils se font battre par l'évolution des prix . Et puis l'inflation depuis 2010 et pas énorme, hein...

  12. #3402
    Le truc, c'est que évolution ou pas, inflation ou pas, non optimisation des jeux ou pas, tu peux toujours mettre 200€ dans un CPU pour jouer tranquille, 300€ pour jouer confortable + softs de calcul tranquille (et au-dessus seulement pour du lourd en calcul), mais en GPU, c'est mort, les prix vont avoir doublé en quelques années pour jouer au mêmes types de jeux.

  13. #3403
    Ben ça dépend si ta définition d'écran change ou non. Si tu as toujours ton écran 720p d'il y a 15 ans, aucun souci pour jouer en ultra avec 200€.

  14. #3404
    Il y a 15 ans, on était en 4/3, le 720 vertical, c'est du 1280×720 en 16/9, c'était même plus coûteux a l'époque parce que la dimension de référence est la largeur, donc on était en 1280×1024.
    Mais bon, on peut jouer avec une carte à 200€ (pour l'instant), mais pas en ultra, non, ni en high, et ce n'est pas à cause du trop grand nombre de pixels.

  15. #3405
    Citation Envoyé par revanwolf Voir le message
    375W vu que c'est le maximum possible par la connectique.
    Source ?

  16. #3406
    Citation Envoyé par Miuw Voir le message
    Source ?
    Simple calcul: le port PCIE supporte 75W et le nouveaux connecteurs 12 broches utilisent 2 prises PCIE 8 broches qui chacun supporte 150W chacun donc au final ça donne

    75W + 150W + 150W = 375W

  17. #3407
    Citation Envoyé par XWolverine Voir le message
    Il y a 15 ans, on était en 4/3, le 720 vertical, c'est du 1280×720 en 16/9, c'était même plus coûteux a l'époque parce que la dimension de référence est la largeur, donc on était en 1280×1024.
    Mais bon, on peut jouer avec une carte à 200€ (pour l'instant), mais pas en ultra, non, ni en high, et ce n'est pas à cause du trop grand nombre de pixels.
    4/3 si tu veux mais ça ne change rien à l'argument. Les CG augmentent entre autre parce que la puissance de calcul augmente et que ça suffit pour justifier une augmentation du cout auprès des acheteurs. Mais à définition égale tu n'as pas spécialement besoin de payer plus cher aujourd'hui qu'il y a 10 ans pour jouer dans les mêmes conditions vu qu'à gamme égale le rapport consommation/performance s'améliore. Une carte à 200€ d'aujourd'hui fera aussi bien parce que même si les jeux d'aujourd'hui ont plus de polygones, les CG d'aujourd'hui ont une meilleure architecture.

  18. #3408
    Citation Envoyé par revanwolf Voir le message
    Simple calcul: le port PCIE supporte 75W et le nouveaux connecteurs 12 broches utilisent 2 prises PCIE 8 broches qui chacun supporte 150W chacun donc au final ça donne

    75W + 150W + 150W = 375W
    Le connecteur 12 broches (quelle merde ce connecteur, ces connards de NVIDIA n'ont qu'un fournisseur pour l'avoir), c'est jusqu'à 600W en fait (oui ça promet..). Donc tu peux monter plus haut. Pour le moment, la 3090 est annoncée à 350W de TDP (donc surement plus dans les faits) et tu vois déjà qu'ils jouent avec le feu chez NVIDIA. Ca s'annonce intéressant.

  19. #3409
    Citation Envoyé par TTSev Voir le message
    Une carte à 200€ d'aujourd'hui fera aussi bien parce que même si les jeux d'aujourd'hui ont plus de polygones, les CG d'aujourd'hui ont une meilleure architecture.
    Ce n'est pas mon impression.
    Côté CPU, à prix constant, je fais plus de choses, pourtant les softs ont aussi évolué. Le montage vidéo se fait en 4K avec des effets complexes, du tracking temps réel, un rendu temps réel également. Le développement photo, pareil.
    A l'inverse, côté jeux vidéo, les gammes restent à peu près similaires (chez Nvidia, le x50 en minimum syndical, x60 moyen gamme-, x70 moyen gamme+, x80 haut de gamme) mais les prix y progressent plus vite que l'inflation et il y a une tendance au glissement vers le haut (besoin de la gamme au dessus plus souvent). Je veux bien qu'il y ait plus de R&D côté GPU, que les éditeurs de JV se fassent plaisir côté effets inutiles et négligent l'optimisation, mais le résultat est que de plus en plus, il faut raquer plus pour faire sensiblement la même chose. AMD est là pour limiter la casse, mais cela n'a pas l'air suffisant.
    On en reparle à la sortie des 30x0 ?

  20. #3410
    Personne a jamais prétendu qu'un marché à 2 acteurs était concurrentiel. Ce que tu décris là, XWolverine, ce sont juste les effets d'un marché quasi-monopolistique avec un acteur (nVidia) qui domine à 80% le marché et dicte les prix. Après comme tu le dis, les gammes se sont développées par le haut (les haut-de-gamme coûtent le double d'il y a quelques années) et les JV en profitent pour ajouter pleins de trucs pour lesquels on avait pas la puissance avant, que ce soit des effets visuels, des définitions élevées... Mais si on est raisonnable sur les détails une x50 ça tourne bien en 1080p. Là où côté CPU le JV est souvent limité par le plus petit dénominateur commun et il est difficile, je suppose, de faire un jeu qui tourne à la fois bien sur un quadcore à 3,5GHz et profite en même temps complètement des avantages d'un octocore à 5GHz (parce qu'en pratique peu d'options dans les jeux influent sur la charge CPU).

    Et côté CPU paradoxalement tu as une certaine concurrence qui vient par le bas avec ARM. Si les fabricants d'x86 font les cons et montent trop haut côté prix, cela ouvrira un boulevard en dessous pour du ARM aux performances "suffisantes pour Mr. Tout-le-monde" et potentiellement moins cher. Donc ils continuent à s'efforcer d'avoir quelque chose de compétitif à tous les étages.

    Finalement, on peut aussi citer un revirement d'AMD côté GPU. Par le passé ils introduisaient leurs cartes avec un tarif souvent bien plus agressif qu'nVidia, forçant un réajustement vers le bas. Désormais tu les vois arriver au même tarif qu'nVidia à perfs équivalentes, et ils sont limite obligés eux-mêmes par le caméléon à réajuster vers le bas.

  21. #3411
    Il en résulte bien que quelles qu'en soient les raisons, les CPU de même gamme restent dans la même fourchette de prix, alors que les GPU s'envolent.

  22. #3412
    Y a d'autres différences entre le marché GPU grand-public et le marché CPU :
    • le marché CPU c'est particuliers + entreprises et les entreprises continuent à soutenir le marché avec beaucoup de PC de bureau malgré le grignotage progressif du marché des particuliers ;
    • le marché GPU grand-public c'est essentiellement les particuliers (je ne parle pas des modèles pro) parce que le marché des cartes pour PC de bureau s'est écroulé avec les APU ; or côté particuliers, le marché se réduit à cause à la fois des APU, des consoles et des jeux vidéo sur téléphone, bref ça se résume aujourd'hui quasiment aux seuls gamers PC.

    Bref le marché des GPU PC grand-public est en contraction et nVidia essaie de s'en sortir avec une fuite vers le haut et l'augmentation corollaire des prix, stratégie classique (voir par exemple les appareils photos où la même chose se produit).

    Comme le dit Qiou87, AMD a fait un revirement : avec la conquête du marché des consoles, ils ne sont pas autant exposés que nVidia à la contraction du marché du GPU grand public donc pas besoin de fuite vers le haut ; ils se contentent de rester à peu près compétitif sur les PC mais pas besoin d'être premier et pour les prix l'alignement suffit.

    D'ailleurs pour moi les annonces récentes confirment cette interprétation : nVidia essaie de racheter ARM (qui lui a mangé une partie de ses clients) pour se diversifier (y a des limites au marché de niche qu'est en train de devenir la carte graphique grand public dédiée) tandis que AMD développe le graphisme sur téléphone (partenariat avec Samsung) pour tenter d'avoir à terme sur mobile la place qu'il a aujourd'hui sur consoles (qui lui a bien réussi).
    Dernière modification par exPomme ; 31/08/2020 à 21h49.

  23. #3413
    Il est aussi possible qu'avec le vieillissement de la population des joueurs les constructeurs essayent de choper cet argent qui n'existait pas dans ces proportions il y a 20 ans.
    De plus, aujourd'hui dans les métiers qui payent super bien il y a l'informatique, et c'est quand même une population qui a tendance à jouer/vouloir de belles bécanes. Ça n'aide pas.

  24. #3414
    700$ la 3080. 500$ la 3070 en octobre.

  25. #3415
    Citation Envoyé par Miuw Voir le message
    700$ la 3080

    500$ la 3070 en octobre.
    Et surtout une 3070 qui fait mieux que 2080ti, et une 3080 2x plus rapide qu'une 2080 (daprès nVidia évidemment, on sait pas ce que ça donne en vrai). Je sais pas d'où ils ont sorti la coke mais elle est bonne chez nVidia, ça fait longtemps qu'on a pas vu un gap pareil entre deux générations et à des prix finalement acceptables. Y'a un paquet de gens qui se seront payés des 2080ti à 1500€ qui vont pleurer pour les revendre à 300€ d'un seul coup.

    EDIT: Attention quand même, c'est "starting price" et hors taxe. Un modèle custom et en euros c'est facilement +100.

  26. #3416
    C'est aussi surtout la différence de perf en ray tracing qui joue, autrement on serait jamais à x2 par rapport à la gen précédente hein.

  27. #3417
    Citation Envoyé par Qiou87 Voir le message
    Et surtout une 3070 qui fait mieux que 2080ti, et une 3080 2x plus rapide qu'une 2080 (daprès nVidia évidemment, on sait pas ce que ça donne en vrai). Je sais pas d'où ils ont sorti la coke mais elle est bonne chez nVidia, ça fait longtemps qu'on a pas vu un gap pareil entre deux générations et à des prix finalement acceptables. Y'a un paquet de gens qui se seront payés des 2080ti à 1500€ qui vont pleurer pour les revendre à 300€ d'un seul coup.

    EDIT: Attention quand même, c'est "starting price" et hors taxe. Un modèle custom et en euros c'est facilement +100.
    A voir avec des benchs officiels mais en tout cas c'est un gap je pense presque jamais vu, en tout cas récemment. La 3070 = 2080 ti à 500$, ça fait grave envie (même si 500$ feront sans doute 600€ et c'est largement au-dessus de mon budget...). Moi j'aimerais bien maintenant une 3060 à 400€, avec les perfs d'une 2070 Ti, mais ça n'a pas l'air prévu. AMD va avoir mal là quand même...

  28. #3418
    Ben 3080 pour 700$
    3070 pour 500$

    Jensen dit que la 3070 est plus rapide que la 2080TI.


    Et la 3090 starting at 1500$

    A voir.

  29. #3419
    Attendons sagement les premier benchmark, parce que tirer des conclusions sur le bullshit marketing de la boite qui vend ses cartes, bon, il y a mieux à faire je pense.

  30. #3420
    Citation Envoyé par JulLeBarge Voir le message
    A voir avec des benchs officiels mais en tout cas c'est un gap je pense presque jamais vu, en tout cas récemment. La 3070 = 2080 ti à 500$, ça fait grave envie (même si 500$ feront sans doute 600€ et c'est largement au-dessus de mon budget...). Moi j'aimerais bien maintenant une 3060 à 400€, avec les perfs d'une 2070 Ti, mais ça n'a pas l'air prévu. AMD va avoir mal là quand même...
    Ça pourrait presque devenir viable de jouer en 4K sans compromis pour un PC à 1500€ du coup.

    @Miuw: les graphs n'indiquent pas RTX ON sur le gap "jusqu'à 2x". C'est trop tôt évidemment pour le dire, mais vu l'augmentation de conso et de CUDA cores, en plus du gain qu'ils annoncent en efficacité par watt, tu peux espérer un gain en puissance brute et pas juste en RTX ou via le DLSS. Ce qui m'intéresse personnellement en VR, où on a jamais assez de puissance graphique...

    @Stratosfear: on tire pas de conclusions, je pense. Néanmoins pour annoncer de tels écarts, ils doivent être assez sûrs d'eux.

Page 114 sur 313 PremièrePremière ... 1464104106107108109110111112113114115116117118119120121122124164214 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •