Non parce qu'on vous voit déjà venir avec le connecteur PCI-E 12 pins et les 350W
Même AMD a eu la décence de se limiter à 2x 8-pins
Non parce qu'on vous voit déjà venir avec le connecteur PCI-E 12 pins et les 350W
Même AMD a eu la décence de se limiter à 2x 8-pins
J'espère que la 3070 ne dépassera pas les 700€ mais j'y crois moyennement...
Mes prédictions : 3070 à 800€, 3080 à 1200€ et 3090 à 1600€
Encore un peu et il suffira de prendre le nom du GPU nVidia comme prix de base d'une config' avec...
350W annoncés, ça donnera combien ça en vrai ?
Justement, j'étais en train de regarder le coût de mes composants et autant les CPU, je les ai toujours eu dans la même gamme de prix (du Pentium 4 de 2003 au i7 2600K de 2016, de 230 à 280€), autant les CG, la tendance est au grimpage en flèche :
Et j'ai sauté la génération 20x0 à plus de 500€.
Je veux bien que les gains en perfs soient plus importants que pour les CPU, mais mon i7 2600K à 275€ de 2016 mettait quand même une bonne branlée à mon Q9550 à 280€ de 2008
Ouais, mais ton ATI 8500, elle vaut bien ta dernière GTX à euro constant.
Nan mais clairement, depuis qu'il y a eu l'histoire du minage, les AMD n'étant plus accessibles à l'époque (prix exorbitant), Nividia en a profité pour monter tranquillement les prix. Derrière AMD n'a pas trop suivi niveau perfs (VEGA bidule...). Du coup, Nividia pouvait laisser les prix haut. Ensuite AMD est revenu avec des cartes franchement pas mal (RX 5700 XT...), mais Nivdia a introduit de nouvelles fonctionnalités "ray bidule et autres" et puis bon, ils ont vu que les gens étaient enclin à mettre du fric pour des cartes graphiques, ils ont continué...
Coté processeur c'est vrai que les prix n'ont pas forcément énormément augmentés. Par contre, quand on y repense, avant Ryzen, l'évolution n'était pas non plus énorme. D'ailleurs me semble qu'un canard hardware a fait le comparatif des l'évolution des perfs CPU et GPU et clairement, les CPU stagnaient méchamment.
Je ne suis pas entrain de trouver des excuses à Nivdia hein, mais les perfs ont clairement évoluées côté GPU. Maintenant, irais-je mettre 1500 euros dans une carte graphique ? J'ai déjà eu du mal a lâcher 400 euros pour une GTX 1070 Ti (époque minage) quand je la comparais a mon ancienne 7870 XT à 200 euros et 3 jeux avec
Bref...les GPU ont certes évolués énormément, mais ils se font battre par l'évolution des prix . Et puis l'inflation depuis 2010 et pas énorme, hein...
Le truc, c'est que évolution ou pas, inflation ou pas, non optimisation des jeux ou pas, tu peux toujours mettre 200€ dans un CPU pour jouer tranquille, 300€ pour jouer confortable + softs de calcul tranquille (et au-dessus seulement pour du lourd en calcul), mais en GPU, c'est mort, les prix vont avoir doublé en quelques années pour jouer au mêmes types de jeux.
Ben ça dépend si ta définition d'écran change ou non. Si tu as toujours ton écran 720p d'il y a 15 ans, aucun souci pour jouer en ultra avec 200€.
Il y a 15 ans, on était en 4/3, le 720 vertical, c'est du 1280×720 en 16/9, c'était même plus coûteux a l'époque parce que la dimension de référence est la largeur, donc on était en 1280×1024.
Mais bon, on peut jouer avec une carte à 200€ (pour l'instant), mais pas en ultra, non, ni en high, et ce n'est pas à cause du trop grand nombre de pixels.
4/3 si tu veux mais ça ne change rien à l'argument. Les CG augmentent entre autre parce que la puissance de calcul augmente et que ça suffit pour justifier une augmentation du cout auprès des acheteurs. Mais à définition égale tu n'as pas spécialement besoin de payer plus cher aujourd'hui qu'il y a 10 ans pour jouer dans les mêmes conditions vu qu'à gamme égale le rapport consommation/performance s'améliore. Une carte à 200€ d'aujourd'hui fera aussi bien parce que même si les jeux d'aujourd'hui ont plus de polygones, les CG d'aujourd'hui ont une meilleure architecture.
Le connecteur 12 broches (quelle merde ce connecteur, ces connards de NVIDIA n'ont qu'un fournisseur pour l'avoir), c'est jusqu'à 600W en fait (oui ça promet..). Donc tu peux monter plus haut. Pour le moment, la 3090 est annoncée à 350W de TDP (donc surement plus dans les faits) et tu vois déjà qu'ils jouent avec le feu chez NVIDIA. Ca s'annonce intéressant.
Ce n'est pas mon impression.
Côté CPU, à prix constant, je fais plus de choses, pourtant les softs ont aussi évolué. Le montage vidéo se fait en 4K avec des effets complexes, du tracking temps réel, un rendu temps réel également. Le développement photo, pareil.
A l'inverse, côté jeux vidéo, les gammes restent à peu près similaires (chez Nvidia, le x50 en minimum syndical, x60 moyen gamme-, x70 moyen gamme+, x80 haut de gamme) mais les prix y progressent plus vite que l'inflation et il y a une tendance au glissement vers le haut (besoin de la gamme au dessus plus souvent). Je veux bien qu'il y ait plus de R&D côté GPU, que les éditeurs de JV se fassent plaisir côté effets inutiles et négligent l'optimisation, mais le résultat est que de plus en plus, il faut raquer plus pour faire sensiblement la même chose. AMD est là pour limiter la casse, mais cela n'a pas l'air suffisant.
On en reparle à la sortie des 30x0 ?
Personne a jamais prétendu qu'un marché à 2 acteurs était concurrentiel. Ce que tu décris là, XWolverine, ce sont juste les effets d'un marché quasi-monopolistique avec un acteur (nVidia) qui domine à 80% le marché et dicte les prix. Après comme tu le dis, les gammes se sont développées par le haut (les haut-de-gamme coûtent le double d'il y a quelques années) et les JV en profitent pour ajouter pleins de trucs pour lesquels on avait pas la puissance avant, que ce soit des effets visuels, des définitions élevées... Mais si on est raisonnable sur les détails une x50 ça tourne bien en 1080p. Là où côté CPU le JV est souvent limité par le plus petit dénominateur commun et il est difficile, je suppose, de faire un jeu qui tourne à la fois bien sur un quadcore à 3,5GHz et profite en même temps complètement des avantages d'un octocore à 5GHz (parce qu'en pratique peu d'options dans les jeux influent sur la charge CPU).
Et côté CPU paradoxalement tu as une certaine concurrence qui vient par le bas avec ARM. Si les fabricants d'x86 font les cons et montent trop haut côté prix, cela ouvrira un boulevard en dessous pour du ARM aux performances "suffisantes pour Mr. Tout-le-monde" et potentiellement moins cher. Donc ils continuent à s'efforcer d'avoir quelque chose de compétitif à tous les étages.
Finalement, on peut aussi citer un revirement d'AMD côté GPU. Par le passé ils introduisaient leurs cartes avec un tarif souvent bien plus agressif qu'nVidia, forçant un réajustement vers le bas. Désormais tu les vois arriver au même tarif qu'nVidia à perfs équivalentes, et ils sont limite obligés eux-mêmes par le caméléon à réajuster vers le bas.
Y a d'autres différences entre le marché GPU grand-public et le marché CPU :
- le marché CPU c'est particuliers + entreprises et les entreprises continuent à soutenir le marché avec beaucoup de PC de bureau malgré le grignotage progressif du marché des particuliers ;
- le marché GPU grand-public c'est essentiellement les particuliers (je ne parle pas des modèles pro) parce que le marché des cartes pour PC de bureau s'est écroulé avec les APU ; or côté particuliers, le marché se réduit à cause à la fois des APU, des consoles et des jeux vidéo sur téléphone, bref ça se résume aujourd'hui quasiment aux seuls gamers PC.
Bref le marché des GPU PC grand-public est en contraction et nVidia essaie de s'en sortir avec une fuite vers le haut et l'augmentation corollaire des prix, stratégie classique (voir par exemple les appareils photos où la même chose se produit).
Comme le dit Qiou87, AMD a fait un revirement : avec la conquête du marché des consoles, ils ne sont pas autant exposés que nVidia à la contraction du marché du GPU grand public donc pas besoin de fuite vers le haut ; ils se contentent de rester à peu près compétitif sur les PC mais pas besoin d'être premier et pour les prix l'alignement suffit.
D'ailleurs pour moi les annonces récentes confirment cette interprétation : nVidia essaie de racheter ARM (qui lui a mangé une partie de ses clients) pour se diversifier (y a des limites au marché de niche qu'est en train de devenir la carte graphique grand public dédiée) tandis que AMD développe le graphisme sur téléphone (partenariat avec Samsung) pour tenter d'avoir à terme sur mobile la place qu'il a aujourd'hui sur consoles (qui lui a bien réussi).
Dernière modification par exPomme ; 31/08/2020 à 21h49.
Il est aussi possible qu'avec le vieillissement de la population des joueurs les constructeurs essayent de choper cet argent qui n'existait pas dans ces proportions il y a 20 ans.
De plus, aujourd'hui dans les métiers qui payent super bien il y a l'informatique, et c'est quand même une population qui a tendance à jouer/vouloir de belles bécanes. Ça n'aide pas.
Et surtout une 3070 qui fait mieux que 2080ti, et une 3080 2x plus rapide qu'une 2080 (daprès nVidia évidemment, on sait pas ce que ça donne en vrai). Je sais pas d'où ils ont sorti la coke mais elle est bonne chez nVidia, ça fait longtemps qu'on a pas vu un gap pareil entre deux générations et à des prix finalement acceptables. Y'a un paquet de gens qui se seront payés des 2080ti à 1500€ qui vont pleurer pour les revendre à 300€ d'un seul coup.
EDIT: Attention quand même, c'est "starting price" et hors taxe. Un modèle custom et en euros c'est facilement +100.
C'est aussi surtout la différence de perf en ray tracing qui joue, autrement on serait jamais à x2 par rapport à la gen précédente hein.
A voir avec des benchs officiels mais en tout cas c'est un gap je pense presque jamais vu, en tout cas récemment. La 3070 = 2080 ti à 500$, ça fait grave envie (même si 500$ feront sans doute 600€ et c'est largement au-dessus de mon budget...). Moi j'aimerais bien maintenant une 3060 à 400€, avec les perfs d'une 2070 Ti, mais ça n'a pas l'air prévu. AMD va avoir mal là quand même...
Attendons sagement les premier benchmark, parce que tirer des conclusions sur le bullshit marketing de la boite qui vend ses cartes, bon, il y a mieux à faire je pense.
Ça pourrait presque devenir viable de jouer en 4K sans compromis pour un PC à 1500€ du coup.
@Miuw: les graphs n'indiquent pas RTX ON sur le gap "jusqu'à 2x". C'est trop tôt évidemment pour le dire, mais vu l'augmentation de conso et de CUDA cores, en plus du gain qu'ils annoncent en efficacité par watt, tu peux espérer un gain en puissance brute et pas juste en RTX ou via le DLSS. Ce qui m'intéresse personnellement en VR, où on a jamais assez de puissance graphique...
@Stratosfear: on tire pas de conclusions, je pense. Néanmoins pour annoncer de tels écarts, ils doivent être assez sûrs d'eux.