Question existentielle : Ne pensez vous pas que la série des RTX 3000 soit une génération de transition qui fera place beaucoup plus rapidement que prévu à une autre, moins gourmande en énergie et assez industrialisée pour faire face à la demande ?
Question existentielle : Ne pensez vous pas que la série des RTX 3000 soit une génération de transition qui fera place beaucoup plus rapidement que prévu à une autre, moins gourmande en énergie et assez industrialisée pour faire face à la demande ?
Quand Apple aura lâché de la capacité en 5nm chez TSMC peut-être... mais pas sûr que ce soit si rapide que ça. Mais clairement entre une 3070 8GB très puissante mais limitée par sa VRAM, une 3080 10GB beaucoup trop énergivore pour une série x80 (avant avec 350W tu alimentais un PC entier de gamer haut-de-gamme, pas juste une carte graphique), et une 3090 qui est une TITAN qui n'en dit pas le nom et semble plutôt pas vraiment taillée pour les gamers (les 24GB de VRAM semblent la destiner plutôt à la création, pour les joueurs ça n'a aucun sens), j'ai du mal avec la gamme RTX 3000 telle qu'elle est. La 3060Ti m'a partiellement réconcilié avec même si je trouve qu'elle devrait consommer 20-30W de moins pour être vraiment parfaite (elle est très proche de la 3070 en conso). Tout le monde s'est émerveillé des perfs à la sortie mais y'a aucune carte (à part éventuellement la 3060Ti) qui n'ait pas un gros compromis.
Pour l'industrialisation ne rêve pas, tant qu'on sera pas sorti de la pandémie actuelle, je doute fort qu'on voit à nouveau une disponibilité massive et compétitive des GPUs. Entre les vrais soucis industriels et les spéculations sur les cryptomonnaires qui semblent taxer une part importante des GPUs, c'est pas une belle période et le bout du tunnel a pas l'air si proche qu'on nous l'a promis.
Mais bon tout va bien, la RX 6800 est enfin dispo sur Amazon. Pour 1100€.
Ah, je croyais justement qu'ils avaient amélioré l'efficacité énergétique notamment grace au passage à une gravure plus fine.
Ils ont aussi revu l'alimentation et dissipation thermique pour faire des cartes plus puissantes "de base", mais si on veut garder la même échelle (genre une carte à 150W) suffit de prendre le modèle du dessous. Normalement ça sera moins cher (hors rupture de stock) et plus performant que la 150W de la génération précédente.
On aura potentiellement des version améliorées "super" et trucs du genre pour 1-2 ans, puis une nouvelle génération réelle.
Je me plante peut-être, mais c'est ce que j'avais compris des divers benchmarks et reviews.
A ce rythme des tarifs débiles, plus personne n'aura les moyens d'avoir un pc gamer dans les années à venir, on va tous finir au cloud (avec jeu de mot) ou retourner sur Amiga.
Le gain est pas fou en efficacité énergétique en fait. Si tu compares RTX 3070 et RTX2080Ti, dont les perfs sont globalement identiques mais avec le handicap de plus de VRAM à alimenter pour la seconde, c'est (266-208) = 22% d'amélioration de l'efficacité énergétique (source Guru3D). Disons 20% en gros puisque la 3070 a moins de VRAM (Techspot eux parlent plutôt de 14%). Pour un saut de gravure + architecture, je trouve pas ça impressionnant. Le plus inquiétant c'est qu'avec un haut de gamme déjà à 350W tu n'as déjà plus de marge sur ce process pour faire une demi génération (comme les SUPER de Turing), les cartes consomment déjà trop en fait.
Je me demande si c'est pas AMD qui aurait plus de marge en face avec Big navi ; la bande passante mémoire semble être un souci en 4K (où les RX6800XT décrochent un peu face aux RTX3080 par exemple), une solution serait une version avec GDDR6X peut-être, en utilisant un peu de marge énergétique qu'elles ont aussi face aux RTX3080 et 3090 pour augmenter les fréquences. Mais bon côté AMD on parle de théorique, on se demande s'ils savent que l'Europe existe vu les quantités qui arrivent sur notre continent.
AMD Smart Access Memory Tested Benchmarked
C'est l'histoire de la resizable bar (terme que j'ai vu débarqué sur HFR il y a quelques semaines).
Du pour et du contre suivant les jeux.For those of you not yet up to speed, SAM or resizable BAR defines how much of your graphics cards VRAM is to be mapped for access by the CPU. Typically the CPU can access up to 256 MB of mapped VRAM, but with the resizable BAR it can have full access to the graphics cards' VRAM buffer.
Ca semble même super bénéfique dans certains cas, mais le souci est de pouvoir l'activer - faut passer par l'UEFI, on est pas sur quelque chose qu'on active au cas-par-cas. Il me semble que ça fait longtemps que c'est dans la norme PCI-E depuis un moment... AMD a dû sortir ça des cartons pour faire un peu parler d'eux, comme nVidia le fait avec le RT et le DLSS.
Je suis en plein doute, j'ai une bonne ossature hardware : 2600x, 16gb ram, ssd. Je joue sur mon téléviseur 4k, en 1440p les performances sont correctes et j'hésite vraiment à changer de carte graphique : une 1060 6gb.
Je n'ai pas le besoin de mettre les réglages en ultra et mes jeux varient de stardew valley à Cyberpunk. En parcourant les cartes graphiques de la série 3000 je me tâte entre la 3060 ti et la 3070, je souhaiterais joué en 4k élevé ou 2k ultra. Cependant les prix sont exorbitant et je me refuse de mettre plus de 600€ dans une cg. Même 500€ me parait excessif au vue de mes besoins.
Pourquoi pas une 2070 alors ? Sachant qu'une cg me dure environs 3 ans et qu'un proc 5.
Ah et j'ai un oculus rift s et c'est sur ce point que ma 1060 me frustre, enfin bon sa fait 6 mois que le casque est rangée..
Ouaip, je dirais aussi 3060 Ti, de préférence une FE si tu arrives à en chopper une (bon courage...)
Personnellement, je n'avais pas de contrainte particulière concernant le coût si ce n'est celui de payer le prix conseillé +/- 5%.
Du coup j'ai chopé la première carte disponible entre les deux modèles qui me semblaient pertinents : la 3060Ti (changement après 2 ou 3 ans) et la 3080 (changement après 4 ou 5 ans).
La 3070 aurait eu plus d'intérêt si Nvidia avait sorti une 3060 non-Ti au lieu de la Ti.
Ma 5700XT Red Devil est morte hier soir après (juste) 6 mois de service. Amazon me propose un remboursement intégral, sans doute du au fait que toutes les cartes sont en rupture.
Je pense repasser sur du Nvidia; je sais que c'est sans doute la faute à pas de bol, mais je suis juste dégouté. J'ai aussi trouvé les drivers plus instable que sur mes précédentes cartes Nvidia: peut être une RTX3070 pour être futur proof, enfin si j'en trouve une...
Que AMD c'est pas très durable ?
La 3070 c'est l'anti-thèse du future-proof, trop limité en VRAM. Le GPU est puissant mais sera rapidement limité à cause de la mémoire (il l'est déjà dans Cyberpunk). Et vu les tarifs abusés en ce moment il est crucial, encore plus qu'avant, de prendre la carte qu'on va vraiment exploiter plutôt que de payer encore plus cher une carte qui va se tourner les pouces.
Pas de bol sur ta carte, et au mauvais moment, c'est moche.
Vous auriez à part partalert des astuces pour pouvoir s'acheter une 3060ti sans actualisé Amazon 4x par jour avant 2022 ?
Sur ce topic plusieurs ont partagé des liens Discord vers des serveurs automatisés qui t'envoient une alerte lorsque tombe un stock de CPUs/GPUs chez un marchand, tu paramètres ce qui t'intéresse et t'attends.
Bientôt va falloir que quelqu'un ouvre un topic et tienne une liste à jour...
C'est là qu'est le problème justement, la 3070 n'est un entre-deux qu'en terme de tarif selon moi.
Pas que la carte soit mauvaise mais, dans les faits, elle est certes un peu plus performante que la 3060Ti mais embarque aussi "peu" de VRAM (8Go), ce qui va constituer une contrainte déjà présente ou presque en 4k, et probablement pas si lointaine en 1440p.
À ce compte-là, il est donc préférable de partir sur une 3060Ti, taillé pour le 1440p et au prix plus réduit, et d'en changer lorsque la quantité de VRAM deviendra trop limitante. Soit probablement pas loin du moment où sa puissance de calcul ne sera plus suffisante pour du 1080p/Ultra.
De l'autre côté du spectre, on a la 3080 et ses 10 Go de VRAM.
Ils peuvent sembler justes mais, grosso modo, seul le jeu en 4K nécessite 8Go de VRAM ou plus actuellement. Et, si d'ici X années, la demande en VRAM augmente de 2Go, je suppose que jouer en 4k/Ultra ne sera plus possible avec cette carte. On passera ainsi de facto en 1440p, ce qui fera retomber la VRAM nécessaire à un total gérable par le GPU.
J'extrapole beaucoup mais je pars du principe que l'augmentation des besoins en VRAM ira de pair avec une augmentation des besoins en puissance de calcul, d'où le passage en 1800p (resp. 1440p) à court (resp. moyen) terme avec la 3080, ce qui conduira à une quasi-stagnation de la demande en VRAM.
Malgré tout, un total de 11 ou 12Go de VRAM aurait constitué une petite assurance supplémentaire à laquelle je n'aurais pas dit non.
En conclusion, je trouve que la 3060Ti et la 3080 sont plutôt équilibrées, plus que la 3070.
Dernière modification par nAKAZZ ; 11/01/2021 à 12h27.
Je suis globalement bien d'accord Nakazz, à un point près: pour moi la saturation de VRAM n'impose pas tant de baisser la définition que de réduire les effets graphiques et les textures. Autrement dit, tu as un beau GPU puissant qui cracherait encore 70 ou 80fps en Ultra, mais comme sa VRAM sature tu es obligé de baisser plusieurs effets en moyen ou élevé.
Dans l'absolu en plus c'est dommage, la RTX3070 a une conso raisonnable pour ses perfs. En 10 ou 12GB je la prenais sans hésiter (la RTX 3080 est disqualifiée pour moi, hors de question d'avoir une carte qui consomme plus de 280W, alors 350 c'est une vaste blague). Si nVidia sort réellement une RTX 3060 12GB comme cela a été teasé, je hurle au scandale.
Je me suis mis sur ces groupes d'alertes depuis début janvier, et autant j'ai eu une paire d'alertes pour du FE en UK, autant pour le reste de l'Europe que dalle... On peut espérer un jour en (re)voir par chez nous, ou il faut que je voie avec un pote en UK s'il peut me réexpédier du matos ?
Pour le non-FE, j'ai régulièrement des alertes (Amazon principalement), mais ça va vraiment du tout au tout au niveau tarif. Il y a parfois des trucs pas trop déconnant (genre 750-800€ pour de la 3080), mais dans l'ensemble les tarifs restent complètement pétés (la moyenne sur les 3080, notamment en France, doit tourner plutôt autour des 950€).
On est d'accord, c'est pas parce qu'il y a du stock de temps en temps que les vendeurs ont envie de nous faire des fleurs.
J'ai vomi dans ma bouche quand le monsieur plus haut a dit qu'un proc ça dure 5ans.
Mon 2500k à fait 10 et aurait pu faire 11 ou 12 sans chercher l'ultra/1080 avec un cg comme la 1060 6go.
Ouais enfin le 2500k c'était quand même un CPU particulièrement puissant au moment de sa sortie, tous les CPU n'ont pas la même pérennité. Et ça dépend aussi des jeux, AC Odyssey c'est la même charge CPU que LoL.