Monsieur Stiouf, c'est l'inflation, le principe de l'offre et la demande !
Voyez les prix des matières premières ! Le cas des cartes de 3D n'est qu'un élèment annonciateur de ce qui va arriver !
The End is Nigh pour le porte-feuille !
Monsieur Stiouf, c'est l'inflation, le principe de l'offre et la demande !
Voyez les prix des matières premières ! Le cas des cartes de 3D n'est qu'un élèment annonciateur de ce qui va arriver !
The End is Nigh pour le porte-feuille !
Si tu veux. Chacun est libre de faire le chevalier blanc, mais vendre 20% en dessous du prix du marché (=le prix moyen constaté du produit) ça reste un effort. Est-ce suffisant? Est-ce merveilleux? Non. En ce moment les GPUs ont une valeur supérieure en occasion par rapport au neuf, c'est un fait, ce n'est pas arnaquer quiconque que de le constater. Tout le monde a pas les poches de Bill Gates pour aller rectifier tout ce qui ne va pas dans ce monde.
Tant que ça laisse à celui qui achète un peu de marge à se faire en revendant en suivant au "vrai" prix de l'offre et de la demande sur Leboncoin, c'est correct, en effet.
J'allais te demander ce que tu lui reproches, mais en voyant ce que fourni Seasonic (https://seasonic.com/request-12pin-cable) effectivement ça a l'air plus pratique (pour le côté moche je sais pas, de toutes façons ma tour est fermée).
Bon par contre 20€... Je passe.
Oui ça permet d'avoir juste un câble plutôt qu'en brancher 2 sur l'alim et d'utiliser l'adaptateur Nvidia. M'enfin c'est juste esthétique et effectivement payer 20 balles alors qu'ils le donnaient l'année dernière c'est non.
Bonjour tout le monde, J'ai pas de question, je vais juste rajouter mon grain d'incrédulité concernant la situation actuelle. Il y a pas que les prix d'occase, mais même ceux du neuf sont complètement pété. J'avais acheté une 1660super l'année dernière, entre l'annonce et la sortie des RTX3xxx, du coup je l'avais choppé à 215€. Aujourd'hui on est à 450€ en neuf!!
Je comptais attendre le début de cette année et la stabilisation de la dispo et des prix pour m'acheter une CG moderne. J'avais suivi les news de loin, mais du coup je crois que je vais pouvoir encore attendre un an.
Quand je repense qu'il y en a qui ont revendu leur 2080Ti neuve quasi moitié prix à l'annonce des 3xxx ils doivent bien s'en mordre les doigts aujourd'hui
S'ils ont pu acheter une 3xxx au prix normal, ça ne change rien pour eux, mais s'ils ont attendu une sortie particulière quelques mois après...
Je pense que tu vas pouvoir attendre jusqu'en 2023, le temps pour le marché de se calmer.
Avec un peu de chances, il y aura une surproduction qui va amener à tirer les prix vers le bas ou alors on aura une série 4XXX qui sera un maquillage des 3XXX, avec sûrement un peu plus de VRAM et/ou un cadencement plus haut pour un prix similaire.
Voilà, c'était mon moment madame Irma.
Des perfs similaires avec un meilleur process permettraient de réduire le TDP, donc les besoins en refroidissement, et de fait le prix des cartes. Ce serait bien aussi comme génération, combiné éventuellement à une amélioration encore sur le RT pour réduire l’impact sur les perfs. Car si on est honnête ce n’est pas demain qu’une 3070 ou 3080 va être larguée, surtout que la majorité des joueurs évite la 4K qui ne représente quasiment rien selon les stats Steam.
Si je fais abstraction des prix des actuels, j'avoue que j'hésiterais à prendre des cartes qui bouffent plus de 200 Watts (surtout que je joue de moins en moins).
Là, c'est un peu particulier, j'ai une GTX 1060 Ti donnée pour 130 Watts maxi (ce qui est peu).
En règle générale je suis dans la zone 150-185W.
Franchement je sais pas ce qu'a foutu nVidia sur les RTX3080. Ils ont pris peur à cause des RX6800XT mais le TDP de 320W ne me paraît pas nécessaire en fait. Tu capes la fréquence à 1950MHz, tu abaisses le Vcore max à 0,9V, et t'as une carte qui fait 230W en pointe. Je le sais, c'est ce que j'ai fait sur la mienne (hors de question de me taper une carte qui consomme 300W+, ne serait-ce que pour l'été, et aussi pour mon alim 650W). L'écart de perfs est négligeable. J'ai l'impression qu'ils ont tiré tout ce qu'ils pouvaient du GPU, à fortiori encore plus de la RTX3090. Mais franchement ces consos délirantes sont nazes: ça oblige les gens à viser des alims de 750W, pour le SFF c'est la merde et même des boîtiers normaux doivent avoir énormément de ventilation, sans parler de l'impact environnemental... Bref j'espère que la prochaine génération nous ramènera dans les plages de conso précédentes avec un haut-de-gamme à ~250W et tout le reste en dessous.
D'ailleurs avec mon undervolt en cours d'amélioration (je descends petit à petit le voltage pour voir si ça plante, donc en gros j'améliore l'efficacité énergétique) j'ai aussi regardé mes températures: 72°C GPU et 62°C CPU sur DCS en VR (GPU à 99%, CPU à 25% de charge). Je gagne 4°C sur le CPU à cause du refroidissement traversant de la Founders mais dans l'ensemble ça reste raisonnable.
On l'obtient comment la consommation de la CG ?
Celle qui est donnée sur la fiche constructeur.
Sinon, tu peux à la louche estimer la conso (proportionnelle à la tension et à la fréquence).
Je me demande même si certains softs ne peuvent pas l'estimer (en prenant une conso de référence et les paramètres appliqués).
Faudrait peut-être vérifier avec un wattmètre si ça semble cohérent, même si c'est un truc générique qui mesure à l'arrivée de l'alim plutôt qu'entre l'alim et la carte. J'imagine qu'ils ne font pas ça au pif, mais bon…
A noter que c’est la puissance du GPU qui est remontée, la carte entière consomme plus (Vram et VRMs essentiellement). J’ai +50W en tête. Toujours est-il qu’on peut abaisser facilement de 70-80W la conso du GPU et donc de la carte via un undervolt avec un impact négligeable sur les perfs.
@Metaldestroyer: c’est justement pour ca que je teste en VR dans DCS, afficher en 2x 3200x3200 ca lui tire bien sur la tronche (j’ai vérifié qu’elle soit a 100% sans limitation CPU grâce a FPSVR). Je fais Mass Effect Legendary aussi en ce moment mais en 1440p cappé a 144fps le GPU se contente de 140-150W. Normal vu que la RTX3080 est surdimensionnée pour cette définition et que c’est un vieux moteur de jeu.
Quand on met un wattmètre a la prise, on est plutôt surpris de la conso globale, loin des max possibles de chaque composant (même avec OCCT). Si on ajoute en plus le rendement de l'alim, la config produit encore un peu moins de puissance.
Bon, je ne demande pas mieux que le faire sur un 5800X+3070, mais je ne suis pas près d'avoir ça chez moi.
Merci pour les réponses, j'en ai trouvé aussi sur HWMonitor. La 2070S (Msi Gaming X Trio) boufferait dans les 230W à fond. +50W aussi ?
la 2070S, c'est 150W max avec l'undervolt et les réglages qui vont bien.
Vieille discussion, qui date de l'époque ou Qiou disait que c'était du bullshit l'undervolt des 30xx.
Tu peux venir chez moi. Je suis sur Houilles dans le 78. 1H30 de RER depuis disney.
Sinon je viens de te faire une petite vidéo de ma 3080 Gigabyte gaming OC. Tu verras la puissance sous furmark avec un undervolt, @ stock et OC
En jeux les soft rapportent des pics de 20 ou 30 W de plus.
Bon bah voilà c'est réglé, en pleine charge la 2070S à 160W et 65°C, et le 5800X par la même occasion à 55°C (tarif 3FPS superposition bench VR tout à fond)
Je te laisse regarder les tests, mais dans ma tour j'ai pas spécialement entendu de différence avec ma 2070S Gaming X. T'as un petit souffle sourd en jeu si tu tends l'oreille, rien de plus. Les courbes de ventilation d'origine ont l'air bien calibrées et comme le GPU pompe beaucoup moins de watts que d'origine avec l'undervolt, il monte moins en température et les ventilos n'ont pas besoin d'accélérer. On verra en été.
Je précise que j'ai une tour orientée silence, avec le plafond fermé. 2x 140mm (Silent Wings 2) en entrée, 1x 120mm (SW2) en sortie, le tout en PWM - donc pas une tour de ouf orientée flux d'air genre Meshify avec 5 ventilos.