Je la débranche et la range dans sa boîte après chaque utilisation !
Moi ce que je suis curieux de savoir, c'est quel CPU mettre en face de ces fameuses cartes RTX series 40xx sans être bottlenech, parceque là je ne vois pas
Ca dépend de ce que tu appelles un bottleneck. Il y a toujours un composant qui sera plus rapide que l'autre, et en plus ça sera pas forcément le même selon les jeux. Si ton CPU te "limite" à 150fps alors que ton GPU ne tourne qu'à 70% tu peux t'en foutre royalement, oui tu pourrais potentiellement avoir 30% de perf en plus avec un CPU plus rapide mais est-ce que ça changerait quelque chose en pratique? Et inversement des fois ton CPU pourrait pousser 120 fps mais ton GPU est à 100% et tu tournes à 60. En règle générale, si tu joues en très haute def ce sera quasi tout le temps ton GPU qui va limiter. Oui un CPU récent peut limiter le framerate dans certains cas, mais jamais en dessous du seuil de confort. Aucun jeu actuel ne met à genoux un intel 12xxx ou un AMD 5xxx.
Ah ok merci, je ne savais pas tout ça et ne l'envisageais pas comme ça.
Je restais borné avec l'idée qu'un bottleneck de 5% c'était pas bien ...
Du coup, je vais peut-être me faire plaisir sur cette génération (avec une 4080, j'ai un écran G-Sync donc sauf à changer d'écran, j'suis marié à Nvidia pour le moment) et refiler ma bécane à mon filston.
T'est forcément bottleneck par un truc sinon t'a des perfs infinies.
Le vrai problème du bottleneck c'est par exemple changer de CG pour l'exploiter à 30% car le CPU ne suis pas. T'essaye au maximum d'avoir une configuration homogène, mais c'est pas une règle absolue non plus : par exemple je change CPU et GPU en alternance, souvent c'est le composant le plus ancien qui bottleneck, et quand je le change l'autre se retrouve avec un petit boost de perf. Mais je le fais en connaissance de cause.
ps: ne pas oublier que dans ces histoire de bottleneck, la définition d'écran joue énormément : un vieux i5 avec une 3090 sera très bottleneck par le CPU sur du 1080p, mais sur du 4K beaucoup moins (car le GPU a plus de boulot à faire).
D'ailleurs, comment ça se détermine si on souffrira de Bottleneck ou pas ?
Je suis pas exemple parti dans l'idée que mon i9 9900K me permettra de ne pas subir ça jusqu'à la série 50X0 avec laquelle je penserai peut-être faire un renouvellement de CG si la consommation baisse par rapport aux dingueries de la série 40X0. Mais y a-t-il une règle qui permet de dire : "nope, trop optimiste", ou au contraire "tu peux même attendre la série 60X0 avec ce que tu as" .
Avec les tests CPU/GPU et l'information sur la définition de l'écran.
Mais c'est un problème surtout pour le 1080p, sur les grosses résolutions aujourd'hui le plus gros GPU le mieux (surtout avec le RT et autre), sauf avoir un CPU vraiment bas de gamme (vieux i3) avec le top du GPU mais personne fait ça.
Moi j'utilise ce site, mais je ne sais pas si c'est super fiable : https://pc-builds.com/bottleneck-calculator/
"La baisse du prix des puces est une histoire du passé", déclare le PDG de Nvidia.
Chips "going down in price is a story of the past," Nvidia CEO says.
https://arstechnica.com/gaming/2022/...of-moores-law/
"Les prix ne vont pas baisser" - PDG qui vient d'annoncer un produit cher, qui doit rassurer des investisseurs malgré des ventes en baisses et un inventaire massif, et qui doit convaincre des joueurs qui n'ont pas les moyens/l'envie de payer une fortune pour quelque chose dont le prix a été maintenu élevé par une demande qui n'existe plus.
Merci, c'est intéressant, si bien sûr c'est fiable.
Le bottleneck apparaît effectivement assez rapidement sur les "petites" résolutions genre FHD.
Est-ce qu'il y a une sorte de barème d'"acceptabilité" du bottleneck, indiquant qu'il est temps de changer de carte (ou d'écran avec une plus grande résolution - probablement avec une nouvelle CG aussi, du coup) ?
Bah t'essaye de rentabiliser au maximum ton matériel : ça permet surtout d'éviter d'acheter trop puissant pour rien : par exemple si tu veux passer sur un GPU mais que tu va le bottleneck a 50% sans vouloir changer autre chose dans les prochaines années, ça sert à rien de gâcher ton argent : prends moins puissant et moins cher, et t'aura les mêmes perfs.
C'est marrant avec AMD qui baisse ses prix à coté. Bon ok, là ils parlent du prix de lancement seulement.
Sinon je n'ai toujours pas bien compris pourquoi les gens s'énervent sur des gammes qui sont variables, c'est surtout des choix de marketing.
Encore entre la RTX 3080 10Go de 2020 et la RTX 4080 12Go de 2022 je veux bien, c'est la RTX x80 "de base" pour cette génération, même s'ils auraient pu la nommer autrement ou faire une version moins balaise et moins chère si avoir un prix fixe est important (genre prendre les specs d'une RTX 4070Ti 10Go hypothétique).
Mais si je comprends bien ils comparent aussi le prix de lancement d'une RTX 3080 12Go sortie début 2022 avec une RTX 4080 16Go qui sort 10 mois plus tard, qu'est ce que ça veut dire ? Ou alors j'ai raté leur 2e tiers de 3080 sorti en 2020.
Non, mais le CPU limited, tu le vois tout simplement. Par exemple, en jeu, si tu vois que ton CPU est au dessus des 80% tout le temps, tu peux commencer à te poser quelques questions. Tu peux ensuite, pour identifier la chose, voir si les performances augmentent en baissant la définition. Si oui, c'est la carte qui limite, si ça ne change rien, même performances, c'est probablement ton CPU.
Le souci, c'est que pour chaque jeu c'est variable. Tu as des jeux qui sont très peu CPUvores, donc le CPU limited arrivera tardivement. Par contre, les jeux de simulations, le CPU limited peut vite arriver.
Tu ajoutes à ça qu'il y aussi les histoires de réglages graphiques. Certains joueurs de FPS, vont par exemple tout mettre en low voir ultra low pour avoir une framerate élevée. Dans ce cas, étant donné le peu de calcul que la carte graphique aura à faire par rapport à des réglages classiques, tu seras CPU limited même avec un CPU "équilibré par rapport à ta carte graphique qui est prévu pour telle définition (1080p, 1440p ou 2160p), mais avec des réglages classiques.
Je ne sais pas si vous avez déjà mis l'article dans le forum.
https://wccftech.com/nvidia-engineer...-rtx-i-o-news/
DLSS 3.0 théoriquement compatible avec les RTX 2000 et 3000 car les OFA (optical flow accelerator) nécessaires sont présents depuis turing.
Reste à savoir si présents signifie compatibles ou suffisant pour un gain de performance ou une qualité suffisante.
Non, mais chaque changement de CM, plus chaque changement de boitier, plus d'alim, ou toute insertion dans le boitier qui demande de bouger une partie du cablage...
15 fois dans le cycle de vie, ça ne me semble pas idiot, à moins de partir direct sur un setup haut de gamme qui va rester figé longtemps.
Donc exit la valeur de revente, et puis pour un objet à 1000 euros qui est supposé s'inscrire dans la durée ou la revente, c'est extrêmement malaisant.
C'est le cable qui devient un consommable, pas l'alim. Enfin, pourvu qu'on change le cable à temps.
Sinon, il "suffira" de changer le cable de l'alim supposément modulaire. Ce problème est lié au cable et au standard du cable, absolument pas à NVidia.
La vraie mauvaise nouvelle, c'est que visiblement la 4080 risque de demander ce nouveau connecteur exotique que votre alim ne possède sûrement pas nativement. Il va falloir faire un sacré inventaire afin de voir s'il y a moyen de trouver 4 lignes 8 pins pour alimenter un adaptateur vers ce nouveau format (a priori j'ai ça sur ma 650W).
Dernière modification par vectra ; 26/09/2022 à 21h39.
Oui c'est juste le câble, et même en y allant franchement : installation + rajout d'un SSD M.2 en dessous de la CG + changement de CPU/CM + changement d'alim (ce qui est déjà bien plus que la plupart des gens) t'a juste consommé 4 des 30 cycles...
En général les e-gpu sont branchés dans leur propre boîtier et tu ne touche pas le câble d'alimentation pour le couplage/découplage au PC portable, donc on est à 1 cycle sur les 30.
https://pc-builds.com/bottleneck-calculator/
https://pc-builds.com/bottleneck-cal.../general-tasks
Le processeur est trop faible pour la carte graphique.
6600k = 4 core / 4 thread comme feu mon 4690k. D’ailleurs la différence entre ces 2 CPU est minime.
Clairement à l'époque il limitait ma 1070ti sur les jeux récents. Le passage à un 2700x a été génial.
Le truc c'est que si tu le changes tu ne verras pas de grande évolution car la 1070 est maintenant une carte "faible".
Bref soit tu gardes ta 1070 pour encore longtemps et une évolution vers le plus gros i7 de ta plateforme (si à moins de 50 €) et 16go de ram s'envisage. Sinon laisse tomber et change tout.