Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 262 sur 313 PremièrePremière ... 162212252254255256257258259260261262263264265266267268269270272312 ... DernièreDernière
Affichage des résultats 7 831 à 7 860 sur 9367
  1. #7831
    Bon, c'est quoi que vous comprenez pas quand Qiou vous demande d'arrêter ?

    "oui mais maitresse c'est pas moi qui ai commencé et pis j'veux avoir le dernier mot..." Vous vous croyez ou, bordel ?

    Tilt et vectra, vous comprenez visiblement pas ce qu'on vous dit, et inutile de blamer l'autre s'il vous arrive des bricoles. Vous ne valez visiblement pas mieux l'un que l'autre.

  2. #7832
    Citation Envoyé par Qiou87 Voir le message
    Comme tu es le seul à visiblement avoir lu mon avertissement et que les autres me fatiguent - je ne suis pas d'accord qu'on se fiche des noms dès lors que 2 produits portent le même nom et n'ont absolument pas les mêmes performances. La 4080 12GB est une aberration marketing. Je suis commercial: si je vends 2 produits très différents sous le même nom (avec 25% de différence de perf, donc le genre dont tu te rends compte) à mes clients, ils vont me coller un procès ou à minima je vais les perdre. Je suppose que c'est un test pour nVidia, mais vraiment, je ne comprends pas la logique vu que leur système de nommage laisse beaucoup de latitude pour des dérivés (SUPER, Ti, etc.). Et l'argument de la consommation je n'y crois pas puisqu'entre RTX2000 et RTX3000 la conso s'est envolée et ils n'ont pas modifié les noms pour autant (2080 @250W -> 3080 @350W).
    Ouais c'est vrai, j'avais l'impression de ça quand j'avais regardé l'historique mais c'est pas mal erratique quand même.
    Ils ont bien monté sur les 3000 haut de gamme, là ça a l'air de baisser un peu sur les 4080 mais on verra la suite. Ils se laissent une bonne marge pour la 4080 Ti et j'imagine pas une 4090 Ti
    Les RTX x70 de base restent autours de 200W en fait, et pour une éventuelle 4070 Ti ils vont devoir rester raisonnablement sous la 4080 12G pour rester cohérent.

    Le petit graph du jour, à l'arrache avec les variantes (oublié de mettre la légende pour y: TDP en W, et y en a qui se marchent dessus).
    Faudrait que je mette quelque part les données que j'ai scrappé s'il y en a qui veulent faire joujou aussi. J'ai trouvé d'autres refs plus larges sur Kaggle, mais pas encore vraiment creusé.



    Edit: fix quelques détails dans le graph
    Dernière modification par 564.3 ; 04/10/2022 à 22h39.

  3. #7833
    Alors
    Quand quelqu'un dépasse les bornes modobeller c'est très bien à condition de ne pas répondre.
    Et attendez vous à 48h minimum pour tous ceux qui jugent que les appels au calme d'un pseudo Vert ou orange ne les concernent pas, que ça soit sur ce topic ou ailleurs. On a très rarement à intervenir dans cette section, et c'est clairement mieux pour tout le monde que ça continue.
    Citation Envoyé par Arteis Voir le message
    scie pieds sous terre

  4. #7834
    Super ce graph !

    Tu penses réaliser le graph Benchmark affichage = f(W) afin d’avoir une idée de l’efficacité de chaque carte ? (Benchmark d’affichage étant le résultat d’un benchmark un peu généraliste, comme 3DMark ou FurMark). Ça serait super pour juger de leur efficacité en rastérisation.

    Note : il y a eu aussi 2 modèles de RTX 3080, une en 10 Go, l’autre en 12 Go.

  5. #7835
    Citation Envoyé par 564.3 Voir le message
    /i.ibb.co/yP8fj2y/nvidia-tdp.jpg[/url][/url]

    Edit: fix quelques détails dans le graph
    C'est très intéressant ; la limite de l'exercice c'est que la conso réelle de la carte n'est pas égale à son TDP même à 100%. Il faut choisir un benchmark représentatif (ou un jeu qui charge bien fort) et passer tous les GPUs dessus pour voir réellement l'évolution de conso (même si on retrouve exactement la même tendance, voire pire).

    Je suis également, comme honu, très curieux de voir les premiers retours de l'undervolting sur cette génération. Sur RTX3000 et spécifiquement les grosses puces, les gains sont massifs franchement. Pour moi un GPU à 350W est totalement hors de question, mais si j'arrive à l'amener à 250-270W via undervolting ça devient gérable. Il faudra sans doute patienter un peu, les premiers tests ne touchent pas à ce style d'optimisation.

    @honu: tu as raison mais la 3080 12GB est sortie longtemps après (~1 an de mémoire) et l'écart de performances est presque raisonnable. Elle répondait à une certaine logique, en 4K 10GB de VRAM pouvait dans certains cas (RTX sans DLSS) poser souci, alors nVidia a cherché à fournir une solution et comme l'optimisation process permettait des puces un peu plus performantes, la 3080 12GB est un peu au dessus de la 10GB (ça facilite aussi la justification de hausse de prix). Mais 25% c'est un écart entre deux gammes, pas entre deux cartes ayant le même nom et juste la valeur de VRAM qui change.

  6. #7836
    Attention l'undervolting ça ne fait pas des miracles en permanence.

    Sur ma 3080 10 go je suis à 350W stock.
    L'UV me permet de descendre dans certain jeux à 220/230 W. Mais sur d'autre je ne descends qu'à 280W avec le même UV. C'est déjà ça vous me dirait.

  7. #7837
    Citation Envoyé par Berk-124 Voir le message
    Attention l'undervolting ça ne fait pas des miracles en permanence.
    Chacun sa définition de miracle ; 70W/ 20% de réduction c'est plus que pas mal je trouve. Et de mon côté ça élimine aussi les pics à 450W, j'ai une carte qui fait des pics à 270W maxi (la même 3080 10GB que toi, en FE). Ces pics m'auraient obligé à changer d'alimentation alors que j'avais un bon bloc quasi-neuf. Donc en plus de l'économie de conso, j'ai aussi une économie de matériel. Dans l'ensemble je trouve donc le truc vraiment concluant et efficace ; y'a pas de -50% ou quoi, mais le gain est quand même substantiel. J'espère que de tels gains seront encore possibles sur Ada Lovelace (tout en ayant le même impact minime sur les perfs, c'est-à-dire au pire -5%).

  8. #7838
    Citation Envoyé par Qiou87 Voir le message
    Chacun sa définition de miracle ; 70W/ 20% de réduction c'est plus que pas mal je trouve. Et de mon côté ça élimine aussi les pics à 450W, j'ai une carte qui fait des pics à 270W maxi (la même 3080 10GB que toi, en FE). Ces pics m'auraient obligé à changer d'alimentation alors que j'avais un bon bloc quasi-neuf. Donc en plus de l'économie de conso, j'ai aussi une économie de matériel. Dans l'ensemble je trouve donc le truc vraiment concluant et efficace ; y'a pas de -50% ou quoi, mais le gain est quand même substantiel. J'espère que de tels gains seront encore possibles sur Ada Lovelace (tout en ayant le même impact minime sur les perfs, c'est-à-dire au pire -5%).
    Yes, c'est déjà ça de gagné. Perso le gain le plus appréciable c'est le bruit et la température des puces mémoires. Même si je pense que cette histoire de température des puce mémoires des 3080/90 est un faux problème avec maintenant plus de 2 ans de recul.

    Pour ma part j'ai changé d'alim, elle n'était pourtant pas vieille, mais c'est du coup une alim de secours

  9. #7839
    Ah ouais, j'ai rajouté des trucs à la main et raté la 3080 12GB.

    Les pics de conso sont ceux donnés par le monitoring de la carte, ou un connecteur sur l'alim ?
    Pour les mesures que j'ai fait sur la mienne ça n'a jamais significativement dépassé la limite configurée par défaut.

    Sinon j'avais repéré cette ref pour les benchmarks standardisés https://www.kaggle.com/datasets/alanjo/gpu-benchmarks
    Mais c'est aussi basé sur le TDP du fabriquant, pas celui mesuré. Ses refs sont https://www.videocardbenchmark.net/gpu_list.php et https://browser.geekbench.com/cuda-benchmarks, qui ne sont pas forcément super.

  10. #7840
    Citation Envoyé par 564.3 Voir le message
    Ouais c'est vrai, j'avais l'impression de ça quand j'avais regardé l'historique mais c'est pas mal erratique quand même.
    Ils ont bien monté sur les 3000 haut de gamme, là ça a l'air de baisser un peu sur les 4080 mais on verra la suite. Ils se laissent une bonne marge pour la 4080 Ti et j'imagine pas une 4090 Ti
    Les RTX x70 de base restent autours de 200W en fait, et pour une éventuelle 4070 Ti ils vont devoir rester raisonnablement sous la 4080 12G pour rester cohérent.

    Le petit graph du jour, à l'arrache avec les variantes (oublié de mettre la légende pour y: TDP en W, et y en a qui se marchent dessus).
    Faudrait que je mette quelque part les données que j'ai scrappé s'il y en a qui veulent faire joujou aussi. J'ai trouvé d'autres refs plus larges sur Kaggle, mais pas encore vraiment creusé.

    https://i.ibb.co/yP8fj2y/nvidia-tdp.jpg

    Edit: fix quelques détails dans le graph
    Ce qui est flagrant sur ce graphique, c'est que les cartetop pour du 1080p de 60 à 90 Hz sont restées au même TDP. Les carte au dessus de 200W sont toutes des carte soit 1440p, soit 4k, soit 100 fps+ ou tout réuni.

  11. #7841
    Sur la 3080 TUF que je viens d'acquérir à vil prix, j'ai uv à 270W, elle est donné pour 370W; modèle gourmand. Sans perte de perf conséquentes.

    Et sur MSFS VR, elle n'a pas dépassé 250W. Le reste du temps elle roupille.

    Le pied cette carte, surtout quand on vient de Ventus.

  12. #7842
    Ah c'est déjà pas mal, en VR j'ai tendance à consommer moins que sur écran, parce que le timing de rendu des frames est strict.
    Normalement le GPU est rarement à 100%, le principe est d'avoir assez de marge pour que les pics d'activité restent dessous. Si ça tape trop au plafond la reprojection se met en route et on charge encore moins le GPU (mais on a des artefacts et autre problèmes).
    Sur écran je laisse plus facilement en roue libre avec une limite de framerate (typiquement 60FPS) que j'atteins pas forcément souvent selon les jeux. Donc le GPU tourne tout le temps à fond.

    Sinon j'ai refait le graph avec la RTX 3080 12GB + un fantome des GPU encore produits qui ont une pertinence (dans le contexte TDP) avec les modèles déjà annoncés de RTX 4000.
    À un moment je vouais éventuellement en faire un selon le nombre de transistors ou la fréquence aussi. Parce qu'il y a du matos plus ou moins poussé à bout dans les specs de base.

    Dernière modification par 564.3 ; 05/10/2022 à 13h19.

  13. #7843
    Citation Envoyé par Padawahou Voir le message
    Je ne me souviens pas avoir vu de supposées dates pour les Ti mais la 4060, ce sera en janvier.
    Merci pour la précision, janvier c'est pas trop loin et a cette période on aura déjà une vue plus substantielle sur les baisses attendues du prix des 3000.
    C'est pas faux !

  14. #7844
    Citation Envoyé par 564.3 Voir le message
    Sinon j'ai refait le graph ...
    Arf !
    On voit qu'entre les générations 6, 7 et 9, on améliore la conso, avec quasi un decalage d'une gamme, que de 9 à 10 on reste pareil et qu'avec les 20 et 30, ça décale dans l'autre sens (la conso d'une gamme est égale à la conso de la gamme superieure precédente), avec explosion sur le haut de gamme.

  15. #7845
    Citation Envoyé par XWolverine Voir le message
    Arf !
    On voit qu'entre les générations 6, 7 et 9, on améliore la conso, avec quasi un decalage d'une gamme, que de 9 à 10 on reste pareil et qu'avec les 20 et 30, ça décale dans l'autre sens (la conso d'une gamme est égale à la conso de la gamme superieure precédente), avec explosion sur le haut de gamme.
    Tu n'as pas du lire ce que j'ai mis un peu plus haut.

    Pou moi le graph illustre bien qu'il n'y pas de décalage.

    Prenons les cartes capables de 1080p 60 en High au moment de leur sortie (et pour environ 2ans) sur les gros jeux.
    Ca donne approximativement :
    670/770/970/1060/1660 super/2060 et super/3060

    Toutes ces cartes ont un TDP entre 120 et 170 W.

    Les cartes qui ont un TDP supérieur, sont celles qui permette d'aller au delà du 1080p 60. 1440p/4K 120 fps+, ou un combinaison de cela.
    Bref il ne faut pas raisonner en gamme, mais en exigence de performances. Personne n'a besoin d'une 4090 bouffant 450 w pour faire du 1080p 60. Sauf peut être kevin pour se la péter dans la cour de récré.

  16. #7846
    Citation Envoyé par Berk-124 Voir le message
    Attention l'undervolting ça ne fait pas des miracles en permanence.

    Sur ma 3080 10 go je suis à 350W stock.
    L'UV me permet de descendre dans certain jeux à 220/230 W. Mais sur d'autre je ne descends qu'à 280W avec le même UV. C'est déjà ça vous me dirait.
    Si perdre un peu en perf ne te gène pas trop il y a une autre option possible: baisser la limite de conso. Je ne crois pas que les drivers d'Nvidia le permettent mais c'est probablement faisable avec un programme tiers comme Afterburner. Et en combinant avec un UV tu dois pouvoir réduire l'impact de la limite de conso sur les perfs.

    D'ailleurs je me demande ce qui donne les meilleures perfs. Un gros GPU dont on baisse la limite à 200W ou un plus petit GPU dont la conso normale est de 200W (avec deux GPUs de la même famille/génération bien entendu). C'est juste pour la science, économiquement parlant mieux vaut prendre un GPU à prix raisonnable que de brider une bête de course qui coûte un bras.

  17. #7847
    Citation Envoyé par Kimuji Voir le message
    D'ailleurs je me demande ce qui donne les meilleures perfs. Un gros GPU dont on baisse la limite à 200W ou un plus petit GPU dont la conso normale est de 200W (avec deux GPUs de la même famille/génération bien entendu). C'est juste pour la science, économiquement parlant mieux vaut prendre un GPU à prix raisonnable que de brider une bête de course qui coûte un bras.
    Et comment tu baisses la conso, à part en plafonnant justement la tension de la puce? Tu appliques juste ta limite différemment, en limitant la consommation à 200W par ex. tu ne t'occupes pas de la courbe de fréquence, ce sont les drivers qui se débrouillent et vont ajuster tension et fréquence à la volée pour respecter ta cible. Faire un undervolting c'est la même chose mais un peu plus flexible, puisqu'en fait tu plafonnes tension (=consommation au final) et fréquence mais de manière plus "manuelle" et surtout la consommation est une résultante (tu agis sur tension et fréquence, pas direct sur la consommation - ce n'est qu'après essai et mesures que tu découvres combien consomme ta carte).

    J'ajouterai que ma 3080 ayant à peu près la conso d'une 3070 de base et l'éclatant fermement en terme de perfs, le gros GPU ramené dans sa zone d'efficacité énergétique maxi est bien plus performant qu'une puce plus petite qui subit le même traitement que la grosse (à savoir une conso et une fréquence poussées au max pour avoir de bonnes perfs). Car élever la tension et la fréquence ne coûte rien à nVidia alors que rajouter des unités de calcul, si. Donc pour eux, ils ont tout intérêt à pousser au max les petites puces, et tant pis si l'efficacité en prend un coup car le prix qu'ils peuvent vendre la puce dépend des performances finales. Si augmenter la conso de 30% permet de gagner 10% de performances, c'est aussi une carte que tu vendras 10% plus chère - c'est rentable pour eux. Mais pour le consommateur qui fait gaffe, il peut souvent céder quelques pourcents de perf et ainsi récupérer pas mal de gains en consommation et chauffe.

    D'ailleurs c'est ce qui arrive aux GPUs dans les PC portables de joueur, ils ont des limites de conso assez faibles sans pour autant diviser les performances par 2 ou 3. Simplement ils opèrent dans une plage de bien meilleure efficacité énergétique.

  18. #7848
    C'est mon sentiment aussi.

    Par contre l'undervolting ça fait baisser la conso mais ça n'entame pas les perfs (tant que c'est stable bien sûr). Ça peut même en faire gagner si les perfs du GPU/CPU sont limitées par la conso et/ou la température. On perd en perf si on associe l'UV à une limitation de la fréquence, pratique courante parce qu'une petit baisse de fréquence peut parfois augmenter significativement le potentiel d'UV, pour la raison que tu donnes (les constructeurs qui poussent la conso de 30% pour gagner 5% de perf).

    C'est pour ça que je parlais de mitiger la perte de perf liée à une limite de conso fixée plus bas par un undervolting.

  19. #7849
    Citation Envoyé par Berk-124 Voir le message
    Bref il ne faut pas raisonner en gamme, mais en exigence de performances.
    Bien sûr qu'il faut raisonner en gamme, raisonner en definition d'écran peut avoir un sens sur quelques générations, mais c'est moins pérenne dans le temps.
    Je crois voir ce que tu veux dire, que le haut de gamme sert juste de vitrine, mais ça a toujours été le cas, les Titan n'ont jamais eu un sens à être achetées pour jouer.
    En fait, ce pousse au crime qui était réservé au haut de gamme est maintenant généralisé sur quasi toute la gamme (pas regardé les 050). Probablement la crainte de voir AMD revenir dans la course, mais ce n'est pas normal que l'efficacité énergétique ne baisse pas de generation en génération. Ce n'est pas pour rien qu'on en vienne à undervolter ses CG et constater qu'on perd peu en perfs, les curseurs ont été artificiellement poussés pour obtenir les résultats les plus haut possible, même en 060.
    Sur toutes ces générations, les 050 ont toujours été limites, concessions à faire sur les reglages, gros AAA qui ne tourneront pas tous. Les 060 -070 en milieu de gamme, font tourner quasi tout, hors grosses simus ou maintenant VR, apanage des 080, inutiles dans la majorité des cas (et c'était bien déjà vrai pour les 780 et 980). Que le niveau de jeu exigeant soit aujourd'hui flight sim, le RT ou la 4K ne change rien au fait que c'est le nouveau niveau exigeant. Que le milieu de gamme signifie RT, 1440p alors qu'avant c'était ambient occlusion ou je ne sais plus quoi, idem, ça reste le même type d'usage ludique.
    Et puis bon, ça la fout quand même grave mal qu'en ce contexte de lutte contre la sur-conso énergétique, on ait 3 acteurs (Intel, Nvidia, AMD) qui tous les trois, sur CPU et GPU, reviennent en arrière sur les efforts faits en efficacité énergétique à chaque nouvelle génération parce qu'il y a de nouveau concurrence, pour vendre leur came et afficher qu'ils ont la plus grosse.

  20. #7850
    Citation Envoyé par XWolverine Voir le message
    Probablement la crainte de voir AMD revenir dans la course, mais ce n'est pas normal que l'efficacité énergétique ne baisse pas de generation en génération.
    On ne veut surtout pas que efficacité énergétique baisse. J'imagine que tu voulais dire qu'il est inacceptable que la conso ne baisse pas d'une génération à l'autre.

    Le problème c'est qu'on fait des progrès en efficacité énergétique, le gen actuelle bat nettement la précédente à conso égale. Seulement cette marge est utilisée non pas pour baisser la conso mais pour pousser les GPUs encore plus loin. Au lieu de nous vendre 20% de perf en plus pour 10% de conso en moins on préfère nous vendre +40% de perf pour 20% de conso en plus.

  21. #7851
    Oui, tout à fait (et oui j'ai gourré dans le sens sur l'efficacité énergétique )

  22. #7852
    Bien que non il ne faut pas raisonner en gamme.
    Idéalement il faudrait raisonner à travail constant. Et à travail constant, et bien on peut dire qu'on a fait de sacré progrès. Un des meilleurs indicateurs dans le monde du jeu vidéo sur le travail constant c'est doom 1 (celui de 1993). On le fait tourner sur des Ipod, des Iwatch et tout un tas de trucs qui ne consomment rien (https://www.gamesradar.com/12-things...ally-anything/).
    Donc on peut qu'on a sacrément optimisé l'énergie nécessaire pour faire tourner doom.
    De nos jours on arrive à faire tourner GTA 5 sur des iGPU en 1080P 60 de quelques dizaines de watt. Combien consommait la machine nécessaire pour cela à la sortie du jeu ?
    Sachant que chaque année les jeux demandent un peu plus de ressources pour la même définition et la même vitesse d'affichage, c'est plutôt bien que le GPU nécessaire pour rester sur cette fameuse définition consomme pareil.
    C'est dommage le graph ne remonte pas assez loin, mais sinon on remarquerai un cran sur le TDP du haut de gamme à chaque foi que le définition optimale a augmenté.

    Pour autant le concours de kékettes que se livrent les fondeurs (GPU et CPU) est complétement débile. Sous prétexte d'apparaitre en haut du graphe performance, ils sacrifient totalement leur positionnement dans le graph perfs/watts.
    En gros les 10 % de perfs finales de chaque modèle leur coutent 30% de la consommation totale.

    On pourrait faire une autre comparaison avec un milieu totalement différent. La taille des vêtements qui est régulièrement mise à jour (tous les 10 ans), généralement le XL devient le L et pareil pour les autres tailles.
    Personnellement je n'aurais pas changé de taille du coup je prendrai un L (3060) qui nécessite la même quantité de tissu que l'ancien XL (2070). Par contre si subitement je prends 10 cm (adolescence / passage à la 4 K) j'aurai besoin du nouveau XL (3080) qui nécessite plus de tissu.

    De plus c'est cyclique dans le monde de l'informatique.
    On sort une nouvelle architecture au top. Pendant plusieurs on l'optimise tout en lui tirant de plus en plus dessus et quand ça devient complétement délirant on sort une nouvelle architecture.
    Les exemples qui me viennent : Pentium 4, Geforce FX 5000, GTX 480/580, Radeon 3000 (il me semble).

  23. #7853
    Puisqu'on n'en parle pas, les premiers tests pour les Intel A750 et 770 sont sortis. En bref:
    - C'est un peu cassé au niveau des drivers, c'est pas super fiable pour l'instant.
    - Les perfs quand ça se passe bien sont assez bonnes en performance/prix, en se plaçant confortablement au niveau d'une RTX3060, voire mieux en montant un peu en résolution.
    - Quand ça va mal, ça va très mal. Sur CS:GO, les perfs ont 10 ans de retard, facile.
    - Ca consomme pas mal, plus qu'une 3060 pour la performance équivalente. Et évidemment plus que les AMD équivalentes.
    - Les perfs en calcul IA et RT sont très bonnes, mais ça ne se translate pas vraiment en perf en jeu.

  24. #7854
    Citation Envoyé par Kimuji Voir le message
    Si perdre un peu en perf ne te gène pas trop il y a une autre option possible: baisser la limite de conso. Je ne crois pas que les drivers d'Nvidia le permettent mais c'est probablement faisable avec un programme tiers comme Afterburner. Et en combinant avec un UV tu dois pouvoir réduire l'impact de la limite de conso sur les perfs.
    Chez Nvidia faut utiliser nvidia-smi (ligne de commande) qui est fourni avec les drivers. Sur ma GTX 1070 je peux régler la limite de 75 à 170W (151W par défaut). Ce n'est peut-être pas optimisé au poil de cul comme changer les courbes pour faire de l'UV, mais ça fait le taf.
    En été je passe la limite à 75W (option -pl pour power limit) et change éventuellement quelques paramètres dans les jeux, mais c'est surtout un garde-fou plus strict que limiter le framerate (autant faire les deux).
    Après ça dépend ce qu'on veut faire.

    - - - Mise à jour - - -

    Citation Envoyé par skyblazer Voir le message
    Ca consomme pas mal, plus qu'une 3060 pour la performance équivalente. Et évidemment plus que les AMD équivalentes.
    Ce qui me gène surtout c'est la conso quand on ne l'utilise quasi pas, le gros du temps d'usage de mon desktop. Actuellement mon GPU est à 7W, avec un Intel ce serait du genre 40-50W…
    Ils vont peut-être patcher ça, le ventilo tourne en permanence aussi.

  25. #7855
    Citation Envoyé par skyblazer Voir le message
    Puisqu'on n'en parle pas, les premiers tests pour les Intel A750 et 770 sont sortis. En bref:
    - C'est un peu cassé au niveau des drivers, c'est pas super fiable pour l'instant.
    - Les perfs quand ça se passe bien sont assez bonnes en performance/prix, en se plaçant confortablement au niveau d'une RTX3060, voire mieux en montant un peu en résolution.
    - Quand ça va mal, ça va très mal. Sur CS:GO, les perfs ont 10 ans de retard, facile.
    - Ca consomme pas mal, plus qu'une 3060 pour la performance équivalente. Et évidemment plus que les AMD équivalentes.
    - Les perfs en calcul IA et RT sont très bonnes, mais ça ne se translate pas vraiment en perf en jeu.
    Ca see passe dans 2 cas :
    l'absence de resizable BAR
    les titres DX11

    Pour le reste ça semble bien calmer un 3060 et même titiller une 3060 ti, y compris en RT.

  26. #7856
    Citation Envoyé par Berk-124 Voir le message
    Ca see passe dans 2 cas :
    l'absence de resizable BAR
    les titres DX11

    Pour le reste ça semble bien calmer un 3060 et même titiller une 3060 ti, y compris en RT.
    https://www.youtube.com/watch?v=Kluz0H38Wow
    En tout cas elles sont meilleures en RT que les RDNA2.
    Reste à voir ce que donneront les RDNA3, et leurs tarifs.

  27. #7857
    Citation Envoyé par Berk-124 Voir le message
    Bien que non il ne faut pas raisonner en gamme.
    Idéalement il faudrait raisonner à travail constant. Et à travail constant, et bien on peut dire qu'on a fait de sacré progrès. Un des meilleurs indicateurs dans le monde du jeu vidéo sur le travail constant c'est doom 1 (celui de 1993). On le fait tourner sur des Ipod, des Iwatch et tout un tas de trucs qui ne consomment rien (https://www.gamesradar.com/12-things...ally-anything/).
    Donc on peut qu'on a sacrément optimisé l'énergie nécessaire pour faire tourner doom.
    De nos jours on arrive à faire tourner GTA 5 sur des iGPU en 1080P 60 de quelques dizaines de watt. Combien consommait la machine nécessaire pour cela à la sortie du jeu ?
    Sachant que chaque année les jeux demandent un peu plus de ressources pour la même définition et la même vitesse d'affichage, c'est plutôt bien que le GPU nécessaire pour rester sur cette fameuse définition consomme pareil.
    Ton approche est bonne, mais il faut voir la réalité actuelle.
    Dans les années 90 l'efficacité a explosé, on a littéralement multiplié la performance par 100 en une grosse dizaine d'années en restant sur des consos du même niveau.
    Après ça a quand même bien ralenti, et depuis disons 5 ans on est à un plafond de verre, les gains en finesse de gravure, fréquence maximale et perf/watt ne progressent quasiment plus.

    Si tu regarde les GPUs, une 1080, une 2070 ou une 3060 c'est à quelques % près la même conso et les mêmes perfs.
    La seule solution qui marche encore pour amener une progression substantielle de la performance... c'est fourrer toujours plus de coeurs dans les puces.
    Et forcément, sans avoir de gains majeurs sur l'efficacité, plus de coeurs ça fait plus de watts consommés.

    Après il y a aussi l'effet "concours de fréquence" qui nécessite de pousser le voltage et donc augmenter la conso au carré. C'est poussé sur les produits flagship grand public mais pas tant que ça sur les
    monstres du monde pro en fait. Les CPUs de supercalculateurs contiennent des dizaines de coeurs, mais leur fréquence est typiquement autour des 2 Ghz (aussi parque à des fréquences de pc grand public la chaleur dégagée serait ingérable ).
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  28. #7858
    Citation Envoyé par Lazyjoe Voir le message
    Ton approche est bonne, mais il faut voir la réalité actuelle.
    Dans les années 90 l'efficacité a explosé, on a littéralement multiplié la performance par 100 en une grosse dizaine d'années en restant sur des consos du même niveau.
    Après ça a quand même bien ralenti, et depuis disons 5 ans on est à un plafond de verre, les gains en finesse de gravure, fréquence maximale et perf/watt ne progressent quasiment plus.

    Si tu regarde les GPUs, une 1080, une 2070 ou une 3060 c'est à quelques % près la même conso et les mêmes perfs.
    La seule solution qui marche encore pour amener une progression substantielle de la performance... c'est fourrer toujours plus de coeurs dans les puces.
    Et forcément, sans avoir de gains majeurs sur l'efficacité, plus de coeurs ça fait plus de watts consommés.

    Après il y a aussi l'effet "concours de fréquence" qui nécessite de pousser le voltage et donc augmenter la conso au carré. C'est poussé sur les produits flagship grand public mais pas tant que ça sur les
    monstres du monde pro en fait. Les CPUs de supercalculateurs contiennent des dizaines de coeurs, mais leur fréquence est typiquement autour des 2 Ghz (aussi parque à des fréquences de pc grand public la chaleur dégagée serait ingérable ).
    Les gains en efficacité énergétique sont moins importants que dans les années 90, mais ils sont encore là. Ma RX 5700XT consomme moins que ma R9 390 et elle la défonce. De même qu'une RX 6700XT a des perfs 30% supérieures à une 5700XT pour une conso identique. Le problème est, comme dit plus haut, que ces gains sont bouffés par la course à la puissance.

  29. #7859
    Citation Envoyé par Qiou87 Voir le message
    Et comment tu baisses la conso, à part en plafonnant justement la tension de la puce? Tu appliques juste ta limite différemment, en limitant la consommation à 200W par ex. tu ne t'occupes pas de la courbe de fréquence, ce sont les drivers qui se débrouillent et vont ajuster tension et fréquence à la volée pour respecter ta cible.
    Tu as le slider power limit dans MSI afterburner.

    Mais c'est bien moins efficace qu'un UV.

  30. #7860
    Citation Envoyé par Lazyjoe Voir le message
    Si tu regarde les GPUs, une 1080, une 2070 ou une 3060 c'est à quelques % près la même conso et les mêmes perfs.
    Tiens ça fait un exemple pour voir ce que donnent les données récupérées par https://www.kaggle.com/datasets/alanjo/gpu-benchmarks

    GPU_benchmarks_v7.csv:
    gpuName G3Dmark G2Dmark price gpuValue TDP powerPerformance testDate category
    GeForce GTX 1080 15265 890 442.79 34.47 180 84.8 2016 Desktop
    GeForce RTX 2070 16079 833 627.44 25.63 175 91.88 2018 Desktop
    GeForce RTX 3060 16958 951 329 51.55 170 99.76 2021 Desktop

    La source pour les prix est foireuse… Les MSRP sont respectivement 599 499 et 329, et si le but était d'avoir les prix du marché ça déconne bien.
    Sinon ces benchs donnent une petite amélioration de perf pour une petite baisse de TDP théorique (faudrait celui mesuré, dommage…). C'est pas dingue effectivement.

    GPU_scores_graphicsAPIs.csv:
    Manufacturer Device CUDA Metal OpenCL Vulkan
    Nvidia GeForce GTX 1080 51531 23824 54640 66552
    Nvidia GeForce RTX 2070 96024 85818 73515
    Nvidia GeForce RTX 3060 99213 96416 74845

    Cette source est bizarre pour la 1080.

    Sinon les teraflops single precision en ref chez NVidia sont respectivement 8.873 7.465 12.738

    Le problèmes avec ces benchmarks, ou même en général dans les comparaisons GTX/RTX, c'est qu'on n'utilise pas les spécificités genre RT et DLSS. Du coup une partie de la carte est un poids mort, mais je ne sais pas trop quel impact ça a.

Page 262 sur 313 PremièrePremière ... 162212252254255256257258259260261262263264265266267268269270272312 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •