Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 242 sur 313 PremièrePremière ... 142192232234235236237238239240241242243244245246247248249250252292 ... DernièreDernière
Affichage des résultats 7 231 à 7 260 sur 9367
  1. #7231
    Bah si elle fait mieux qu'une RX6400-6500 (cartes au MSRP plus élevé que celui d'Intel) c'est pas si à la rue que ça, c'est même l'inverse !
    Les bleus font donc mieux que les rouges dès la sortie et ont en plus de la marge d'amélioration.

    Je ne comprends vraiment pas le tacle de Qiou87 sur les idéalistes de ce fait..?

  2. #7232
    C'est plus la comparaison dans la pratique avec la GTX 1650 de 2019 qui fait mal, 75W 150$ aussi.
    Mais ce sera peut-être plus clair dans quelques mois.

  3. #7233
    Citation Envoyé par Dross Voir le message
    Déçu par les perfs d'une carte à 150$ ?
    Déçu par un gap énorme entre perfs théoriques (en bench) et perfs pratiques (en jeux). Déçu de voir la gamme Intel attaquer par tout en bas, on se demande s'ils vont arriver jusqu'à un segment qui intéresse vraiment les joueurs autre que pour du 1080p medium. Et déçu aussi que la sortie soit cantonnée à la Chine pendant des mois. Ca respire pas la confiance.

  4. #7234
    Citation Envoyé par Dross Voir le message
    Bah si elle fait mieux qu'une RX6400-6500 (cartes au MSRP plus élevé que celui d'Intel) c'est pas si à la rue que ça, c'est même l'inverse !
    Les bleus font donc mieux que les rouges dès la sortie et ont en plus de la marge d'amélioration.
    Ben justement elle fait moins bien, elle ne les bat que sur 3Dmark.

  5. #7235
    Citation Envoyé par Kimuji Voir le message
    Ben justement elle fait moins bien, elle ne les bat que sur 3Dmark.
    Oui mais elle coûte moins cher aussi...

  6. #7236
    Citation Envoyé par Dross Voir le message
    Oui mais elle coûte moins cher aussi...
    Ah non, elle coûte plus cher que la 6400 justement.

  7. #7237
    Comment ça ? La 6400 a un msrp à 160$, celle d'intel à 150$.

  8. #7238
    C'est ultra bas de gamme non ?
    Je veux dire pour du full hd on recommande une 6600 alors une 6400 je vois pas tellement pourquoi ça existe ?
    Pour les cpu qui ont pas de partie graphique et que donc on a pas le choix sûrement

  9. #7239
    reneyvane
    Guest
    Citation Envoyé par Qiou87 Voir le message
    Déçu par un gap énorme entre perfs théoriques (en bench) et perfs pratiques (en jeux). Déçu de voir la gamme Intel attaquer par tout en bas, on se demande s'ils vont arriver jusqu'à un segment qui intéresse vraiment les joueurs autre que pour du 1080p medium. Et déçu aussi que la sortie soit cantonnée à la Chine pendant des mois. Ca respire pas la confiance.
    Ci-dessous un article qui à l'époque montrait que estimer la puissance de deux cartes graphique de AMD/Nvidia sur le simple Tflop Fp 32 était une bétise : la Rtx3070 estimé à "9 tflops" était globalement meilleur dans les jeux que la Radeon 5700XT à "11 Tflops".

    https://www.frandroid.com/produits-a...ce-performance

    On sait à force que les Radeon 6000 sous Rdna2 dés qu'on active le ray-tracing ont des performances ridicules face au RTX3000 et qu'une simple 3060Ti à 419€ fait mieux qu'une 6800 XT à 649€, le tout en prix MSRP.

    et de notre mentor "Qiou87", on a appris que les Radeon ne gérait pas la Vram comme les GTX/RTX et qu'à peu de différence : 8 vs 10go à l'avantage pour les rouges, ça n'apportait finalement que peu de différence en jeu.

    Ce qui signifie qu'une Radeon 6800 XT qui est une daube en Raytracing et qui à 16go qui ne sont que l'esbroufe face à 12go chez Nvidia, n'a pour soit qu'un ratio performance/watts meilleur, une meilleure compatibilité Linux et une plus grande ouverture de ses pilotes et logiciels associé.

    Si avec ça, je ne réveille pas la créature du forum qui ose porter le nom d'un magazine culte des années 80 ?

    Ah ? Flute, le temps de poster ceci, la créature ma devancé ?

  10. #7240
    Citation Envoyé par Tilt Voir le message
    C'est ultra bas de gamme non ?
    Je veux dire pour du full hd on recommande une 6600 alors une 6400 je vois pas tellement pourquoi ça existe ?
    Pour les cpu qui ont pas de partie graphique et que donc on a pas le choix sûrement
    Le prix est l'ordre de grandeur d'une gt 710 donc j'imagine pour ceux qui veulent des sorties vidéos en plus et un peu de puissance quand même.

  11. #7241
    Ils doivent annoncer la série RTX 40XX dans quelques mois.

    Les TDP annoncés font peur et devraient participer un peu plus au réchauffement climatique. ²
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  12. #7242
    Citation Envoyé par 564.3 Voir le message
    Y en a peut-être qui pensent que ça va vite être collector.
    Sinon j'attendais pas non plus grand chose du modèle entrée de gamme, 75W et 150$ c'est pas ça qui va décoiffer.
    Faut espérer que cette sortie va leur permettre d'améliorer la partie soft avant de passer aux choses sérieuses.
    Mais j'y crois quand même de moins en moins à cette histoire…
    Ah, parce que tu y croyais quand même !?
    Hutchinson

  13. #7243
    Citation Envoyé par reneyvane Voir le message
    Ci-dessous un article qui à l'époque montrait que estimer la puissance de deux cartes graphique de AMD/Nvidia sur le simple Tflop Fp 32 était une bétise : la Rtx3070 estimé à "9 tflops" était globalement meilleur dans les jeux que la Radeon 5700XT à "11 Tflops".

    https://www.frandroid.com/produits-a...ce-performance

    On sait à force que les Radeon 6000 sous Rdna2 dés qu'on active le ray-tracing ont des performances ridicules face au RTX3000 et qu'une simple 3060Ti à 419€ fait mieux qu'une 6800 XT à 649€, le tout en prix MSRP.

    et de notre mentor "Qiou87", on a appris que les Radeon ne gérait pas la Vram comme les GTX/RTX et qu'à peu de différence : 8 vs 10go à l'avantage pour les rouges, ça n'apportait finalement que peu de différence en jeu.

    Ce qui signifie qu'une Radeon 6800 XT qui est une daube en Raytracing et qui à 16go qui ne sont que l'esbroufe face à 12go chez Nvidia, n'a pour soit qu'un ratio performance/watts meilleur, une meilleure compatibilité Linux et une plus grande ouverture de ses pilotes et logiciels associé.

    Si avec ça, je ne réveille pas la créature du forum qui ose porter le nom d'un magazine culte des années 80 ?

    Ah ? Flute, le temps de poster ceci, la créature ma devancé ?
    Génial, mais du coup, on a à nouveau le droit de troller gras ?

    Bonne nouvelle.

  14. #7244
    Citation Envoyé par banditbandit Voir le message
    Ah, parce que tu y croyais quand même !?
    Ah mais j'y crois toujours, bon c'est plus un espoir qui n'attend qu'à être douché qu'un pronostique sur lequel je miserais de l'argent (même pas une précommande ).

    Qiou87 est déçu qu'ils commencent par l'entrée de gamme, mais à mon sens c'est la bonne stratégie vu que les autres font l'inverse et qu'on râle à chaque fois.
    Encore faudrait-il qu'ils apportent quelque chose d'intéressant sur le créneau… c'est plutôt un ballon d'essai en limitant les risques.
    Mais qu'ils peaufinent tout ça avec du test grandeur nature, on jugera le résultat le moment venu sur le segment qui nous intéresse.

  15. #7245
    Et hop, AMD risquerait aussi de céder aux sirènes du poussage de watts pour ne pas être à la traine derrière Lovelace :
    Tomshardware US interviewe Sam Naffziger

  16. #7246
    Citation Envoyé par XWolverine Voir le message
    Et hop, AMD risquerait aussi de céder aux sirènes du poussage de watts pour ne pas être à la traine derrière Lovelace :
    Tomshardware US interviewe Sam Naffziger
    Bah on ne jure que pas les % de perf en plus pour évaluer la pertinence d'une carte graphique.
    A nous de vouloir proposer un autre systeme d'évaluation où la meilleure carte graphique serait celle qui délivre le plus pour le moins de Watts....

  17. #7247
    C'est surtout qu'il faut une carte adaptée à son type de jeux et de matos.

    Depuis que je suis passé à un écran 4K, c'est vrai que j'aimerais bien avoir du 60fps à cette résolution, mais à part certains jeux demandeurs (et je ne fais pas de FPS), j'ai pas besoin d'une débauche de puissance.

    J'attends de voir le niveau des RTX 4060 (janvier 2023).
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  18. #7248
    Les prochaines Radeon pourraient avoir un équivalent des Tensor Cores d'Nvidia et peut-être venir sur le terrain du DLSS/XeSS de manière plus sérieuse.

  19. #7249
    Je crois que la prochaine génération de carte seront des fours.

    https://wccftech.com/roundup/amd-radeon-rx-7900-xt/


    Ils t'annoncent un rendement +50%... et derrière la conso max annoncée : 500W.


    Radeon RX 5700 XT 225W
    Radeon RX 6900 XTX 330W
    Radeon RX 7950 XT 500W

  20. #7250
    Je vois aussi les annonces.

    Après, il faut voir la conso et le TDP (ou autre définition) max possible qui peuvent être différents.
    Mais dans l'absolu, je vais pas acheter une CG qui consomme 300W.

    C'est pour ça qu'on va attendre un peu.

    Le max que je me donne c'est 180-220W, sachant que ma GTX 1060 doit être à 120W (peut être un peu plus car overclockée d'usine).
    Dernière modification par FB74 ; 06/07/2022 à 17h28.
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  21. #7251
    T'as quoi comme pistes, FB74 ?
    ça m’intéresse car même situation que toi (content de ma GTX 1060 et pas envie de changer d'alim pour une plus grosse conso) et d'ici 6 mois je compte changer de carte graphique (pour du 1080p).
    "Plus généralement, systématiquement se méfier des citations" Angelina, 2019

  22. #7252
    Dans ce cas faudra savoir ce que donnent les cartes en les limitant à 200W.
    C'est peu probablement celle qui aura cette limite d'usine qui aura les meilleurs perfs, vu qu'ils les poussent à bout.
    Pour le rapport perf/prix à 200W ça devrait quand même être elle la plus intéressante, s'ils ne foirent pas trop leur grille des prix, mais je serais curieux que quelqu'un vérifie.

  23. #7253
    Je viens de tester le FSR2 mod de Cyberpunk 2077 sur un laptop qui possède une GTX 1660Ti 6Gb et ça fonctionne correctement.

    Elle fait mieux dans des situations à forte charge GPU que les RTX 3050 Mobile 4Gb.

    --------------------

    Pour la génération RTX 4000, je vais bien attendre pour les Watts/ips.
    J'ai été un bon client de Nvidia pour chaque génération, mais la consommation annoncée devient absurde.

  24. #7254
    A 200W max., le meilleur que tu peux avoir, c'est la 3060ti FE, les customs, c'est plutôt 230-250W
    Ou une 6600XT

    Donc de quoi avoir bien mieux qu'une 1060

  25. #7255
    Citation Envoyé par Argelle Voir le message
    T'as quoi comme pistes, FB74 ?
    ça m’intéresse car même situation que toi (content de ma GTX 1060 et pas envie de changer d'alim pour une plus grosse conso) et d'ici 6 mois je compte changer de carte graphique (pour du 1080p).
    Je lorgne du côté d'une "potentielle RTX 4060" (janvier 2023), mais à voir.

    Est-ce que la 3060 ne serait pas suffisante pour ton usage en 1080p ?
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  26. #7256
    OK je vais regarder ces modèles, 200 W c'est vraiment un max, car je crois me souvenir d'un vieux numéro de canard pc hardware où ils disaient que les alim "perdent" de la puissance chaque année (10% ?). Et donc comme mon alim est bien agée, je veux garder de la marge
    "Plus généralement, systématiquement se méfier des citations" Angelina, 2019

  27. #7257
    Ouais enfin bon, faut pas exagérer non plus.

    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  28. #7258
    Citation Envoyé par Herman Speed Voir le message
    Je viens de tester le FSR2 mod de Cyberpunk 2077 sur un laptop qui possède une GTX 1660Ti 6Gb et ça fonctionne correctement.

    Elle fait mieux dans des situations à forte charge GPU que les RTX 3050 Mobile 4Gb.

    --------------------

    Pour la génération RTX 4000, je vais bien attendre pour les Watts/ips.
    J'ai été un bon client de Nvidia pour chaque génération, mais la consommation annoncée devient absurde.
    Je suis bluffé par le mod FSR2 sur RDR2 ou CP2077 pur ma part.
    Le coté Open Source je trouvais ca sympa j'imaginais pas que ca allait aller si vite...

  29. #7259
    Citation Envoyé par Jeliel Voir le message
    Je suis bluffé par le mod FSR2 sur RDR2 ou CP2077 pur ma part.
    Le coté Open Source je trouvais ca sympa j'imaginais pas que ca allait aller si vite...
    J'ai pas bien suivi comment ça marchait, c'est pas juste un wrapper par dessus ? Peu importe d'avoir les sources de la lib dans ce cas, on ne fait que l'utiliser non ?

  30. #7260
    Pour en revenir à l'histoire des 200W, c'est un peu ce genre de benchmarks que j'aimerais pour les GPU desktop: https://www.youtube.com/watch?v=rHBLFVZAc7I
    Il compare les perfs des APU Intel 1260P et AMD 6800U tous les 5W.
    À 15-20W sur 30W le 6800U est quasi au max de ses perfs. Le laisser en roue libre c'est vider sa batterie, faire tourner le ventilo à fond et chauffer la pièce pour gagner quelques pourcents.
    Sur le 1260P le plafond est moins marqué, on continue de tirer notablement plus de perfs jusqu'à 20-25W selon les benchmarks. Bon globalement il est à la ramasse par contre.

    C'est sur que c'est beaucoup plus important sur un appareil sur batterie, mais j'ai constaté le même genre de courbe d'efficacité avec ma GTX 1070.
    Je me demande si ça ne vaut pas le coup de prendre un GPU un peu trop puissant/consommateur et le brider, même simplement, sans parler d'undervolting.
    Mais sans benchmarks en ce sens vu qu'ils sont tous faits en roue libre, faut tenter à l'aveugle. Et on ne sait pas si la courbe de perf est plutôt comme celle du 1260P où on va laisser des plumes, ou le 6800U où on se demande pourquoi AMD le laisse monter autant par défaut.

    Edit: bon en fait c'est normal cette différence de courbe, les specs fabricant sont AMD 6800U 15-28W et Intel i7-1260P 20-64W
    Dernière modification par 564.3 ; 07/07/2022 à 15h02.

Page 242 sur 313 PremièrePremière ... 142192232234235236237238239240241242243244245246247248249250252292 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •