Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 116 sur 313 PremièrePremière ... 1666106108109110111112113114115116117118119120121122123124126166216 ... DernièreDernière
Affichage des résultats 3 451 à 3 480 sur 9367
  1. #3451
    Citation Envoyé par Dross Voir le message
    Non pas d'après Nvidia justement, si on regarde leur graphique on vois bien la 1080Ti juste en dessous de la 2080 Super ce qui n'est évidement pas en mode RT
    Les perfs x2, c'est tout confondu, le ray tracing se faisant maintenant en parallèle.
    Ils comparent donc avec tout, sur une carte sans RT, ce sera donc juste la rasterisation.

  2. #3452
    Citation Envoyé par Endymion Voir le message
    https://www.nvidia.com/fr-fr/geforce...rds/30-series/

    Prix officiels :
    - 3090 : 1549 €
    - 3080 : 719 €
    - 3070 : 519 €

    Moi en voyant la 3080 :

  3. #3453
    Citation Envoyé par Pancho Villa Voir le message
    pas mieux.


  4. #3454
    ASUS : https://rog.asus.com/articles/gaming...3090-rog-asus/
    EVGA : https://www.evga.com/articles/01434/...rtx-30-series/
    MSI : https://www.msi.com/Landing/GeForce-RTX-30-Series
    ZOTAC : https://www.zotac.com/fr/page/zotac-...-rtx-30-series
    Plus classiques et avec des connecteurs 8 pins (du moins pour ASUS et ZOTAC), elles sont partiellement perforées (du moins pour ASUS et EVGA).

    Je suis plus intéressé par la founder cette fois, mais je suis un peu emmerdé car j'aurais un bon d'achat rueducommerce (reprise de ma 2080) et je ne pense pas que les founders soient disponibles ailleurs que chez nvidia.
    Ou alors je tente de revendre me carte au prix de reprise de rueducommerce (500€ quoi).
    Et j'attend aussi beaucoup de test sur le consommation, pour savoir si ma 650W tiendra le coup malgré que Nvidia conseille 750W avec une 3080.
    Dernière modification par Endymion ; 02/09/2020 à 02h27.

  5. #3455
    On risque de trouver des modèles OC chez les customs (et depuis les 20XX les OC ne sont plus juste les mêmes modèles de base avec un OC d'usine mais bien des GPU sélectionnés comme se comportant mieux une fois OC, donc ce n'est plus anodin).

    Perso j'attends les Asus 3080 (et OC de préférence), pas de connectique foireuse, des refroidisseurs qui on fait leurs preuves, et si les tests sont concluants, ça sera un achat day 1 ou presque.

  6. #3456
    Citation Envoyé par Dross Voir le message
    On risque de trouver des modèles OC chez les customs (et depuis les 20XX les OC ne sont plus juste les mêmes modèles de base avec un OC d'usine mais bien des GPU sélectionnés comme se comportant mieux une fois OC, donc ce n'est plus anodin).

    Perso j'attends les Asus 3080 (et OC de préférence), pas de connectique foireuse, des refroidisseurs qui on fait leurs preuves, et si les tests sont concluants, ça sera un achat day 1 ou presque.
    Je ne trouve pas que le connecteur 12pins soit foireux, c'est même plus optimisé (déjà on passe de 2-3 masses à une) que 2-3 8 pins si on les moyens de brancher en direct un jour.
    Il faut que ça évolue, ce qui me fait penser à la vidéo linustechtips avec l'alimentation 12V only, ça aussi ce serait bien (ça consomme tellement moins en idle).

    On ne sait pas encore pour le refroidissement des founders, il n'y a pas encore eu de tests.

  7. #3457
    Y'a que deux ventilateurs sur les founders, je ne pense pas que ça sera mieux que les customs, possiblement moins bien même.

    Le 12pins aujourd'hui (je parle pas de demain) c'est surtout un adapter qui se balade dans la tour pour faire la connexion 2*8, faut bien commencer quelque-part - certes - mais pour le consommateur ça ne lui apporte rien (pour la première génération).
    Puis j'ai changé de PSU cet été, du très haut de gamme, c'est pas demain que le changement de connecteur va m'intéresser.

  8. #3458
    Citation Envoyé par Rysalvire Voir le message
    Moi je pense que ça va partir sur une 3080 qui semble plutôt correct niveau tarif.
    Par contre j'ai aucune idée d'ou s'inscrire pour avoir des notifs pour la préco, je vois rien sur le site de Nvidia.
    Précommander une CG c'est vraiment pas la bonne idée. Pour savoir ce que la carte a dans le ventre il faut des benchs indépendant fait avec des versions commercialisées et ça ça ne peut pas arriver tant que la carte n'est pas sortie.
    D'autre part tu risques de te retrouver avec une carte de toute façon problématique les premières semaines s'il y a des soucis de drivers.

  9. #3459
    Annonce très intéressante mais je ne crois pas que ce positionnement prix / perf soit pour nos beaux yeux.
    On parle de Nvidia
    Mes 3 dernières cartes sont des Nvidia

    J'attends de voir les perfs réelles pures en rasterisation / hors RT et surtout l'offre AMD.
    Ça sent le coup de pression d'AMD et Nvidia a réagit en conséquence.

    Peut-être un retour d'AMD avec une excellente carte en conso + chauffe + rasterisation + RT première version car c'est passage obligé pour la com. Et Nvidia qui pousse à fond sur le RT.
    Ça va être intéressant

  10. #3460
    Citation Envoyé par zeXav Voir le message
    Annonce très intéressante mais je ne crois pas que ce positionnement prix / perf soit pour nos beaux yeux.
    On parle de Nvidia
    Mes 3 dernières cartes sont des Nvidia

    J'attends de voir les perfs réelles pures en rasterisation / hors RT et surtout l'offre AMD.
    Ça sent le coup de pression d'AMD et Nvidia a réagit en conséquence.

    Peut-être un retour d'AMD avec une excellente carte en conso + chauffe + rasterisation + RT première version car c'est passage obligé pour la com. Et Nvidia qui pousse à fond sur le RT.
    Ça va être intéressant
    C'est ce que j'ai lu aussi sur le Reddit AMD, où c'est un peu la panique depuis les annonces, et où les gens attendent une éventuelle bonne surprise d'AMD qui expliquerait ces prix.
    Après au-delà du RTX, dont je me fous pas mal, c'est le DLSS qui peut être super intéressant, pour peu que les jeux soient compatibles avec.

  11. #3461
    AMD ou les consoles Next Gen qui auraient pu faire pencher certains joueurs du côté obscur.

    Peut-être aussi le contexte de crise mondiale qui vient tempérer les ardeurs de Nvidia avec un certain retour à la raison.
    Façon de parler car 700-800€ ça reste un bon budget gamers enthousiastes

    Au doigt mouillé et comme on est dans le topic des rumeurs, je dirais offre AMD pour concurrencer la 3070, approcher la 3080, très bonne en rasterisation mais beaucoup moins sur tout le reste des features "RT".

    Et ça laisse le marché libre pour une seconde vague au delà des 3080 pour enfoncer le clou pour qui pourra.
    L'énorme gap entre la 3080 et 3090 n'est pas anodin...

  12. #3462
    Citation Envoyé par zeXav Voir le message
    AMD ou les consoles Next Gen qui auraient pu faire pencher certains joueurs du côté obscur.

    Peut-être aussi le contexte de crise mondiale qui vient tempérer les ardeurs de Nvidia avec un certain retour à la raison.
    Façon de parler car 700-800€ ça reste un bon budget gamers enthousiastes

    Au doigt mouillé et comme on est dans le topic des rumeurs, je dirais offre AMD pour concurrencer la 3070, approcher la 3080, très bonne en rasterisation mais beaucoup moins sur tout le reste des features "RT".

    Et ça laisse le marché libre pour une seconde vague au delà des 3080 pour enfoncer le clou pour qui pourra.
    L'énorme gap entre la 3080 et 3090 n'est pas anodin...
    ça serait très étonnant qu'il n'y ait pas une deuxième vague (je devrais pas trop utiliser ce terme en ce moment ) avec une 3080 Ti pour combler le trou énorme entre la 3080 et la 3090, et une 3060 pour contrer les potentielles cartes AMD.

  13. #3463
    Et bien, j'ai bien fait de ne pas acheter une 2080Ti l'été dernier...



  14. #3464
    Y a RTX IO aussi qui semble intéressant pour soulager le cpu et accélérer les chargements.
    Certaines données comme la décompression des textures transitent directement vers la CG sans passer par le cpu.
    À voir si le jeu doit être adapté ou non, ou bien si ça passe par une maj des pilotes. Ça passe par DirectStorage de DX12. Donc à suivre.

  15. #3465
    Curieux de voir ce que AMD va proposer. La conso électronique des 3000+ me fait un peu peur.
    Je sais pas si la 3070 pourra tenir 5 ans comme ma 1070 mais ça pourrait être une candidate intéressante. Seulement 8go de vram en revanche j'ai peur que ça soit limite dans le temps... Mon vieux cpu la bridera inévitablement mais il devrait suffire pour 60fps en 1080p avec les dernières techno bien gourmandes type rtx.

  16. #3466
    Rien sur un éventuel DLSS 3.0. Peut-être que nvidia en garde sous le coude pour le jour où AMD va répliquer.

  17. #3467
    #TEAM hémorroïdes. 2080Super - une pensée également à ceux qui ont été les béta testeurs avec les 20X0 pas super.

    La génération 20XX, c'était vraiment de l'enculage.

  18. #3468
    En vrai, Nvidia a lâché du lourd alors qu'AMD est perdu derrière. Donc soit Nvidia pense qu'AMD pour le coup à un vrai truc avec Big navi et a mit les bouchées doubles, ou alors c'est pour mettre la honte aux consoles, ou alors le process Samsung est vraiment pas cher comparé à TSMC. Voir tout en semble.
    Bref vraiment envie de voir ce qu'AMD à dans le bide la, mais en vrai je pense qu'ils vont encore être largué... Need Navi 21 = 3080 pour 600€, ça devrait être pas trop mal comme ça.

    Pour le moment je salive sur une 3080, venant d'une 1080 ça devrait pas mal

  19. #3469
    Pierre Dandumont à dit un truc intéressant sur Twitter



    Le tarif annoncé par Nvidia serait que pour un stock très faible(en gros un prix d'appel) et le prix normal par la suite sera plus haut.

    - - - Mise à jour - - -

    Citation Envoyé par Herman Speed Voir le message
    #TEAM hémorroïdes. 2080Super - une pensée également à ceux qui ont été les béta testeurs avec les 20X0 pas super.

    La génération 20XX, c'était vraiment de l'enculage.
    Il faut jamais prendre les 1ers modèles d'une nouvelle technologie car tu te fais toujours pigeonner.

  20. #3470
    Citation Envoyé par Herman Speed Voir le message
    #TEAM hémorroïdes. 2080Super - une pensée également à ceux qui ont été les béta testeurs avec les 20X0 pas super.

    La génération 20XX, c'était vraiment de l'enculage.
    Je ne comprends pas ce type de réflexion. Ceux qui ont acheté des 20XX en ont déjà profité pendant des mois / années, ce qui doit entrer dans le calcul.

  21. #3471
    Citation Envoyé par XWolverine Voir le message
    Le truc, c'est que évolution ou pas, inflation ou pas, non optimisation des jeux ou pas, tu peux toujours mettre 200€ dans un CPU pour jouer tranquille, 300€ pour jouer confortable + softs de calcul tranquille (et au-dessus seulement pour du lourd en calcul), mais en GPU, c'est mort, les prix vont avoir doublé en quelques années pour jouer au mêmes types de jeux.
    On peut toujours jouer à tous les jeux indés, les rétro-gros pixel, les jeux de stratégie/gestion, les F2P online pas trop gourmands.
    C'est maintenant surtout les gros triple/quadruple A qui exploitent spécifiquement une grosse puissance tandis qu'à l'époque c'était tous les jeux qui bénéficiaient des progrès des cartes graphiques.

    L'augmentation de la qualité des graphisme suit aussi une courbe qui s'aplatit, au début on s'extasiait sur des jeux comme Quake en bilinear filtering en 800*600 à 50FPS parce que c'était révolutionnaire par rapport au rendu software, les progrès ont faits des pas de géants mais aujourd'hui entre un AAA moderne et un "vieux" AAA d'il y a une ou plusieurs génération le gap ne crève plus autant les yeux et de nouveaux effets plus subtiles sont des gouffres pour les cartes.

    Il faut de plus en plus de puissance pour des gains visuels moindres, le tout est multiplié par la définition parce qu'un jeu en 2160p sera vachement plus gourmand qu'en 1080p qui sera vachement plus gourmand que du 720p. C'est un multiplicateur "invisible" même si objectivement flagrant sur une comparaison côte à côte parce qu'on s'habitue très vite à une taille/définition d'écran supérieure.
    La sensation de "wahou putain c'est grand" quand on change d'écran ne dure pas très longtemps et le surplus de confort devient vite standard même si ca fait des tonnes de pixels en plus à calculer derrière.

    Je parle de sensation de gain visuel parce que si on avait un gain aussi révolutionnaire que l'arrivée du glide aujourd'hui, le prix demandé passerait sans aucun problème, c'est un rapport gain/prix qui subjectivement semble avoir beaucoup diminué à cause de ces facteurs.

    De manière objective il y a aussi la fabrication des puces: un die de GPU est vachement plus gros qu'un CPU donc il y a plus de perte sur le wafer.

    Les CPU ont quand à eux carrément arrêté d'évoluer, un vieux CPU d'il y a 10ans marche quasiment aussi bien, devant les petites optimisations le plus gros vecteur d'augmentation de perf est le nombre de cœurs qui ne bénéficie pas tellement aux jeux.

    Mais bien entendu ca veut pas dire que ces fdp de nVidia ne se goinfrent pas aussi en plus par dessus le marché.

  22. #3472
    Il y a des gens qui postent à 2h du matin ?

    Pour ma part, je vais attendre un peu, je note que le prix de référence de la 3080 me semble moins élevé que la 2080 à sa sortie, si cela se confirme je dirais une petite prière à AMD, je ne vois qu'eux pour avoir pousser Nvidia à baisser ses tarifs, sinon pourquoi se gêner.

    Pour la consommation, j'utilise ce site : OuterVision® Power Supply Calculator, il est déjà à jour avec les 30XX et il permet d'ajuster les différentes fréquences des cartes vidéos. Pour ma config avec une RTX3080, il me recommande une alimentation de 650W.

    Et je vais aussi attendre les tests de toutes les cartes des autres constructeurs, en croisant les doigts qu'elles ne soient pas bidouillées avec des firmwares spécialement faits pour la presse.

  23. #3473
    Citation Envoyé par Mastaba Voir le message
    On peut toujours jouer à tous les jeux indés, les rétro-gros pixel, les jeux de stratégie/gestion, les F2P online pas trop gourmands.
    C'est maintenant surtout les gros triple/quadruple A qui exploitent spécifiquement une grosse puissance tandis qu'à l'époque c'était tous les jeux qui bénéficiaient des progrès des cartes graphiques.

    L'augmentation de la qualité des graphisme suit aussi une courbe qui s'aplatit, au début on s'extasiait sur des jeux comme Quake en bilinear filtering en 800*600 à 50FPS parce que c'était révolutionnaire par rapport au rendu software, les progrès ont faits des pas de géants mais aujourd'hui entre un AAA moderne et un "vieux" AAA d'il y a une ou plusieurs génération le gap ne crève plus autant les yeux et de nouveaux effets plus subtiles sont des gouffres pour les cartes.

    Il faut de plus en plus de puissance pour des gains visuels moindres, le tout est multiplié par la définition parce qu'un jeu en 2160p sera vachement plus gourmand qu'en 1080p qui sera vachement plus gourmand que du 720p. C'est un multiplicateur "invisible" même si objectivement flagrant sur une comparaison côte à côte parce qu'on s'habitue très vite à une taille/définition d'écran supérieure.
    La sensation de "wahou putain c'est grand" quand on change d'écran ne dure pas très longtemps et le surplus de confort devient vite standard même si ca fait des tonnes de pixels en plus à calculer derrière.

    Je parle de sensation de gain visuel parce que si on avait un gain aussi révolutionnaire que l'arrivée du glide aujourd'hui, le prix demandé passerait sans aucun problème, c'est un rapport gain/prix qui subjectivement semble avoir beaucoup diminué à cause de ces facteurs.

    De manière objective il y a aussi la fabrication des puces: un die de GPU est vachement plus gros qu'un CPU donc il y a plus de perte sur le wafer.

    Les CPU ont quand à eux carrément arrêté d'évoluer, un vieux CPU d'il y a 10ans marche quasiment aussi bien, devant les petites optimisations le plus gros vecteur d'augmentation de perf est le nombre de cœurs qui ne bénéficie pas tellement aux jeux.

    Mais bien entendu ca veut pas dire que ces fdp de nVidia ne se goinfrent pas aussi en plus par dessus le marché.
    Pour moi c'est surtout une question de résolution et FPS. Pour la majorité des gens qui jouent en 1080p/60 fps, une carte comme la RX590 ou la GTX 1660 suffisent largement, et d'une génération à une autre on reste sur la même gamme de prix.
    J'ai pas payé plus chère ma RX480 par rapport à la GTX770 que j'avais avant, et j'espère trouver une remplaçante d'ici la fin de l'année dans la même gamme de prix.

    Par contre, le gaming en résolution 1440p et/ou à 144 fps se démocratise auprès d'une partie des joueurs les plus aisés (vu le prix de l'écran qui va avec déjà...), sans parler de la 4k qui reste marginale mais qui est un gros argument marketing. Et là oui il faut des cartes bien plus costauds et qui coûtent bien plus chers.

    Je suis pas du tout un expert mais il me semble qu'à l'époque de ma GTX770, il y avait une GTX780 au-dessus mais c'était tout, il n'y avais pas 2 autres étages de puissance/coût dans les gammes des constructeurs. Pour moi c'est l'augmentation des résolutions qui provoque cela.
    Parce que clairement, même avec les technos genre RTX, une 3080 voir même une 3070 ça n'a aucun intérêt si on joue en 1080p/60 fps ou même 1080p/144 fps.

  24. #3474
    Citation Envoyé par Gaspard Hepar Voir le message
    Je ne comprends pas ce type de réflexion. Ceux qui ont acheté des 20XX en ont déjà profité pendant des mois / années, ce qui doit entrer dans le calcul.
    Un avis qui vaut ce qu'il vaut, soit rien :

    Les jeux qui utilisent le RTX se comptent sur les doigts de la main avec des résultats pas super fameux (Quake RTX qui fait pitié et qui achève une 2080 super), la progression 10X0 vers 20X0 fut faible.
    Maintenant avec les 30X0, on constaterai une progression de 60 % alors qu'avec la techno précédente ce fut de l'ordre de 20 à 30%.

    J'ai l'impression d'avoir payé un Premium Pass sur base de promesses inachevées. Le seul jeu qui m'a fait plaisir avec les technos Nvidia ce fut CONTROL.
    Je n'achète pas du matériel PC sur base de calculs d'amortissement coût/passion, j'achète sur des promesses d'usage en jeu.

  25. #3475
    Citation Envoyé par zeXav Voir le message
    AMD ou les consoles Next Gen qui auraient pu faire pencher certains joueurs du côté obscur.
    Peut-être aussi le contexte de crise mondiale qui vient tempérer les ardeurs de Nvidia avec un certain retour à la raison.
    Façon de parler car 700-800€ ça reste un bon budget gamers enthousiastes
    Et puis le fait que les 20xx ne se seraient pas si bien vendues que ça du coup ils ont peut-être compris qu'ils avaient abusé sur l'augmentation de prix... Enfin sans doute un mélange de tout ça à la fois.

    Citation Envoyé par zeXav Voir le message
    Et ça laisse le marché libre pour une seconde vague au delà des 3080 pour enfoncer le clou pour qui pourra.
    L'énorme gap entre la 3080 et 3090 n'est pas anodin...
    Comme d'habitude depuis des années : il y aura un refresh dans un an (Ti ou SUPER) et une nouvelle architecture dans deux ans. Une seconde vague la même année je n'y crois pas (faut quand même vendre celles produites) mais un éventuel ajustement tarifaire en fonction des cartes d'AMD, oui.

    Sinon pour garder une certaine perspective dans tout ce hype, la liste à jour des jeux RT et DLSS : https://www.rockpapershotgun.com/202...-games-so-far/
    • RT et DLSS dispo : 8 jeux
    • RT et DLSS en attente : 7 jeux
    • RT seul dispo : 6 jeux
    • RT seul en attente : 6 jeux
    • DLSS seul dispo : 6 jeux
    • DLSS seul en attente : 19 jeux

    Quelque soit le prix des cartes 30x0, on paie le RT et le DLSS avec.
    Si on ne joue pas assidûment à ces quelques jeux les exploitant, ce sera intéressant de comparer les cartes et les futurs annonces d'AMD hors-"technologies propriétaires peu adoptées".
    Et si on a le temps d'attendre, ce sera aussi intéressant de comparer les performances en DXR (DirectX Raytracing) qui est le raytracing choisi par AMD (et qui va sans doute dominé rapidement le marché parce que (1) contrairement au raytracing RTX, le DXR est intégré à DirectX et n'est pas limité à une seule marque de GPU, et (2) DXR est le raytracing des consoles vu que consoles = AMD).

    Et avec tout ça, je suis déçu que Humankind et Crusader Kings 3 n'aient pas de raytracing
    Dernière modification par exPomme ; 02/09/2020 à 11h24.

  26. #3476
    Citation Envoyé par exPomme Voir le message
    Et si on a le temps d'attendre, ce sera aussi intéressant de comparer les performances en DXR (DirectX Raytracing) qui est le ray tracing choisi par AMD (et qui va sans doute dominé rapidement le marché parce que (1) contrairement au raytracing RTX, le DXR est intégré à DirectX et n'est pas limité à une seule marque de GPU, et (2) DXR est le raytracing des consoles vu que consoles = AMD).
    DXR = RTX car c'est Nvidia qui à donné l'API RTX clé en main à Microsoft pour faire DirectX Raytracing.

  27. #3477
    Je suis quand même choqué que personne s'inquiète de la conso. 320W de TDP la 3080, 350W la 3090, c'est quand même une sacrée augmentation. Je me demande ce qui a pris à nVidia, et pourquoi ils n'ont pas visé une génération avec haut de gamme à 220-250W comme avec les 20x0. Selon les stats Steam les joueurs sont encore à 70%+ en 1080p ou inférieur, la 4K représente 1%... Donc le besoin pour ces 3080/3090 est limité à 1% des joueurs (allez, 2%, je mets les joueurs VR dans le lot). Et le DLSS annule la baisse de performances du RTX, autrement dit un jeu proposant RTX + DLSS tourne aussi bien avec tout ça activé que sans (merci l'upscaling).

    Je suis partagé à mort ; d'un côté une 3080 pour mon casque VR, ce serait la clé pour ne plus faire de compromis sur les réglages et avoir le meilleur rendu possible (ou me permettre un upgrade vers un casque plus défini), mais d'un autre côté ma 2070S consomme déjà beaucoup je trouve, et rajouter encore +100W à dissiper dans ma tour ça va encore bien me faire suer en été. C'est pas comme si les étés étaient de plus en plus chauds avec canicules à répétition.

    Je vais sagement attendre de voir la riposte d'AMD, il est quasiment sûr qu'nVidia a tiré le premier parce qu'ils ont eu des échos de ce que préparent les rouges.

  28. #3478
    Je m'en suis inquiété, je vais guetter les tests sur cet aspects.
    Je croise les doigts pour que me 650W Platinum suffise pour une 3080 avec un 3700X...

    Sinon je peux faire une projection avec un simulateur de conso PSU en ajoutant la différence de consommation 2080/3080 ; ma 2080 est une RAG un poil overclokée, donc je dirais 240W, soit une augmentation de 80W.

    edit : je serais à 450-470W actuellement, donc au pire ça donnerait 550W, donc au-dessus de 80% de la capacité de l'alim, pas le mieux mais ça passe.
    Dernière modification par Endymion ; 02/09/2020 à 11h46.

  29. #3479
    Citation Envoyé par JulLeBarge Voir le message
    Pour moi c'est surtout une question de résolution et FPS. Pour la majorité des gens qui jouent en 1080p/60 fps, une carte comme la RX590 ou la GTX 1660 suffisent largement, et d'une génération à une autre on reste sur la même gamme de prix.
    J'ai pas payé plus chère ma RX480 par rapport à la GTX770 que j'avais avant, et j'espère trouver une remplaçante d'ici la fin de l'année dans la même gamme de prix.

    Par contre, le gaming en résolution 1440p et/ou à 144 fps se démocratise auprès d'une partie des joueurs les plus aisés (vu le prix de l'écran qui va avec déjà...), sans parler de la 4k qui reste marginale mais qui est un gros argument marketing. Et là oui il faut des cartes bien plus costauds et qui coûtent bien plus chers.

    Je suis pas du tout un expert mais il me semble qu'à l'époque de ma GTX770, il y avait une GTX780 au-dessus mais c'était tout, il n'y avais pas 2 autres étages de puissance/coût dans les gammes des constructeurs. Pour moi c'est l'augmentation des résolutions qui provoque cela.
    Parce que clairement, même avec les technos genre RTX, une 3080 voir même une 3070 ça n'a aucun intérêt si on joue en 1080p/60 fps ou même 1080p/144 fps.
    Ah, et y a aussi le fameux taquet psychologique "ULTRA" qui demande beaucoup de ressources supplémentaires pour un gain marginal par rapport au "HIGH".

    - - - Mise à jour - - -

    Citation Envoyé par Qiou87 Voir le message
    Je suis quand même choqué que personne s'inquiète de la conso. 320W de TDP la 3080, 350W la 3090, c'est quand même une sacrée augmentation. Je me demande ce qui a pris à nVidia, et pourquoi ils n'ont pas visé une génération avec haut de gamme à 220-250W comme avec les 20x0. Selon les stats Steam les joueurs sont encore à 70%+ en 1080p ou inférieur, la 4K représente 1%... Donc le besoin pour ces 3080/3090 est limité à 1% des joueurs (allez, 2%, je mets les joueurs VR dans le lot). Et le DLSS annule la baisse de performances du RTX, autrement dit un jeu proposant RTX + DLSS tourne aussi bien avec tout ça activé que sans (merci l'upscaling).

    Je suis partagé à mort ; d'un côté une 3080 pour mon casque VR, ce serait la clé pour ne plus faire de compromis sur les réglages et avoir le meilleur rendu possible (ou me permettre un upgrade vers un casque plus défini), mais d'un autre côté ma 2070S consomme déjà beaucoup je trouve, et rajouter encore +100W à dissiper dans ma tour ça va encore bien me faire suer en été. C'est pas comme si les étés étaient de plus en plus chauds avec canicules à répétition.

    Je vais sagement attendre de voir la riposte d'AMD, il est quasiment sûr qu'nVidia a tiré le premier parce qu'ils ont eu des échos de ce que préparent les rouges.
    Y a Téraboule quand même:

  30. #3480
    Citation Envoyé par revanwolf Voir le message
    DXR = RTX car c'est Nvidia qui à donné l'API RTX clé en main à Microsoft pour faire DirectX Raytracing.
    Source ?
    À moi, ça donne plutôt l'impression qu'AMD a travaillé en coulisses avec Microsoft pour ne pas que le RTX de nVidia soit la seule solution et en plus une solution fermée (de la même façon qu'AMD a travaillé avec VESA et HDMI sur le Freesync pour contrer le G-Sync). D'autant plus que Microsoft avait intérêt à développer une technologie raytracing avec AMD pour la XBOX (qui utilise DirectX). Que les cartes nVidia soient compatibles DRX ne veut pas dire que nVidia ait donné l'API à Microsoft ; je vois plutôt ça comme nVidia qui, en annonçant dès le début la compatibilité de ses cartes avec DXR, essaie de ne pas reproduire ce qui s'est passé avec G-Sync / Freesync (les cartes G-Sync ont pris tardivement en charge le Freesync).

    Mais effectivement, il est possible que ce soit nVidia qui se soit rapproché de Microsoft en comptant sur leur avance et leur domination du marché GPU pour que la généralisation du raytracing leur soit profitable.
    Dernière modification par exPomme ; 02/09/2020 à 13h35.

Page 116 sur 313 PremièrePremière ... 1666106108109110111112113114115116117118119120121122123124126166216 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •