Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 264 sur 313 PremièrePremière ... 164214254256257258259260261262263264265266267268269270271272274 ... DernièreDernière
Affichage des résultats 7 891 à 7 920 sur 9368
  1. #7891
    Citation Envoyé par Baalim Voir le message
    Va falloir prévenir Nvidia qu'ils roulent à contresens...

    https://www.bfmtv.com/tech/gaming/tr...210070026.html
    J'allais taper un truc et tomber dans le bait, mais la modération a dit qu'il fallait arrêter sur ce sujet
    Grand maître du lien affilié

  2. #7892
    Citation Envoyé par Olive Voir le message
    Arg, on dirait que les AMD vont consommer autant que les Nvidia.

    https://www.cowcotland.com/news/8355...-rtx-4090.html

    Je ne garantis pas la non présence de bullshit dans ces graphiques...
    Ils ne sont pas magiciens chez AMD, je ne vois pas trop comment ils pourraient rester au contact avec Nvidia sur les perfs tout en consommant moins.

  3. #7893
    C'est donc la faute d'NVidia qui pousse le pauvre AMD à faire des cartes puissantes qui consomment trop. #PoorAMD.

  4. #7894
    Citation Envoyé par Maalak Voir le message
    C'est donc la faute d'NVidia qui pousse le pauvre AMD à faire des cartes puissantes qui consomment trop. #PoorAMD.
    Ne tombons pas dans la bête guerre de clocher, ça n'avance à rien. Clairement il y a plusieurs effets ; la concurrence (limitée) pousse certains trucs, mais le marché également. Si les cartes à 450W et 1500€ sont rentables c'est que des gens désirent ces produits. Clairement pas la majorité mais c'est pas grave: la demande existe et ça vaut visiblement le coup de les fabriquer.

    Regardez les tests: la 4090 consomme moins qu'une 3090Ti et l'explose littéralement en 4K (ce pour quoi elle à un minimum de sens, et encore si vous avez un écran 4K 120Hz).

    J'essaie d'être positif: la 1e carte, la plus "poussée" en terme de perfs, a déjà une efficacité énergétique qui éclate la génération précédente. J'ai hâte de voir ce qui sortira dans les segments qui génèrent le gros des ventes à savoir 100-300W.

  5. #7895
    Citation Envoyé par Maalak Voir le message
    C'est donc la faute d'NVidia qui pousse le pauvre AMD à faire des cartes puissantes qui consomment trop. #PoorAMD.
    Ça n'est absolument pas le sens de mon post. C'était pour tempérer les espérances concernant un miraculeux ratio perf/watt chez AMD.

    - - - Mise à jour - - -

    Citation Envoyé par Qiou87 Voir le message
    Si les cartes à 450W et 1500€ sont rentables c'est que des gens désirent ces produits. Clairement pas la majorité mais c'est pas grave: la demande existe et ça vaut visiblement le coup de les fabriquer.
    Les gens ne désirent pas des cartes à 450W pour 1500 balles. La demande n'a pas changé depuis l'apparition des premiers GPU: ils veulent de la perf. Personne n'a réclamé des tarifs prohibitifs et des conso énormes. Mais les constructeurs ont réalisé qu'on pouvait pousser le curseur très loin car pour une certaine frange du marché la consommation et le prix ne sont pas un obstacle du moment qu'on vend des perfs.

    Je ne souscris absolument pas à l'argument qui voudrait que c'est la demande qui oriente l'industrie, une demande ça s'oriente et ça s'entretient justement (il n'y a qu'à regarder l'industrie du tabac). Nvidia a très judicieusement supprimé sa gamme titan pour les renommer xx90, cela a complètement changé la perception des gens vis à vis de ces produits extrêmes. Avant la Titan c'était cette carte à part, pas vraiment en compétition avec le reste du lineup, le top pour un gamer c'était la x80Ti et le possesseur de ces cartes n'avait pas l'impression d'avoir perdu le concours de kiki face aux titans parce que celles-ci étaient justement dans une autre catégorie bien séparée. Les titans se traînaient même une image de carte pour gogo si on était "que" joueur. Avec le renommage le curseur s'est déplacé, les titans ne sont plus dans une catégorie à part et viennent chercher les joueurs qui ne regardent pas à la dépense dans un segment qui était celui des xx80Ti.
    Dernière modification par Kimuji ; 11/10/2022 à 19h30.

  6. #7896
    Je regarde les retours de la 4090 et...ouah !

    Apparemment, nvidia a surdimensionné le refroidissement, elle consomme moins que la 3090 et a des performances *1.8.

    Moi qui m'attendais à un gros désastre, dommage pour le prix, sinon j'aurais remplacé ma 2080 ti (je crains le space invader), rien que sur cyberpunk, mes performances seraient multiplié par 3-3.5.

    Je me demande si ils vont faire une 4080 Ti.
    Citation Envoyé par Bioware
    lots of speculation from everyone !! :/

  7. #7897
    Tant mieux pour eux s'ils arrivent à vendre un peu plus de cartes ultra haut de gamme qu'avant, mais j'espère surtout qu'ils vont faire du matos aussi compétitif dans la gamme autours de 200W, où il y a aussi Intel maintenant.

  8. #7898
    En regardant le dernier LTT sur la 4090 on tombe sur ça :





    Alors j'me dis : bah wai, en RT + DLSS 3 forcément et... non. RT OFF, pas de DLSS.

    Oui CP2077 est un jeu particulier mais wow. Juste wow. Surtout que la 3090 Ti est dans le même genre de TDP (450W), le gain n'est pas lié au poussage de watts.

  9. #7899
    Particulier oui. Surtout que par exemple, chez gamespot/hardware unboxed:



    Et avec du RT sans DLSS chez Guru3D:



    Chez gamers nexus, à 29:36 bench de Cyberpunk 2077, RT + DLSS 2 (DLSS 2 aussi pour la 4090):



    Alors je voudrais pas dire que LTT c'est des branquignoles mais... ou bien LTT c'est des branquignoles ou alors il y a une coquille et le DLSS3 (+ RT?) est activé. On voit clairement sur le graph de Gamespot que les Radeons ne sont pas du tout larguées par les 3xxx lorsque le RT est désactivé.
    Dernière modification par Kimuji ; 12/10/2022 à 06h24.

  10. #7900
    Ils disent avoir testé plusieurs fois justement (ils sont aussi étonnés).

    Et ton premier exemple est juste en "High" pas en "Ultra" on ne compare pas la même chose.

    (il faudrait voir d'autres comparatifs en Ultra 4K sans DLSS/RT pour voir s'ils se sont vraiment plantés)


    ps: en fouillant ils ont ptet trouvé un soucis en effet, affaire à suivre !
    Dernière modification par Dross ; 12/10/2022 à 06h35.

  11. #7901
    Citation Envoyé par Dross Voir le message
    Ils disent avoir testé plusieurs fois justement (ils sont aussi étonnés).

    Et ton premier exemple est juste en "High" pas en "Ultra" on ne compare pas la même chose (et sans RT, donc ton deuxième exemple aussi n'est pas équivalent).
    Les trois liens que je donne ont quand même les ordres des grandeurs similaires entre les GPUs, celui de LTT est complètement différent. Le premier est en high certes mais c'est pas le passage de High à Ultra sans RT qui va faire que deux cartes (RX 6950 et RTX 3090) qui faisaient strictement jeu égal en high se retrouvent d'un coup avec presque un écart du simple au double en Ultra. La RX 6950 sans RT aurait seulement 28 fps selon LTT et ne perdrait que 5 fps (23 donc) avec le RT activé si on en croit Guru3D, ça aussi ça n'a pas de sens, le RT devrait défoncer les perfs plus que ça sur une Radeon.

    Chez TechPowerUp, 4K et sans RT mais sans précision sur le réglage, probablement de l'ultra vu les framerates obtenus:



    LTT sont les seuls à trouver un écart si grand et en plus des cartes AMD qui se comportent si mal, il y a une couille dans leur test.

    Attention ça reste des très bons scores sur les graphs que j'ai linké, mais la RTX 4090 qui met deux fois et demi les perfs de la RTX 3090 Ti sans même le DLSS alors que partout ailleurs c'est autour des +60~70%... c'est très bizarre.

  12. #7902
    Peut être la course à la publication de tests qui tourne mal.......

    Avec toutes ces tecnos ca devient sans doute laborieux de faire des tests comparatifs multi jeux de qualité sans y passer du temps, savoir comment représenter les résultats de façon lisible etc......

    RT, DLSS, Resizable BAR, des trucs décrits ici dont je ne souviens même plus le nom, il y a actuellement trop de paramètres pour (peut être) trop peu de temps de tests......

    A force de vouloir inventer des tonnes de trucs en surcouche sans arrêt à activer etc ils est possible que les testeurs eux même n'y comprennent plus rien en vérité....

  13. #7903
    Citation Envoyé par Kimuji Voir le message
    Les trois liens que je donne ont quand même les ordres des grandeurs similaires entre les GPUs, celui de LTT est complètement différent. Le premier est en high certes mais c'est pas le passage de High à Ultra sans RT qui va faire que deux cartes (RX 6950 et RTX 3090) qui faisaient strictement jeu égal en high se retrouvent d'un coup avec presque un écart du simple au double en Ultra.
    Il suffirait d'une version d'OS / Nvidia particulière et d'une option à la con pour tanker les perfs dans des cas particuliers (ça s'est déjà vu), mais en effet, dans le thread twitter que j'ai linké ça parle d'une option de scaling qui aurai été activée par défaut (donc qui aurai foutu la merde dans les autres mesures aussi ?).

    Ils disent qu'ils vont faire une maj, à suivre.

  14. #7904
    Citation Envoyé par moreblues Voir le message
    Peut être la course à la publication de tests qui tourne mal.......

    Avec toutes ces tecnos ca devient sans doute laborieux de faire des tests comparatifs multi jeux de qualité sans y passer du temps, savoir comment représenter les résultats de façon lisible etc......

    RT, DLSS, Resizable BAR, des trucs décrits ici dont je ne souviens même plus le nom, il y a actuellement trop de paramètres pour (peut être) trop peu de temps de tests......

    A force de vouloir inventer des tonnes de trucs en surcouche sans arrêt à activer etc ils est possible que les testeurs eux même n'y comprennent plus rien en vérité....
    D'après le lien de Dross certains tests auraient été faits par erreur avec le dynamic scaling activé, ce qui a pour effet de booster les perfs dans ces cas là (le jeu baisse la définition dynamiquement pour maintenir le framerate au max). C'est sûr qu'avec la pression et les benchs à la chaîne pour sortir un test pile le jour de la levée du NDA les erreurs de manip ça arrive.

    Bref d'ici à ce que LTT refasse ses tests avec des réglages identiques pour toutes les cartes, ce qui ressort des divers reviews (Techspot, TechPowerUp, Gamers Nexus, Guru3D etc.) c'est que la RTX 4090 offre en moyenne autour de 60-70% de performance brute en plus par rapport à la RTX 3090 Ti. Ce qui est un excellent résultat étant donné que c'est fait sans hausse de consommation.
    Dernière modification par Kimuji ; 12/10/2022 à 07h03.

  15. #7905
    Ben voilà.
    Il ne reste plus qu'à avoir des cartes qui offrent la même puissance que la 3090, pour 60-70% de conso et d'euros en moins...

  16. #7906
    La RTX 4080 12Go si on en croit les bench fournis par Nvidia est justement dans les eaux de la RTX 3090.

  17. #7907
    Citation Envoyé par honu Voir le message
    Il ne reste plus qu'à avoir des cartes qui offrent la même puissance que la 3090, pour 60-70% de conso et d'euros en moins...
    Si on joue en 4K 60Hz oui. Sinon je peine un peu à voir l'intérêt si on peut encore bénéficier de moins cher, et moins consommateur, un cran en dessous (pour le joueur en 1440p par exemple). Les testeurs semblaient bien à la peine pour montrer à quoi sert la RTX4090 quand tu vois qu'elle fout à terre le CPU de joueur le plus rapide dans énormément de jeux, et affiche tellement d'images/sec même en 4K qu'on se demande qui va pleinement l'exploiter (les écrans 4K 120Hz sont encore rares et il faut visiblement approcher 1KEUR pour avoir un truc correct).

  18. #7908
    D'un côté, c'est pas plus mal qu'après ~10 ans où on se disait "bof, un i5 2500K ça bottleneck pas grand chose", on arrive enfin sur des GPUs qui sont plus rapide que les CPUs, même dans des résolutions "honnêtes" (et pas du 640x480, quoi).

  19. #7909
    La 4090 est quasi futur proof pour la 8K. Aller, la prochaine generation sera la bonne.

  20. #7910
    Citation Envoyé par skyblazer Voir le message
    D'un côté, c'est pas plus mal qu'après ~10 ans où on se disait "bof, un i5 2500K ça bottleneck pas grand chose", on arrive enfin sur des GPUs qui sont plus rapide que les CPUs, même dans des résolutions "honnêtes" (et pas du 640x480, quoi).
    Tu exagères, ça fait un bon moment que les GPUs éclatent un i5-2500K - depuis qu'on a des GPUs capables de fournir 100fps+ en fait. Après évidemment si on fait que du jeu indé, un 2500K tourne encore, mais alors pourquoi regarder les gros GPUs haut-de-gamme?

    Là on parle d'un GPU qui va presque plus vite que le CPU le plus rapide de tous ou quasi (5800X3D) dans la définition la plus élevée qu'on trouve sur des écrans gamer. Le 8K c'est gentil d'en rêver mais sorti d'une TV 80" c'est quoi l'usage? J'ai un 32" sur mon bureau et ça prend déjà une place folle, j'ai pas besoin d'une dalle 3x plus grande. 32" en 4K c'est déjà hyper fin comme affichage, le gain à passer cette taille de dalle en 8K est anecdotique (alors que la perte de performances est abyssale). Reste l'usage VR, que j'ai personnellement, mais on parle d'une mini-niche là (suffit de voir la fréquence des nouveautés dans ce secteur, ça se concentre beaucoup sur des casques autonomes avec des Snapdragon qui ont pas 1/10e de la puissance d'une 4090).

    Ce que je trouve drôle c'est surtout qu'nVidia introduit le super DLSS3 mais le fait avec une carte qui n'en a absolument pas besoin puisque la 4090 tient le 4K 60Hz avec Raytracing sans broncher. Evidemment ce sera présent plus bas dans la gamme, et encore heureux, parce que pour l'instant la "vitrine" pour le DLSS3 n'est pas très cohérente.

  21. #7911
    Le grand truc c'est de voir a quel point l'UE5 va mettre a genoux nos configs, et je pense qu'on a le temps
    Grand maître du lien affilié

  22. #7912
    Citation Envoyé par JPKoffe Voir le message
    La 4090 est quasi futur proof pour la 8K. Aller, la prochaine generation sera la bonne.
    J'espère que tu ne te bases pas sur cyberpunk pour affirmer ça

    Sauf à miser 24/24 sur le DLSS3, bien entendu.

  23. #7913
    Citation Envoyé par Qiou87 Voir le message
    Tu exagères, ça fait un bon moment que les GPUs éclatent un i5-2500K - depuis qu'on a des GPUs capables de fournir 100fps+ en fait. Après évidemment si on fait que du jeu indé, un 2500K tourne encore, mais alors pourquoi regarder les gros GPUs haut-de-gamme?

    Là on parle d'un GPU qui va presque plus vite que le CPU le plus rapide de tous ou quasi (5800X3D) dans la définition la plus élevée qu'on trouve sur des écrans gamer. Le 8K c'est gentil d'en rêver mais sorti d'une TV 80" c'est quoi l'usage? J'ai un 32" sur mon bureau et ça prend déjà une place folle, j'ai pas besoin d'une dalle 3x plus grande. 32" en 4K c'est déjà hyper fin comme affichage, le gain à passer cette taille de dalle en 8K est anecdotique (alors que la perte de performances est abyssale). Reste l'usage VR, que j'ai personnellement, mais on parle d'une mini-niche là (suffit de voir la fréquence des nouveautés dans ce secteur, ça se concentre beaucoup sur des casques autonomes avec des Snapdragon qui ont pas 1/10e de la puissance d'une 4090).

    Ce que je trouve drôle c'est surtout qu'nVidia introduit le super DLSS3 mais le fait avec une carte qui n'en a absolument pas besoin puisque la 4090 tient le 4K 60Hz avec Raytracing sans broncher. Evidemment ce sera présent plus bas dans la gamme, et encore heureux, parce que pour l'instant la "vitrine" pour le DLSS3 n'est pas très cohérente.
    Evidemment que j'exagère un peu, mais jusque là le CPU n'est que rarement un problème en terme de performance pour un joueur moderne, le cap de performance se fait en général bien au-delà du seuil "comfortable" de fluidité. Et même avec un Ryzen de première génération je pense que c'est encore tout à fait exploitable.
    Et pour le DLSS3, je ne m'en fait pas, j'ai tout à fait confiance dans nVidia pour créer un besoin parfaitement artificiel en faisant un rendu 1% meilleur au mieux pour 300% de puissance de calcul en plus, juste pour montrer qu'ils ont la plus grosse.

  24. #7914
    Surtout n'achetez pas, c'est juste pour que vous puissiez voir de vos propres yeux cette concrétisation historique d'Intel dans la cour des GPU (on lui souhaite un autre destin que Stadia...):
    https://www.materiel.net/produit/202210060024.html
    Pour les conseils d'achats, rdv dans 3-4 ans

  25. #7915
    C'est rude comme tarif, au-dessus de la RTX3060 (aïe), et assez largement au-dessus de la RX6700 non-XT (doublement aïe).

  26. #7916
    Citation Envoyé par Qiou87 Voir le message
    (les écrans 4K 120Hz sont encore rares et il faut visiblement approcher 1KEUR pour avoir un truc correct).
    D'un autre coté, si t'achète un GPU à ce prix et que ton écran ne coûte pas au moins 1k c'est que tu as de drôles de priorités.
    Mon écran à 1k6 (à l'époque) a déjà vu une 970 (suis pas resté longtemps avec), une 1080 Ti et une 3080 Ti : c'est largement rentable et même très fortement conseillé d'y investir de l'argent (plus que dans les GPU).

    Par contre Nvidia s'est gouré sur la connectique : elle ne supporte pas les trucs comme 4K@240Hz apparemment ? Alors que ce genre d'écrans arrivent et pourraient justement profiter de la puissance de la 4090 et du DLSS 3...


    Citation Envoyé par skyblazer Voir le message
    Et pour le DLSS3, je ne m'en fait pas, j'ai tout à fait confiance dans nVidia pour créer un besoin parfaitement artificiel en faisant un rendu 1% meilleur au mieux pour 300% de puissance de calcul en plus, juste pour montrer qu'ils ont la plus grosse.
    Si pour toi prendre jusqu'à 100% de FPS en plus sans tirer d'avantage sur le CPU c'est "un besoin parfaitement artificiel" je sais pas ce qu'il te faut.

  27. #7917
    A quel moment ai-je dit que le DLSS3 était un besoin artificiel ? Par contre le RTX poussé au point qu'une 3090 est déjà dans une PLS complète, pour jouer à un mod de Portal où les plus grosses différences ne sont pas dûes au ray-tracing, bof bof. Pareil pour Cyberpunk, où on pousse une mise à jour pour plomber les performances, principalement.

    EDIT: Surtout que j'ai déjà donné mon avis sur le DLSS3, mais par rapport au DLSS2, les temps de latence publiés étaient mauvais, et c'est toujours ce qui fait qu'un jeu a un bon ressenti ou pas. Je n'ai pas encore vu d'analyse détaillée depuis, donc je réserve toujours mon jugement.

  28. #7918
    Citation Envoyé par Dross Voir le message
    Mon écran à 1k6 (à l'époque) a déjà vu une 970 (suis pas resté longtemps avec), une 1080 Ti et une 3080 Ti : c'est largement rentable et même très fortement conseillé d'y investir de l'argent (plus que dans les GPU).
    Je suis d'accord qu'un écran est un investissement plus durable qu'un GPU, clairement. Avec un bémol: un écran à définition très élevée te "bloque" dans une certaine catégorie de GPU. Par exemple, si tu as un écran 4K, il devient difficile d'acheter moins qu'une carte de niveau x80 (chez les verts) ou x800XT (chez les rouges). Aucun souci tant que tes finances suivent mais c'est pour moi à prendre en compte. Après de génération en génération la performance devient plus abordable, on peut espérer que dans 1-2 génération les GPUs à 400-500€ soient à l'aise en 4K 60Hz.

  29. #7919
    Citation Envoyé par skyblazer Voir le message
    A quel moment ai-je dit que le DLSS3 était un besoin artificiel ? Par contre le RTX poussé au point qu'une 3090 est déjà dans une PLS complète, pour jouer à un mod de Portal où les plus grosses différences ne sont pas dûes au ray-tracing, bof bof. Pareil pour Cyberpunk, où on pousse une mise à jour pour plomber les performances, principalement.

    EDIT: Surtout que j'ai déjà donné mon avis sur le DLSS3, mais par rapport au DLSS2, les temps de latence publiés étaient mauvais, et c'est toujours ce qui fait qu'un jeu a un bon ressenti ou pas. Je n'ai pas encore vu d'analyse détaillée depuis, donc je réserve toujours mon jugement.
    Le RT tout le monde s'y met car c'est le futur du rendu : le global illumination, les ombres et les reflets reliés c'est juste sans équivalent en traditionnel, surtout quand on considère le coté dynamique.

    Certains peuvent bien dire que ça sert à rien, c'était les mêmes qui critiquaient "l'inutilité" du bumpmapping et de l'ambiant occlusion, sauf qu'aujourd'hui vous ne joueriez pas sans et quand on retourne dans les jeux qui n'en ont pas ça prends un vilain coup de vieux. Vous aurez le même avis quand vous aurez plusieurs titres fait en RT derrière vous.


    Citation Envoyé par Qiou87 Voir le message
    Je suis d'accord qu'un écran est un investissement plus durable qu'un GPU, clairement. Avec un bémol: un écran à définition très élevée te "bloque" dans une certaine catégorie de GPU. Par exemple, si tu as un écran 4K, il devient difficile d'acheter moins qu'une carte de niveau x80 (chez les verts) ou x800XT (chez les rouges). Aucun souci tant que tes finances suivent mais c'est pour moi à prendre en compte. Après de génération en génération la performance devient plus abordable, on peut espérer que dans 1-2 génération les GPUs à 400-500€ soient à l'aise en 4K 60Hz.
    Je suis complètement d'accords, mais d'où le coté étrange d'un gus qui irai acheter un GPU à 1600$ (HT) sans avoir un bon écran à coté, ça n'a aucuns sens et il est très mal conseillé.

  30. #7920
    Citation Envoyé par honu Voir le message
    Ben voilà.
    Il ne reste plus qu'à avoir des cartes qui offrent la même puissance que la 3090, pour 60-70% de conso et d'euros en moins...
    Un deuxième élément de réponse:



    Le rapport perf/prix de la RTX 4080 12Gb est moins bon que celui de la RTX 3080.

    Accessoirement, l'écart de perf entre la 4080 16Gb et la 4090 est relativement important, ça oscille entre 25% et presque 50%! Il y a clairement la place pour une 4080 Ti qui sans aucun doute est déjà dans les cartons.

Page 264 sur 313 PremièrePremière ... 164214254256257258259260261262263264265266267268269270271272274 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •