C'est surtout qu'on changeait parce que les jeux ne tournaient pas du tout sinon. Là on fait quelques compromis et ça roule.
C'est surtout qu'on changeait parce que les jeux ne tournaient pas du tout sinon. Là on fait quelques compromis et ça roule.
On a une 4060ti pour l'ordi de ma copine, en 1440.
C'est le top, ça fait aucun bruit, ça consomme peu, ça booste sévère (Baldur's 3 à fond partout).
Ah et c'est vraiment pas gros ! (une version 2 ventilos).
J'ai acheté exactement la même pour un pincab 4K tellement je trouvais ça bien et "pas cher" (chopée à 360€ fdp in).
ça ne marchera pas pour de la 4K gamer à fond, mais pour un écran 1440 difficile de faire un meilleur rapport qualité prix !
Je me tâte à passer sur la même chose quand j'aurais un peu de sous, pour remplacer ma radeon 5700xt.
En même temps si tu regardes juste la date de sortie du produit sans regarder plus loin que le bout de ton nez, on ne va pas y arriver. C'est un constat le renouvellement de la carte graphique se fait moins vite qu'avant quelque que chose me dit que le prix y est pour quelque chose. Le milieu de gamme était entre 200 et 350 euros grand max. Aujourd'hui il en est où ce milieu de gamme rappelle moi ?
Et c'est faux de dire que les jeux ne tournaient pas dessus et que c'est pour ça qu'on en changeait à moins que tu parles des années 90 que je ne connais pas au niveau hardware. C'était pas une nécessité, mais vu que les prix étaient plus bas on pouvait plus facilement se le permettre. Aujourd'hui, tu y regardes à 5 fois avant.
Ouais de nos jours c'est trop cher et ça n'apporte pas grand chose, ils ont le double problème.
On n'est peut-être pas d'accord sur les exemples et nos habitudes d'achats, faudrait trouver des métriques plus objectives pour vraiment quantifier le changement. Peut-être un historique à base des specs minimales les plus élevées du top des AAA de l'année, voir avec quoi on s'en tire. Je ne sais pas s'il y en a qui ont déjà fait ce genre d'étude.
i5 12400F (2,5 Ghz) – 16 Go DDR4 – GeForce 1070 8 Go – Crucial MX300 512 Go et M4 128 Go – LDLC-QS 550+ – LG 27GN850 – Iiyama G2773 – Bitfenix Phenom M.
Ah ouais, GTX 1070 Ti minimum, pire qu'Allan Wake 2 (depuis le patch qui se débrouille sans mesh shaders).
J'en ai trouvé un autre, Starfield demande au moins une GTX 1070 Ti aussi.
Sinon ouais, y en a pas encore une tonne qui ne tournent pas sur une GTX 1060 6GB finalement. Mais suffit que ça soit celui auquel on veut jouer et on passe à la caisse dans la semaine. C'est comme ça que j'ai tendance à planifier mes upgrades…
J'étais à 2 doigts de le faire pour WRC en VR, mais finalement ça passe alors que je suis sous les specs minimales (ils mettent une RTX 2070). Bon c'est pas nickel bien sur, mais avec une RTX 4090 non plus
Tiens c'est le thème du moment, Digital Foundry parle aussi du plateau technologique dans leur dernier show
https://www.youtube.com/watch?v=-RrGDYXvKBk&t=64s
En fait c'est suite à une remarque d'un ancien CEO de Playstation il y a 10 jours, probablement suite à l'annonce de la PS5 Pro qui a été mal reçue
https://www.videogameschronicle.com/...has-plateaued/
En gros les gains visuels deviennent de plus en plus marginaux, faut des experts comme DF pour analyser ça et encore s'extasier devant, mais la plupart des joueurs s'en foutent.
Il évoque aussi de l'évolution du marché du jeu qui s'éloigne du modèle AAA, qui ne tiens plus trop la route.
DF étend ça en parlant des jeunes joueurs qui s'en foutent notamment des consoles de salon, ils jouent à des jeux sociaux sur laptop, sur mobile et éventuellement des jeux Switch.
Enfin il n'y a rien de bien nouveau si on suit le marché, c'est plus un point étape de milieu de génération console. Et on se demande bien à quoi ressemblera la prochaine, surtout chez Microsoft.
Bah alors et les jeux ultra réalistes développés sous stutter engine 6 ??
Mouai, n'oublions pas que ça viens de la même entreprise qui nous expliquait droit dans leurs bottes que le 30 FPS était plus cinématique.
Et leur argument contre le RT est tout aussi lunaire :
"Si vous raytracez votre TV avec votre fenêtre, vous ne verrez plus le RT !" Wai wai wai. Et tu verra surtout plus rien de ton jeu globalement, alors pourquoi ne pas être resté avec la puissance de la switch pour votre PS5 dans ce cas ?If you’re playing your game and sunlight is coming through your window onto your TV, you’re not seeing any ray tracing. It has to be super optimal… you have to have an 8K monitor in a dark room to see these things.
Et concernant les visuels, on avait le même argumentaire il y a 15 ans avec la tessellation, le bump-mapping et l'ambiant occlusion. Des technos qui elles aussi en leur temps pompaient un max et on n'était pas toujours sûrs que le gain en valait le coût en perfs. Avec les mêmes détracteurs qui nous disaient aussi à l'époque "ne pas voir la différence".
Le truc aujourd'hui c'est que si t'enlève ces technos (ou leurs héritières) des jeux modernes, ils prennent 10 ans d'age. Et tout le monde le vois.
Ça sera pareil une fois que les gens auront habitué leur œil à avoir du RT.
Et pour toutes les futures technos subtiles qui ajouterons d'autres nuances et finesses, et seront toujours plus facile à détecter une fois l’œil éduqué et habitué que lors du premier contact.
Ouais sur le coup du soleil l'ex CEO de Playstation est un peu parti en roue libre lors de l'interview
Je vois bien la différence avec le RT & co, mais en vidéo parce que j'ai pas le matos pour, et ça ne me manque pas spécialement.
D'ailleurs j'ai bien aimé la dernière vidéo de DF à propos de l'analyse de F1 2024 sur PS5 Pro
https://www.youtube.com/watch?v=DKsCsdmfCwo
C'est du bon usage du RT, avoir des reflets plus subtiles (alors qu'en screen space ça tartine) et du RTGI pour un éclairage plus réaliste. Sur les comparatifs qu'ils font on voit bien la différence.
C'est marrant que des gens comme DF qui passent leur temps à chercher comment montrer le mieux ce qu'apportent ces technologies convenir que la plupart des gens ne verront pas la différence dans la pratique ou s'en foutront.
Vu que je joue pas mal en VR, je vois surtout la différence entre un SoC à même pas 10W (Quest 3) et un PC à 100W (en gros le mien en moderne).
Et que doubler ma puissance de calcul ne va pas changer énormément de choses, sauf quand ça m'inquiète de devoir racler le plancher dans les simus.
Perso, je trouve que ses propos sont justes mais exagérés.
Oui la différence se voit encore bien entre génération, ou elle se voit bien sur PC entre une jeu en paramètres low et high.
Mais cette différence tend à s'atténuer. La différence entre un jeu de 2014 et un jeu de 2024, elle existe. Mais c'est pas comme comparer un jeu de 2004 avec un jeu de 1994. Les gains sont quand même beaucoup moins importants et rapides qu'avant. D'ailleurs quand certains disent que la PS3, c'est du retrogaming parce que ça a plus de 15 ans, ça me fait un peu bizarre.
C'est une tendance et ça va continuer.
C'est certainement pour ça que Nintendo a, imo, la bonne stratégie en se concentrant sur les usages plutôt que sur la fréquence, en tout cas pour le grand public. La différence entre une PS4 et une Switch elle est nette, mais pas si gênante que ça. Et je suis absolument persuadé que la différence graphique entre la Switch 2 et la PS5 se verra moins, d'autant plus avec du DLSS et du VRR.
Les derniers drivers nvidia corrigent pas mal de faille de sécuritéhttps://nvidia.custhelp.com/app/answ...tail/a_id/5586
Je les ai installés sans rencontrer de problème, mais il ya ici et là des retours de problèmes de performance avec ces drivers dans des jeux comme SF6 ou Watch Dogs 2.
Je n'utilise pas iCue ou Blue Stacks donc je n'ai pas eu de problème de sursollicitation du processeur.
La différence est surtout faite sur des domaines différents : dans les années 90-2000, c'était le nombre de polygones, et c'est vrai que c'était facile de voir la différence même en image fixe ; et on appuyais très lourdement dessus, comme pour les seins de Lara Croft.
Alors que ces dernières décennies, le changement s'est plutôt fait sur la qualité de l'éclairage, des effets et des couleurs (et bien avant le RT : avec la lumière et nuages volumétriques par exemple), comme le passage ArmA II à ArmA III ou le nombre de polygones ne semblait pas changer outre mesure, mais la qualité du rendu de l'éclairage par contre c'était un sacré pas en avant. Et ces changements sont radicaux aussi, surtout en jeu et en mouvement (on ne peux pas apprécier à sa juste valeur une lumière volumétrique dans une image fixe).
Alors forcément en ayant 20 ans de pratique photo (labo et numérique) derrière moi je suis probablement bien plus sensible sur cet aspect que la moyenne des gens, mais je pense néanmoins que ça se sent énormément néanmoins, surtout dans le cas d'un "déclassement" (je pense qu'on est plus choqué par la différence de rendu quand on fait ArmA III -> II que l'inverse : car il faut éduquer son œil, mais ça ne veux pas dire que c'est moins présent).
Si faut avoir 20 ans de pratique photo pour se rendre compte de la différence, ça conforte assez bien son argument en fait.
Enfin bien sûr qu'il y a des différences avec y a 10 ans. Après si je prends GTA V ou Witcher III, je ne trouve pas que ça pique particulièrement les yeux de les regarder aujourd'hui. C'est d'ailleurs à peu près le même niveau graphique que jouer sur Switch.
Alors qu'en 2014, la différence avec des jeux de 2004 (genre comparer GTA V avec GTA Vice City), là pour le coup ça piquait vraiment les yeux.
Et même faut pas oublier que Cyberpunk reste encore aujourd'hui un des plus beaux jeux, et il a déjà 4 ans. Ça n'a pas toujours été comme ça où un jeu vieux de 4 ans tenait encore la dragée haute aux jeux qui sortent actuellement. Dans une moindre mesure c'est également le cas pour RDR2 alors qu'il a 6 ans...
Je plussoie à 100%.
Et à coté de ça les demandes en puissance ont logiquement augmentées mais pas du tout de manière corrélée et linéaire.
J'en tire aucune conclusion, je n'ai pas les connaissances techniques pour le faire et je ne suis pas dev, mais c'est juste un fait, le rapport puissance PC demandé à été exponentiel par rapport au rendu visuel sur l'écran.
Difficile de trouver des sources vu que le rendu visuel reste quelque chose d'assez subjectif.
Et ce n'est justement pas ce que je dis !
L'argument du plafond comme une sorte de "fin de l'histoire" des rendus de jeux vidéos, on l'entends depuis BF3 de 2011. Et c'est vrai, quand BF3 est sorti, moi le premier, je me disais qu'on allais avoir du mal à avoir mieux dans les prochaines années, tellement c'était impressionnant de détails et de rendu.
Sauf que retournez voir un peu des screens ingame (non photoshopé) dudit titre aujourd'hui, bah ça a massivement vieilli. J'aurai jamais imaginé cela à l'époque. Et c'est tout mon argumentaire : si on pense que "ça a massivement vieilli", c'est bien qu'il y a eu des changements progressifs qu'on n'a pas forcément apprécié à leur juste valeur tout du long.
Et si on avais écouté des fabricants de console de l'époque, on serai encore avec des rendus BF3 aujourd'hui. C'est ça qui est un peu ridicule avec cet argumentaire.
BF3 il est sorti y a 13 ans. Et 13 ans avant, y avait Half Life qui était le nec plus ultra..
Bah je trouve qu'il y a très largement moins de différence entre BF3 et les jeux actuels qu'entre BF3 et Half Life. Les progrès ces dernières 13 années sont quand même largement moins visibles que les progrès réalisés les 13 années d'avant.
Mais ça on est d'accords, on peux faire le même argumentaire avec Pong aussi mais ça n'a pas de sens : oui l'innovation va toujours plus vite au départ et après les progressions sont plus lentes et plus complexe (car tout ce qui était facile à récupérer a été fait), ça ne veux pas dire que "ok maintenant on peux s'arrêter" ça n'a aucuns sens. Les évolutions de ces dernières années sont encore massives, le grand public les vois ! (ce qui n'est pas forcément le cas des innovations technologiques : je ne suis pas certains que le grand public ressente la différence 4G / 5G sur leur téléphone par exemple).
Je ne crois pas que quelqu'un dise qu'il faut s'arrêter, mais que l'industrie commence à sérieusement avoir des problèmes parce que les clients suivent de moins en moins. Ou pas suffisamment.
Ça continuera de progresser quand même, enfin j'espère. C'est pour ça que j'attends RDNA4 et suis curieux de voir ce que va faire Nvidia, même si j'ai plus de mal à voir quoi…
Edit: bon en vrai je n'attends pas vraiment, c'est surtout que j'ai pas encore trouvé ce qui me fait courir avec la CB à la main pour upgrader
Nan mais on dit juste (en tout cas moi je m'engage pas pour les autres) que y'a une course à l'armement, comme le petit logo sur Joystick à l'époque, qui est démesuré pour des gains graphiques pas souvent évident en jeu.
Tu me répondras que c'est un biais et que ça ne ce voit pas parce qu'on a pas assez de recul mais en attendant le constat visuel/performance est là.
Comme le disais un canard, RDR2 a 6 ans et c'est toujours un des plus beau jeu alors qu'il tourne sur un truc assez modeste. Pareil mais à moindre mesure (il a plus vieilli mais ça va) pour The Witcher 3 (9 ans quand même).
Depuis rien à part si tu pousses des jeux récent dans les retranchements avec des options qui, honnêtement, ne vont pas changer la globalité graphique du jeu, voir meme discutable. (Désolé mais je ne me remet pas du RT qui fout des surface miroir partout dans des jeux réaliste, c'est anti réaliste ça n'existe pas en vrai, c'est un artifice censé copier la réalité qui est souvent faussé sur les reflets en tout cas.)
Et encore je parle pas de la puissance de la DA par rapport aux artifices graphiques.
Les gens ont oublié à quel point le monde réel est remplis de surfaces miroirs, parfois c'est un peu tout much certes, mais y'a plein de situations où les gens disent "ça réfléchis de partout !" bah oui, c'est de l'eau, c'est très réfléchissant en vrai (parole de photographe), c'est juste qu'on s'est déshabitué de voir ce genre de choses dans les jeux et ça surprends.
Mais le pire, c'est que la plus grande avancée du RT ce n'est pas l'effet miroir, ça c'est le gadget qui sert d'homme de paille aux détracteurs. Les plus grandes avancées du RT c'est le global illumination et la gestion des ombres réalistes en temps réel. Ça c'est juste fou.
Regardez comment une même ombre d'une surface change de très nette à flou avec la distance, regardez comment les espaces clos ont enfin des éclairages réalistes (avec notamment la fin des fameuses surfaces à l'opposée des sources de lumières qui sont éclairées quand même à cause de la technique d'éclairage), comment les couleurs des surfaces voisines teintent les surfaces adjacentes. Et tout ça en temps réel et donc que c'est encore plus impressionnant en jeu, quand les actions du joueur impactent directement tout le bordel.
Une fois que les gens seront habitués à ce genre de rendu, quand ils retourneront sur les jeux d'avant ils trouveront que c'était la préhistoire. Car ils trouverons surprenant et absurde l'éclairage qu'on a actuellement (statique et impossible dans bien des cas) et qu'on a appris à accepter car "c'est un jeu vidéo".
Un autre truc intéressant, c'est que ça donne un rendu plus "chiant", moins saturé, moins carte postale de mauvais goût, mais justement bien plus proche de la réalité. Ce qui trompe certains quand ils regardent les comparatifs (préférant parfois le rendu plus saturé, mais moins réaliste) mais faut pas se tromper, si l'objectif est le réalisme, c'est un très bon pas dans la bonne direction, et c'est un gain qu'on a de manière globale sur l'intégralité du rendu de la scène (et pas juste un détail dans un coin justement).
Je n'ai pas tout lu (vous écrivez beaucoup trop ) mais je suis d'accord. En fait, ce qui ressort de vos derniers messages, c'est l'exigence de chacun, tout simplement.
Perso, comme Dross, je suis sensible aux petits détails qui font la différence entre une scène jolie mais imparfaite, et une scène dont les lumières sont bluffantes. Pour avoir regardé beaucoup de vidéos de Cyberpunk moddé avec des options graphiques de dingues (dont une notamment avec un robot à un poste de contrôle que je ne retrouve plus), la différence est fondamentale !
Maintenant, suis-je prêt à mettre 2 000€ dans une carte graphique ? Absolument pas ! Et même si j'étais blindé de thunes, je crois que je ne le ferais pas car les choses doivent conserver une valeur.
PS : je suis photographe depuis 30 ans et joueur depuis 40 ans.
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220
Pour moi le RT est aussi intéressant pour les rendus non réalistes (au sens réalité qu'on voit par le fenêtre), type cell shading ou autre. Il faudrait parler de cohérence plutôt.
Après en apprécier la qualité n'empêche pas de s'en passer.
Surtout en VR où j'aimerais éventuellement déjà pouvoir passer en mieux low, diminuer la framegen et augmenter la définition. Pour jouer aux mêmes jeux en un peu plus jolis… donc au final ça attend.
Et j'ai l'impression que c'est le raisonnement que fait beaucoup de monde en prenant une Series S plutôt que X, un Steam Deck, ignorer la PS5 Pro, etc.