Ouais ça manque par rapport aux vidéos où on voit le contexte précis d'enregistrement. Ils précisent quand même « Don't believe any benchmarks that are run inside the castle. Here there isn't much to see and your view distance is low. We've done our benchmark runs in the open world areas and FPS are much lower here. I picked a test scene that's demanding, but not worst case. »
Les pages précédentes il y a des comparaisons statiques dans des scènes variées. C'est surtout un comparatif de qualité d'image, mais il y a aussi le framerate. D'ailleurs ils se sont planté dans la légende sur une, mais bon…
Après il ne faut pas formaliser, Hogwarts Legacy est une exception, tout comme Forspoken et bien sûr MSFS.
Bien sûr les jeux tendent à demander des ressources bien plus importantes. On peut rajouter dans un avenir "proche" les prochains Battlefield et GTA.
Mais pour quelqu'un qui ne joue pas à ce genre de jeux, pas besoin de partir sur du haut de gamme.
A l'heure actuelle, la 4070 Ti est la plus intéressante du haut de gamme pour un joueur lambda.
Cordialement.
Dans le cas de Forspoken et Hogwarts Legacy, vu ce qui est affiché les ressources demandées n'ont pas l'air de se justifier.
Il n'y a qu'une RTX 4090 qui peut faire tourner Hogwarts Legacy en RT tout à fond avec une moyenne à peine supérieur à 30FPS en 4k ou 60FPS en 1440p.
En 1080p la RTX 4080 commence seulement à approcher les 60FPS de moyenne. La RX 7900 TXT arrive à 28FPS de moyenne, les autres cartes AMD on n'en parle même pas.
Bref, quasi personne ne va y jouer avec ces paramètres de rendu…
Question sur les technod’upscaling…. DLStruc et autres machins
question noob
peut être mais bon: on peut arriver à voir des vieux formats YouTube (420 p) de façon correcte sur une tv 4K ? Je me refais des vieilles séries ORTF des années 60-70 (oui chacun son vice) et ça saigne des yeux, même sur petit écran genre tablette.
Du coup je me pose la question de ce que ça permettrait, ça me fait mal au fondement de racheter des DVD universal (sans garantie de la qualité) pour des séries qui ont 60ans et plus de notre service public national ?
Nvidia a lancé son équivalent au DLSS pour les vidéos lues sur Chrome. Il faut une RTX 3xxx mini par contre (aucune idée pourquoi les RTX 2xxx ne sont pas au programme).
Dernière modification par Kimuji ; 11/02/2023 à 20h33.
Par contre ça a l’air de fonctionner pour du 1080p ->4k. Je me demandais si sur des vidéo très low (240 / 420) on pourrait viser une image d’arrivée qui épargne les yeux.
merci, à suivre en tout cas (pas sur les 20XX pour écouler les 30XX en attendant un truc top pour les 4,5 voire 6XXX? )
Tu ne recréeras jamais des détails magnifiques - les artefacts de compression et la faible définition font que tu pourras espérer du mieux, mais déjà du 240p-> 480p sera miraculeux dans ce cas. Le seul moyen de faire un truc bien est de renumeriser les bandes d’origine et de les passer image par image dans un algo avancé. Un truc a la volée sur vidéo compressée ne t’offrira pas ce même gain.
Ces jeux sont des exceptions ? M'étonnerait, même s'ils sortent un patch un jour qui fait gagner 1 ou 2 Go de VRAM, ça montre plutôt à mon avis que la tendance sur les AAA va être l'inflation de ressources.
Quant au RT, si on avait encore un doute sur sa pertinence, je crois qu'on devrait y voir un signe, là. Ce n'est meme plus un argument de vente pour les CG à 1000€. Le vrai RT est impossible en temps réel, le RT permis par les CG d'aujourd'hui a le mérite de simplifier les reflections et illuminations, mais il faut quand même ruser, comme on rusait avant sur les effets sensés simuler la réalité. Alors bon, peut-être que dans 5 ans on maitrisera aussi bien que ce qu'on savait faire jusqu'à aujourd'hui, mais en attendant, sans RT on savait que les arbres ne sont pas blancs.
Ma fille, Hogwarts Legacy, je vais lui acheter sur PS5, c'est à peine moins beau et ca tournera avec moins de puissance que son 5600X+3060Ti pour un résultat plus fluide.
J'ai joué à Hogwarts Legacy depuis vendredi soir tout à fond et avec le RT, c'est vraiment top. Non mais vraiment regardez moi cette merveille :
Un petit patch pour corriger les variations violentes de FPS lors des chargements (car c'est surtout ça le problème) et ça sera parfait. La perte de perf est bien présente, mais ce n'est pas nouveau ni propre au RT, en fonction des jeux on a toujours tweaké en fonction de l'usage.
Perso je me vois vraiment pas jouer sans.
Ouais bof faut vraiment être fan de HP pour être victime de la hype, payer plein pot et subir les problèmes habituels de jeu AAA pas assez cuit.
Comme d'hab j'appliquerai la règle : attendre 6 mois quand il sera bien patché et en soldes.
Il y avait de bons exemples de scènes dans la review de TechPowerUp la page précédente:
https://www.techpowerup.com/review/h...nalysis/4.html
Vous pouvez comparer en divers presets sur 4 scènes, 2 en intérieur et 2 en extérieur (rue et sorte de jardin).
Bon, mon petit retour sur Hogwart.
Et bien en 4K DLSS performance, aucun souci avec un 3080... Jusqu'à l'activation du RT. Sa semble être un manque de VRAM.
Pourtant techpowerup et hardware unbox n'ont pas l'air de parler de problème en 1080p (soit la résolution de rendu du en 4K DLSS perf).
A voir au fur et à mesure de patch. En soit, l'activation du RT passe, mais crée régulièrement des énormes drops.
J'ai quand même peine à croire qu'on sorte un jeu dont une option ne serait activable que sur 4080 et 4090. Ca reste des cartes marginales.
Surtout le RT est dispo sur consoles et elles n'ont que 16 go de RAM partagée. OK c'est pas le même RT, mais peut importe les réglages, sur mon PC en DLSS ultra perf (soit 720) et tout en low, les drop reviennent avec les RT. Hors sur console en mode RT on certes à 30 fps, mais avec une niveau de détails bien supérieur.
Bref on verra dans quelques mois. Je profite sans RT, jeu excellent pour l'instant et très joli sans RT.
En tout cas on part sur une course à la VRAM complétement débile. A ce rythme celui qui à les moyens de se prendre une 4080, devrait aller directement sur la 4090. Histoire de passer 5 ans tranquille...
Etonnamment ça tourne plutôt bien sur un steam deck ...
C'est pas ce que j'appelle se casser la gueule. 50 fps en 1 % low
Moi j'ai des passage à 10 ou 20 fps. Il suffit d'attendre ça remonte tout seul. J'ai même eu 5 fps une fois.
Je pense qu'ils y a vraiment un problème sur le jeu.
Les dév ne peuvent ignorer les stats STEAM.
80 % des joueurs on moins de 10 Go de VRAM et 35 % on entre 4 et 6.
Les ignorer serait de la folie et un énorme doigt aux joueurs PC.
En moins de 6 go on parle quand même cartes comme 970/980/980 TI/1060/2060 et RX 570/580.
Et en moins de 8 on ajoute 1070 à 1080 / 2060 super à 2080 et RX 580 (8 go) VEGA 56/64 / RX 5700 / RX 6600.
Dans cette liste il y a des grosses cartes qui devraient pouvoir voir venir.
Après je me demande s'il n'y aurait un problème avec le réglage de qualité des textures. Entre ULTRA et LOW, la différence et faible, et l'impact sur la VRAM est ridicule.
Dernière modification par Berk-124 ; 13/02/2023 à 09h56.
Non je suis en Ultra sans RT. Le RT est pratiquement injouable à cause de la limitation mémoire (c'est aussi mis en avant par Hardware Unboxed: à moins de 14GB de VRam faut pas activer le RT), et il semble qu'il ne soit implémenté que tardivement et à la truelle : gros soucis sur les ombres (RT Shadows), réflections uniquement dans le château et pas sur l'eau du lac ou n'importe où ailleurs (RT Reflections)...
Une implémentation tardive expliquerait aussi l'optimisation à la truelle de l'usage de la VRAM par les fonctions RT, et par le jeu dans son ensemble.
Un début d'explication pour les perfs dégueulasse d'Hogwarts Legacy.
Au delà du problème de VRAM, il a une problème avec les ryzens et peut être bien les intel 10th et 11th
Désolé Qiou ton 5800x 3D tout neuf est en fait une vrai merde... Alors j'ose même pas imaginer mon 5800x tout court.
Aller on attend les pacths à défaut des excuses de WB et d'avalanche.
Merci pour cette vidéo. Effectivement ma config à base de 5800X3D et de RTX3080 10Gb est une vraie merde en fait (pour ce jeu), je vais tout larguer et acheter un Core i3 et une RX6800XT en promo . Je tiens les 60fps dans DCS en VR (2x 2160p, détails élevés) mais je les tiens pas en 960p uscalé en flat sur Hogwarts. On va gentillement prendre son mal en patience, le jeu est jouable malgré tout (bordel encore heureux ).
Ils ont fait un test sur une autre zone, regarde à 17:00 sur la vidéo, dans Hagsmead les perfs sont très, très basses.
Sinon oui il se passe vraiment un truc très bizarre avec les CPUs. Ça a peut-être un rapport avec la gestion calamiteuse de la RAM par le jeu, la plateforme Intel est en DDR 5, il faudrait comparer avec les CPU AMD sur AM5 pour voir si ça change quelque chose. Mais bon j'ai jamais vu d'autres exemples de jeu qui prenait une telle claque à cause d'une histoire de DDR4 vs DDR5.
EDIT:
Bon ben j'ai ma réponse, c'est pas une histoire de DDR4, Hardware Unboxed a posté un tweet qui mentionne que les problèmes de perf touchent aussi les Ryzen 7xxx. Ils disent que seuls 4 coeurs sont utilisés et encore ils ne sont même pas à fond.
Les devs auraient-ils testé leur jeu sur une seule config équipée d'un GPU de 16 Go de VRAM, un CPU intel de dernière gen et 32 Go de RAM?
Dernière modification par Kimuji ; 13/02/2023 à 17h32.
C'est quand même balo quand le même jeu se porte comme un charme sur console (PS5 en tout cas) qui possède une base ryzen ...
Ce qui est balo aussi c'est dans la vidéo d'hardware unbox ils ont tout testé avec un 7700x ... Donc en gros tous leur travail est à jeter ...
Dernière modification par Berk-124 ; 13/02/2023 à 18h57.
Le truc con avec ce jeu c'est qu'on doit redémarrer le jeu pour activer/désactiver le RT, donc pour faire la même image avec les mêmes conditions lumineuses c'est un peu la galère.
Par contre je peux vous dire où regarder et ce qui disparaîtra vu que ça ne vous semble pas évident : cette image met en valeur les réflexions du vitrail, qui est le sujet principal. Sur le sol, mais pas seulement : aussi sur les boiseries à gauche (qui en reprends les teintes bleues), au plafond sur certaines arches et à droite aussi sur certain détails.
Hors ces réflexions disparaissent totalement sans RT :
(d'ailleurs sur cet exemple on a le même aspect même si moins présent que sur ma photo : la réflexion au sol mais aussi sur les rebords desdites fenêtres)
Moi ce qui m'embête avec ce genre de RT, c'est qu'à part sur une pierre polie/lustrée, il est impossible que la lumière se réfléchisse autant sur le sol.
C'est problème de beaucoup de RT. On fout du reflet partout, ça fait un effet wao ! mais c'est pas pour un sou réaliste.
Si c'est réaliste, c'est juste que tu n'a jamais trop fait attention avant : regarde même sur un sol usé, inégal et mat comme un parquet en bois tu peux avoir de sacré réflexions :
(regarde juste en dessous des fenêtres pour une partie plus réfléchissante, l'effet est même plus fort que le rendu RT).