GRE = Golden Rabbit Edition qui est une version castré de la 7900 XT sortie pour le marché chinois l'année dernière (année du lapin dans le calendrier lunaire) et disponible depuis peu partout dans le monde.
GRE = Golden Rabbit Edition qui est une version castré de la 7900 XT sortie pour le marché chinois l'année dernière (année du lapin dans le calendrier lunaire) et disponible depuis peu partout dans le monde.
Non AMD aurait pu l'appeler 7900 tout court mais elle est sortie initialement en Chine lors de l'année du lapin, GRE veut dire Golden Rabbit Edition, c'est tout (grilled)
Donc en terme de perf, c'est entre la 7800XT et la 7900 XT mais plus près de la 7800XT, enfin ça dépend si tu l'oc bien, tu gagne pas mal pour un oc ~10%
Et il vaut mieux que tu attende cette carte à bon prix plutôt que d'aller sur une 6800 pas beaucoup plus performante que ta 3060ti
Tu peux trouver une 4070S et 7900GRE sous les 600€ en ce moment et gagner 50-60% par rapport à ta 3060ti, de quoi être plus à l'aise et gagner en silence aussi
GRE c'est le début de GREAT surtout, ils auraient du essayer de la revendre comme ça en occident avec l'OC débloqué.
Sinon pour rappel à partir du 3 juin il y a le Computex, ça aura peut-être un impact sur la hype et les prix. Potentiellement il sera question du lancement de la prochaine génération de GPU.
Même s'il ne faut pas trop rêver, ça va encore parler d'IA de façon nébuleuse pour exciter les actionnaires, et le reste passe au second plan…
https://www.computextaipei2024.com.tw/en/index.aspx
L'été arrive, et le bridage GPU aussi.
Je me dois de dire du bien du nouveau panneau de performance de GeforceExp :
Alors que j'ai toujours eu une CG instable quand j'essayais les méthodologie classiques d'undervolting (même en restant très conservateur), là ça s'est fait de manière très facile (et stable donc !), baisser le power maximum, et go.
Ça apporte quoi par rapport à « nvidia-smi -pl » (power-limit) ?
J'utilise ça depuis longtemps dans un script avec quelques paramètres pour le governor CPU en passant. Je n'ai pas essayé de finasser plus que ça, le job est fait à mon sens, mais il y a peut-être mieux.
C'est probablement ce que ça appelle derrière en fait. Mais c'est via l'overlay donc tu règle facilement en jeu et tu vois l'impact immédiatement sur les perfs.
Les méthodes que j'avais essayé avant était à base de courbes de voltages par MSI Afterburner et chez moi ça rendais la carte instable (même sur des modifs ultra safe, allez savoir pourquoi).
Comme dit, dans l'overlay.
Si ça peut être plus clair :
Je crois que c’est parce que je n’ai plu Geforce Experience... Je suis passée sur la nouvelle mouture, NVIDIA App
Ah t'a le nouveau truc, mais ils devraient avoir au moins l'overlay, c'est pas présent dedans ?
Ben j’ai pas l'impression. J’ai cherché pourtant.
Je l’utilise pas trop, essentiellement pour les mises à jour de pilote et c’est tout
Sinon pour faire ce genre de choses il y a nvidia-smi livré avec les pilotes depuis au moins 2011. C'est en ligne de commande, mais ça fait le taf.
https://developer.nvidia.com/system-...ment-interface
Hello tout le monde !
Dites voir, je joue actuellement avec ma fille à Palworld (moi sur mon PC plus récent, elle sur le vieux crouton) et je dois bien avouer que le vieux commence à cracher ses poumons par tous les orifices, du coup je me demandais s'il y avait encore moyen de le faire tenir 1 ou 2 ans de plus en changeant la CG.
Le PC récent : R5 5600X/24Go/GTX 1070 (vieille carte de l'ancien)
Le vieux PC : i7 2600/16Go/GTX 670 (carte de feu le précédent PC)
J'étais tenté d'upgrade ma 1070 et de la switcher sur le vieux PC, mais en y réfléchissant l'i7 2600 est pas loin derrière la 670 en terme gériatrique (je dirais qu'ils se font la guerre tous les deux pour savoir qui est le limitant dans l'épave :D).
Du coup je me demandais si une petite upgrade sur du R5 + RX 6500/6600 ne serait pas plus logique, bien que moyennant une plus grosse somme évidemment...
(j'aimerais bien évidemment dépenser un minimum pour un maximum d'efficacité)
Vous avez 4h
les configs à jour et coherentes de jys
https://forum.canardpc.com/threads/8...0-800%E2%82%AC
la config à 815 pour faire mieux que le récent, et ta fille recupere celui ci
les autres configs pour améliorer le vieux.
concernant l’emplâtre sur jambe de bois j'ai pas d'avis mais toi m^me t'as pas l'air pour.
Éventuellement faut tester si le CPU plafonne dans Palworld en mettant le rendu un plancher. Si la bouillie de pixel tiens les 60FPS, changer le GPU devrait suffire sur ce coup… Et le jour où ça ne suffit clairement pas, changer CM/CPU/RAM.
Le meilleur rapport perf/prix en entrée de gamme reste la RX 6600 pour 200€ et quelques. À part tenter l'aventure Arc… mais je ne sais pas comment ils s'en sortent sur Palworld et ça reste risqué globalement.
Ça peut être pas mal de mettre la RX 6600 dans le PC plus balaise et la GTX 1070 dans le vieux.
Avant de changer de config, j'avais un i7 2600K et une 1070 et franchement ça faisait plutôt bien le taf sur les jeux hors gros AAA, ça se tente, mais je n'ai jamais essayé Palworld, peut-être pas très bien optimisé.
Ah bah j'avais aussi le même i7-2600k jusqu'à Noël dernier (avec une 790ti), j'ai joué à Cyberpunk et Assassin Creed Odyssey avec, ça marchait mais ça crachait clairement ses poumons.
(on est tous copaing de i7-2600k ! ) (et si ça se trouve on remonte encore on était aussi jumeaux d'Atlon 2700, voire de celeron 333 )
Dites, je reviens sur mon histoire de ralentissements dans Insurgency Sandstorm...
Ma config : 3700X / RX5700XT Thicc III Ultra / 32GB de RAM / Définition 2560x1440
J'ai baissé considérablement les graphismes mais je continue d'avoir des ralentissements (moins fréquents), en particulier :
- sur les maps très vastes avec une profondeur de champ immense
- lorsqu'il y a profusion d'effets volumétriques (fumi, cocktails molotov, bombardements...)
Comment savoir si c'est ma carte graphique qui ne suit pas, ou si c'est mon processeur qui fait bottleneck ?
PS : au passage, je viens de vérifier par acquis de conscience, mon XMP était resté désactivé depuis mes soucis de SSD...
Dernière modification par Ashley TOUCRU ; 22/05/2024 à 16h55.
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220
Tu as essayé de monitorer pendant le jeu ?
Via un soft qui trace CPU, GPU, VRAM... histoire de voir s'il y a des pics de température, % d'utilisation...
J'avoue que non. J'ai juste regardé l'overlay des fps ingame. Quel programme me permettrait d'enregistrer tout ça ? HWMonitor par exemple ? OCCT ?
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220
Je crois bien que HWMonitor a une option enregistrement, à vérifier.
MSI Afterburner, sinon, peut-être.
Juste les driver AMD le permette.
Performances->Mesures->Activer la superposition à droite.
Je viens de passer un petit test OCCT, histoire déjà de vérifier la charge. Pas assez violent, la carte graphique n'a même pas chauffé. Je tenterai un monitoring avec HWMonitor lors de notre prochaine session de jeu.
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…PC Ryzen 5700x3d+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220