www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…- PC Ryzen 3700X+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220 (Gx7 + Panasonic 14mm en secours)
Bonjour messieurs dame ,
J'ai besoin d'aide pour choisir ma futur carte graphique, j'ai eu une cagnotte pour mon anniversaire, budget 350-400 euros.
Ma configue actuelle:
-CPU: i5 4690K
-ecran: LG 29UM65-P
-boitier ATX
-alim: TPG-0850F-R
-mes jeux: MMO, hack'n slach en majorité
Je suis quand même un Fanboy d'AMD.(Et anciennement ATI pour les CG)
Rarement eu des problèmes avec jusqu'à ce jour, c'est pas non plus le chaos total j'ai pu jouer a BFV sans soucis pendant 2H après mes 2 retours bureau.
Par contre Ma 8800GT de Nvidia que J'avais acheté pour Crysis a tenu quelque semaines sans doute à cause de son système de refroidissement foireux ou un manque de bol.(C'est la seule Nvidia que j'ai eu en omettant les pc portable)
Dernière modification par Graine ; 17/02/2020 à 14h44.
Maître des ombres et des lumières combien dure une éternité? Combien de fois faudra t'il faire la même route pour arriver ?
Dernière modification par urel ; 17/02/2020 à 14h13.
League of Legend - Urell // Battle Tag - Urel#2145 // Gw2 - urel.7269
Ok c'est noté!
En ce moment je tourne juste sur la CM mes anciennes carte graphique on rendu l'âme.
Merci pour vos conseilles , le rapport qualité prix de la rx 590 à l'aire top mais j'en trouve pas, du coup je vais me rabattre sur gtx 1660.
Je vous souhaite une bonne continuation et vive le gras!
Même pas une petite 5600XT ?
https://shop.hardware.fr/fiche/AR202001070007.html
J'y ai pensé mais mais il me semble qu'elles sont a éviter pour le moment ...
League of Legend - Urell // Battle Tag - Urel#2145 // Gw2 - urel.7269
Pour rester factuel il y a juste des soucis des pilotes chez certaines personnes qui tardent à être résolu.
Pour moi il vaut 1000 fois mieux aller quand même chez AMD que de donner le moindre centime aux escrocs d'en face mais disons c'est un choix perso....
C'est pas des escrocs. Ils y trouvent leur compte même à ce tarif c'est tout. Après c'est clair que AMD est bon en ce moment.
Aussi, celui qui à un écran G-sync uniquement vas y réfléchir à 2 fois avant d'aller chez les rouges. C'est mon cas.
Idem celui qui veut du PhysX qui fonctionne sans impact sur sur les perfs, même si avec les CPU récent ça doit devenir plus transparents (j'avoue j'ai pas vérifié).
C'est pas des arguments imparables mais pour certains c'est un plus.
J'espère juste que les bonnes prestations d'AMD vont durer pour remettre un peut de concurrence.
Félicitations pour avoir dit "Nvidia ce n'est pas des escrocs" tout en plaçant G-sync et PhysX, qui sont deux arnaques
Je te sais défenseur du libre et de l'open source, mais des applications propriétaires comme G-Sync ont aussi des avantages. La technologie est sortie plus tôt sur le marché et a longtemps eu l'avantage de fonctionner avec un niveau de qualité élevé. A côté les premiers pas de Freesync étaient hésitants et on avait droit à des écrans 48-75Hz vraiment merdiques pourtant badgés "Freesync". Aujourd'hui AMD a bien nettoyé son offre Freesync au point qu'nVidia a dû plus ou moins lâcher G-Sync pour adopter la norme VESA Adaptative Sync, mais cela a pris du temps. On ne parle pas d'arnaque quand on a fourni un véritable service aux clients, même si ce service était facturé avec un surcoût important. Là où je reconnais un problème c'est que les clients qui ont investi dans G-Sync avec leur écran sont désormais captifs pour leur GPU, ce qui peut les empêcher de faire une meilleure affaire ailleurs.
Dans la même veine, une Dacia et une BMW sont deux voitures qui roulent et sont sûres pour leurs passagers, alors pourquoi la BMW coûte le double d'une Dacia de taille équivalente? Est-ce une arnaque, ou bien simplement un produit présentant des avantages supplémentaires et exploitant aussi une certaine notoriété pour se vendre plus cher?
PhysX n'est pas tant une arnaque qu'une technologie qui n'a pas décollé, justement peut-être parce qu'elle n'est pas utilisable par tout le monde. Pourquoi un dev bosserait à implémenter une feature dans son jeu si tous les joueurs consoles et une partie des joueurs PC n'en profiteront jamais?
nVidia ne sont pas plus des escrocs qu'AMD ne sont des enfants de cœur. Tu verras que dès qu'ils arriveront à retrouver une position dominante dans un secteur, que ce soit CPU grand public, serveurs ou GPUs, ils vont en profiter pour accroître leurs profits (note: ils l'ont déjà fait avec les tarifs des Ryzen 3000 au lancement, placés bien chers pour profiter de la faiblesse d'Intel en face). Ils ne sont pas là pour défendre la veuve et l'orphelin, ce sont deux sociétés américaines côtées en bourse, à partir de là leur seule loyauté va à leurs actionnaires et à la quête de profit. Faut sortir du schéma manichéen du méchant Goliath et du gentil David...
N'importe quoi. AMD c'est des braves communistes, la preuve leur logo est rouge. Alors qu'Nvidia ce sont des sales écolo-bobos avec leur logo tout vert...
et si l'un rachète l'autre, ça fera des CG au logo jaune -> confrérie des Canard dominateurs du monde
League of Legend - Urell // Battle Tag - Urel#2145 // Gw2 - urel.7269
Ce que je vois c'est que nvida n'a rien apporté comme technologie ouverte et utilisable par tous depuis son histoire.
A part peut être le Transform et lightning dans les années 90......Et puis le raytracing ha tiens c'est pas proprio, normal ça existe déjà depuis des dizaines d'années, sinon il se seraient sûrement pas génés pour en faire un truc proprio.
Félicitations pour cette réponse argumentée, documentée et pertinente.
Ca résume bien la situation je trouve. Il faudrait idéalement que Nvidia ouvre les anciens écrans G-sync au GPU AMD. Cependant s'ils ne l'ont pas fait pour ces "vieux" écrans alors que ça marche pour les neufs il y a peut-être bien une limitation hardware.
Le vrai problème du moment c'est que pour avoir un peu mieux qu'une 1070ti/1080 il faut taper une 2070 super ou une 5700 xt et c'est bien trop cher dans les 2 pour les perfs proposer en plus. Et si tu veux vraiment un bon en avant c'est 2080 super ou ti, il n'y a rien chez AMD et là les prix sont tous simplement délirants, mais c'est ce qui se passe quand il n'y a pas de concurrent.
Oh merde, ils sont déjà là....
https://www.google.com/amp/s/www.pre...punk-2077/amp/
Je ne sais pas si le scaler nVidia qui équipe les premiers écrans G-Sync est compatible avec la norme VESA en question. Si ce n'est qu'une question de firmware, ils pourraient, sauf qu'nVidia n'a aucun intérêt à le faire sauf s'ils se prennent une class action. Cela reviendrait à "libérer" des clients qui sont prisonniers de leur écosystème, un peu comme si Apple mettait en place une compatibilité parfaite avec Google de son propre gré.
Pour les nouveaux écrans, y'a deux types: ceux qui ont un scaler supportant la norme VESA Adaptative Sync et pour lesquels les drivers nVidia activent le mode "G-Sync compatible", et ceux qui ont toujours un scaler nVidia. Je ne sais pas si ces nouveaux écrans "G-Sync Ultimate" sont aussi compatibles avec la norme VESA ceci dit, et donc ouvert aux GPUs AMD pour faire marcher Freesync dessus. Si je me base sur le Acer Predator X27P par exemple, ce n'est toujours pas le cas.
Il semblerait donc que si on vise un écran G-Sync compatible, on peut choisir AMD ou nVidia, mais si on veut du G-Sync Ultimate on se marie avec nVidia pour quelques années. Et si jamais le prochain Intel Xe (de 500W ) est une tuerie, bah on pourra pas en profiter pleinement.
J'ai l'impression que c'est le mode gaming qui fait planter certain jeux avec les derniers drivers.
Je suis passé en mode par défaut et depuis hier plus de plantage.
Je vous tiens au courant!
Maître des ombres et des lumières combien dure une éternité? Combien de fois faudra t'il faire la même route pour arriver ?
Pratiquement sur que c'était ça quel plaisir d'avoir a nouveau une config stable.
Maître des ombres et des lumières combien dure une éternité? Combien de fois faudra t'il faire la même route pour arriver ?
Tu veux dire le mode jeu de windows ?
Je crois bien que je l'ai laissé, j'ai juste viré la barre.
Faut que je regarde....
Non, je pense que Graine parle du mode jeu des drivers AMD.
Et il est vrai que les internets sont assez unanimes pour indiquer qu'il faut passer tous les réglages Adrenalin en off.
La Zone symbolise l'étrangeté, lieu abandonné et sinistre, mais fascinant pour ce qu'il suppose d'inhumanité. (Frédérique ROUSSEL, Libération 3/06/2010)