Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 231 sur 234 PremièrePremière ... 131181221223224225226227228229230231232233234 DernièreDernière
Affichage des résultats 6 901 à 6 930 sur 7011
  1. #6901
    Citation Envoyé par james gray Voir le message
    Un grand merci à tous les trois les gars et je crois que grâce a vous j'ai trouvé la solution. Je suis branché en display port pour mon PC mais j'utilise une prise HDMI en seconde sortie qui va vers mon ampli home cinéma qui peut lire du 4K. Sauf que j'ai débranché cette prise HDMI aujourd'hui et je peux maintenant monter en résolutions sur n'importe quels jeux. J'imagine donc que c'est dû a mon câble qui ne peut pas monter plus haut que du 1080P.

    Je vais m'acheter un câble HDMI 4K pour remédier à ce problème. Je vous tiendrais au courant.

    Merci beaucoup les canards
    Entre temps, hier soir j'ai forcé la résolution en passant par le panneau Geforce mais ça ne marchait pour autant en jeux. Ils me sortaient des réso encore plus basse que le 1920 la plupart du temps.

    Bon, ça ne marche pas. J ai acheté un monster cable 4K / 60hertz / 8-16bits color /22.5 Gbps mais dès que je le rebranche a mon ampli onkyo nr 646, je me retrouve bloqué de nouveau en 1920 X 1080. Je comprends pas car sur mon ampli, je suis bien sur une entré 4K HDCP2.2 etc.

    Dans le panneau de config Nvidia, je peux régler ma résolution pour l'écran en revanche, tout est grisé pour mon deuxième affichage, celui de l'ampli. Est-ce normal ?

  2. #6902
    As tu regardé dans le Gforce Experience les paramètres des jeux ? il peut te forcer des options

    tes drivers sont à jour ? et c'est quoi exactement ton ampli ?
    League of Legend - Urell // Battle Tag - Urel#2145 // Gw2 - urel.7269 - [VDS] Clé BLD3 / The OuterWorld

  3. #6903
    Merci pour vos réponses ! Reste plus qu’à guetter un bon deal !
    Steam Bnet : Croustimiel#2275 Uplaie : CroustimielCPC NintendoID : Crousti /1822-4842-7313 #Grenouillère2015

  4. #6904
    Citation Envoyé par urel Voir le message
    As tu regardé dans le Gforce Experience les paramètres des jeux ? il peut te forcer des options

    tes drivers sont à jour ? et c'est quoi exactement ton ampli ?
    C'est un ampli home cinéma Onkyo NR 646 ( https://www.son-video.com/article/am.../tx-nr646-noir ).

    Mes drivers Geforce sont à jour. Pour ce qui est de la résolution, tu parles d'aller dans panneau de configuration Nvidia et personnaliser la résolution ou du Geforce experience ? Car dans le Geforce Experience, je peux rien changer dans les paramètres. En revanche, il m'indique bien que ma résolution est en QHD. Et dans les jeux, au moment d'optimiser le jeu, ils me les lancent en QHD mais en jeu, ce n'est pas la résolution du GeforceExperience.

  5. #6905
    Au point où ça en est, peut-être que tu peux créer un topic dans la partie dépannage.

  6. #6906
    Citation Envoyé par TTSev Voir le message
    Au point où ça en est, peut-être que tu peux créer un topic dans la partie dépannage.
    Merci, tu as totalement raison.

  7. #6907
    Un grand merci à tous pour votre aide. Un gars de Gamekult a trouvé la solution à mon problème. J’étais en "dupliquer" au lieu d’être en étendu sur mon Windows 10. Maintenant que je suis en étendu, ça marche niquel. Je suis qu'une merde

    A plus les canards

  8. #6908
    J'envisage d'acheter une MSI Radeon RX 5700 MECH OC 8 Go qui nécessite un seul connecteur PCI-E 8 broches.
    J'ai une alim LDLC TA-650 qui possède un connecteur PCI-E 6+2 broches (en plus deux connecteurs PCI-E 6 broches).

    Vous avez déjà utilisé ce genre de connecteur pour brancher une CG ?
    Un vrai connecteur 8 broches est-il préférable ou c'est équivalent ?

    J'ai vu des Radeon RX 5700 d'autres marques qui nécessitent 2 connecteurs PCI-E (un 6 broches et un 8 broches).
    On peut s'étonner que la MSI se contente d'un seul (info lue sur les fiches techniques de plusieurs sites) ?

  9. #6909
    J'imagine qu'un 6+2 c'est juste un 8 qui permet plus de chose. En tout cas sur mon alim j'ai des 6+2 et ça fonctionne très bien sur une prise 8.

  10. #6910
    Un 6+2 broches permet juste de donner le choix à l'utilisateur et fait des économies aux fabricants(évite d'avoir un 8 broches et un 6 broches).

    - - - Mise à jour - - -

    Citation Envoyé par michelb91 Voir le message
    On peut s'étonner que la MSI se contente d'un seul (info lue sur les fiches techniques de plusieurs sites) ?
    La MSI doit pas dépasser les 225W(150W pour le 8 broches et 75 pour le port PCIE de la carte mère) tandis que les versions OC doit dépasser et demande alors un 6 broches supplémentaires(75W).

  11. #6911
    Mais c'est pas le meilleur modèle par contre, va plutôt vers la Sapphire Pulse même si c'est vrai qu'à 350€ la Mech OC est tentante.

    Mais on a déjà vu des codes promos -10% sur les cartes graphiques sur HFR et donc la Sapphire Pulse 381€ y serait sous les 350€ ou sur Cdiscount, une code -5% ou plus, comme elle est à 370€

  12. #6912
    En fait, je l'ai vu à 337 € mais c'est sur Top Achat.
    Sur HFR, elle est 365€ avec les -6%. La Sapphique Pulse serait d'ailleurs moins chère.
    Port compris dans les 2 cas.

  13. #6913
    Comme l'a dit Stiouf il vaut mieux prendre la Pulse.

  14. #6914
    Citation Envoyé par revanwolf Voir le message
    Un 6+2 broches permet juste de donner le choix à l'utilisateur et fait des économies aux fabricants(évite d'avoir un 8 broches et un 6 broches).

    - - - Mise à jour - - -



    La MSI doit pas dépasser les 225W(150W pour le 8 broches et 75 pour le port PCIE de la carte mère) tandis que les versions OC doit dépasser et demande alors un 6 broches supplémentaires(75W).
    D'après le site HFR, la consommation est de 225W. Donc, c'est limite avec un seul connecteur 8 broches.
    Si on compare avec la Pulse, la consommation indiquée dans la fiche technique est 187W. C'est donc très large, vu qu'il y a 2 connecteurs. Ou on n'est pas obligé de brancher les deux ?

  15. #6915
    Salut, un petit conseil pour le Black Friday

    une RTX 2060 pour remplacer ma GTX 970 qui mouline avec un core I5 3570k. Version super ou pas ?

    merci

    Edit : Une motivation, c'est aussi d'avoir 3 Display port pour brancher un Rift S, donc non, ma 970 suffit plus.

    Reedit : et que Nvidia, j'ai un ecran Gsync. Pas de "AMD !!!"

    Par contre je changerai sans doute pour un Ryzen pour dans 2 ans.

  16. #6916
    Je viens de découvrir le pack reprise chez RDC et si j’ai bien compris ça permet de récupérer 80% du prix de son matos si on le renvoie avant 1 an. Donc pour ceux comme moi qui veulent une nouvelle CG maintenant mais qui ont peur de rater le vrai tournant avec les futures Nvidia 7mm et l’arrivée des nouvelles consoles, j’ai l’impression que c’est un super plan !

    Sinon des retours sur la KFA2 RTX2060 Super Twin Fan OC ? Son prix me fait de l’œil !

  17. #6917
    Question triviale mais vous voyez une différence entre les réglages Normal/Ultra ?
    A part une chute de FPS.

  18. #6918
    Ça dépend des jeux. En général la différence graphique entre high et ultra/max ne justifie absolument pas le surcoût en puissance requise.
    Citation Envoyé par Perlooz Voir le message
    Sinon moi je pense que je dérouille Karhmit, Kimuji, + une nana lambda sans problème, 2 tapettes et un gonzesse quand tu fais 2m et 110Kg c'est de la rigolade

  19. #6919
    Oui en l’occurrence sur BF V (qui est plutôt beau comme jeu.)Je ne vois aucune diff...A moins de comparer peut être 2 Screenshots.
    Suis content de Ma RX 5700 mais honnêtement ma rx 580 suffisait largement.

  20. #6920
    Citation Envoyé par Graine Voir le message
    Question triviale mais vous voyez une différence entre les réglages Normal/Ultra ?
    A part une chute de FPS.
    CPC HW avait fait une étude y'a un moment, en double aveugle. Le résultat: les gens voient une petite différence entre moyen et élevé, mais aucune entre élevé et ultra (en dynamique). L'ultra n'a donc comme intérêt principal que les screenshots et la vente de GPUs très chers.

    C'est pour cette raison que j'attends 2 générations pour changer mon GPU à chaque fois, si c'est juste pour repasser de élevé à ultra je sais que je ne verrai pas de différence et que j'aurai l'impression de gaspiller mon argent.

  21. #6921
    déja tu réduis la quamité des ombres, tu la vois la différence, et pourtant t'as touché à rien d'autre, et c'est pas non plus l'option qui va changer tout le rendu
    League of Legend - Urell // Battle Tag - Urel#2145 // Gw2 - urel.7269 - [VDS] Clé BLD3 / The OuterWorld

  22. #6922
    Citation Envoyé par Qiou87 Voir le message
    CPC HW avait fait une étude y'a un moment, en double aveugle. Le résultat: les gens voient une petite différence entre moyen et élevé, mais aucune entre élevé et ultra (en dynamique). L'ultra n'a donc comme intérêt principal que les screenshots et la vente de GPUs très chers.

    C'est pour cette raison que j'attends 2 générations pour changer mon GPU à chaque fois, si c'est juste pour repasser de élevé à ultra je sais que je ne verrai pas de différence et que j'aurai l'impression de gaspiller mon argent.
    C'est bien l'impression que j'ai.

  23. #6923
    Les différence de visibilité entre les niveaux de détails n'est pas non plus pareil selon éléments (ombre, textures, SSAO, détail de l'eau, AA etc), et sont plus ou moins gourmands.

    Par exemple sur Red Dead Redemption 2, certains critères n'apportent rien ou très peu, certains sont bien visibles entre moyen et haut mais pas plus, d'autres bouffent rien donc autant les mettre à fond, certains sont gourmands et apportent très peu, d'autres sont à éviter (FXAA par exemple)...

    Il n'y a pas de règle.

    Et ça dépend aussi du type de jeu, jeu lent où on a le temps de détailler, jeu rapide où on n'a pas le temps de tout voir.
    Code parrainage Star Citizen : STAR-93DX-YP96
    Nombre de recrues : 1

  24. #6924
    et aussi que certains jeux sont codés avec le c** et donc l'ultra est tres mal optimisé

    mais bon certains pleurent leur CG quand ils ne peuvent plus passer en ultra, c'est le commerce...
    League of Legend - Urell // Battle Tag - Urel#2145 // Gw2 - urel.7269 - [VDS] Clé BLD3 / The OuterWorld

  25. #6925
    Citation Envoyé par urel Voir le message
    et aussi que certains jeux sont codés avec le c** et donc l'ultra est tres mal optimisé

    mais bon certains pleurent leur CG quand ils ne peuvent plus passer en ultra, c'est le commerce...
    Ils confondent la puissante brute de la carte, le fonctionnement des drivers et les réglages graphiques du jeu qui dépendent des programmeurs. De nos jours les jeux sont opti pour les consoles,

    c'est tout le problème des réglages personnels à effectuer en fonction de notre gpu notre écran et bien sur de nos jeux.
    Ils sont aussi dangereux qu’une attaque de hamsters

  26. #6926
    Citation Envoyé par JAILS4FUN Voir le message
    Ils confondent la puissante brute de la carte, le fonctionnement des drivers et les réglages graphiques du jeu qui dépendent des programmeurs. De nos jours les jeux sont opti pour les consoles,

    c'est tout le problème des réglages personnels à effectuer en fonction de notre gpu notre écran et bien sur de nos jeux.
    amen :/
    League of Legend - Urell // Battle Tag - Urel#2145 // Gw2 - urel.7269 - [VDS] Clé BLD3 / The OuterWorld

  27. #6927
    Bon je crois que les bonnes rx5700xt se vendent trop bien et qu'il n'y aura pas de bon plan demain
    Ils soldent que les bouses qui font du bruit

  28. #6928
    Citation Envoyé par Arteis Voir le message
    Bon je crois que les bonnes rx5700xt se vendent trop bien et qu'il n'y aura pas de bon plan demain
    Ils soldent que les bouses qui font du bruit
    Les 5700xt sont trop récentes aussi (comme les Super de Nvidia).
    Code parrainage Star Citizen : STAR-93DX-YP96
    Nombre de recrues : 1

  29. #6929
    Hello les canards,

    Comme beaucoup avant moi, je cherche des conseils avisés pour l'achat d'une carte graphique.

    Mon but est d'acheter un écran 1440p 144Hz et la CG qui va avec pour en profiter. De toutes façon ma GTX 770 montre clairement ses limites.
    Je suis prêt à mettre un peu plus cher pour un truc bien silencieux.

    Une première question déjà : est-ce que le fait de jouer en 144Hz plutôt qu'en 60Hz par exemple est plus gourmand sur la CG (à resolution équivalente) ? De ma compréhension, c'est "juste" que pour profiter des rafraîchissements plus élevés il faut avoir une carte capable de produire 144fps (ou au moins plus que 60)

    De ce que j'ai lu les deu candidats sont la RX 5700 XT) ou la RTX 2070 (Super ou non).
    D'habitude je me fie aveuglement aux configs de Qiou ou Jiys suivant le budget mais la pour le coup, la différence de prix est notable avec les CG AMD.

    Est-ce qu'une RX 5700 XT parait approprié pour le 1440p 144Hz ?

    Merci d'avance pour les réponses !

  30. #6930
    Citation Envoyé par Rouqanzhul
    Une première question déjà : est-ce que le fait de jouer en 144Hz plutôt qu'en 60Hz par exemple est plus gourmand sur la CG (à resolution équivalente) ? De ma compréhension, c'est "juste" que pour profiter des rafraîchissements plus élevés il faut avoir une carte capable de produire 144fps (ou au moins plus que 60)
    oui, il faut que la CG soient taillée pour le 144Hz, cela demande plus de ressources, mais cela dépend également de la résolution 1080p ou 1440p
    par contre 144fps ce n'est pas 144Hz, le taux de rafraîchissement n'est pas égale aux images par secondes

    Citation Envoyé par Rouqanzhul
    Est-ce qu'une RX 5700 XT parait approprié pour le 1440p 144Hz ?
    c'est le minimum, avec les 2070 (peut être la 2060 SUPER mais pas sur)
    League of Legend - Urell // Battle Tag - Urel#2145 // Gw2 - urel.7269 - [VDS] Clé BLD3 / The OuterWorld

Page 231 sur 234 PremièrePremière ... 131181221223224225226227228229230231232233234 DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •