Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 175 sur 337 PremièrePremière ... 75125165167168169170171172173174175176177178179180181182183185225275 ... DernièreDernière
Affichage des résultats 5 221 à 5 250 sur 10081
  1. #5221
    T'es dans quelle fourchette de framerate dans ce cas ? Il est OC ton proc ?



  2. #5222
    Il est OC à 4,2Ghz.

    Je dois avouer que je ne regarde pas vraiment les FPS (pas du tout même), tant que c'est fluide.

    En général je mets les presets les plus hauts et je baisse un peu certains trucs si ça ramouille un peu.

    Quelques exemples:
    Le dernier Deus Ex.... Ca ramouillait un peu. Mais en fait ça venait de la RAM, je n'avais que 8Go (4x2Go), je suis passé à 20 (2x8 + 2x2), plus de soucis.
    Watch Dog 2, en ultra, c'est pas vraiment fluide, surtout avec la distance de vue au max. Je suis passé en Very High, rajouté quelques options, baissé la distance de vue, et ça allait parfaitement
    Dishonored 2 j'ai réduit un peu les options aussi. Après plus de soucis (mais je n'étais surement pas à 90Fps constant)

    Ces deux derniers jeux sont les exemples les plus "rudes" que j'ai eu avec cette config.

    TW3, AC Origin, GTA V, The Division, Wolfenstein II, Cities Skyline, etc... Sont très fluides.

    Le G Sync fait des miracles je pense aussi.

  3. #5223
    Okay merci pour le retour.



  4. #5224
    Est-ce qu'il y a une liste répertoriant les modèles de RTX "A" (overclockable) et "non A" (non overclockable)

  5. #5225
    Citation Envoyé par Cedski Voir le message
    Le G Sync fait des miracles je pense aussi.
    Tiens parlons-en...
    Je ne sais pas si ça dépend de l'âge de la puce, d'un problème matériel ou tout simplement logiciel (de certains jeux), mais je ne trouve pas la Gsync miraculeuse.
    Je ressens toujours des baisses de framerate et certains jeux sont quand même sujets au tearing.

    Ça fonctionne vraiment bien chez toi ? Je crois qu'il faudrait que je fasse un essai en la désactivant pour voir la différence.

  6. #5226
    Perso je confirme, G-Sync c'est vraiment le top par contre des versions de drivers le casse quelque fois introduisant du stutter mais jamais de tearing pour ma part.

  7. #5227
    Ben il me semblait que le G-sync c'était soit sur des 24", soit sur des 32".
    Qu'il y avait une seule ref en 27" mais en 1080p.

    C'est quoi ton écran ?
    http://neurabloc.com/index.php/fr-fr/
    LA référence STEM, robot éducatif et tech (Enfin LA référence si vous m'aidez ...)

  8. #5228
    Citation Envoyé par Blazkowicz Voir le message
    Perso je confirme, G-Sync c'est vraiment le top par contre des versions de drivers le casse quelque fois introduisant du stutter mais jamais de tearing pour ma part.
    Ah bah super, c'est vraiment le comble du comble pour une techno propriétaire de merde.



  9. #5229
    Citation Envoyé par Stelarc Voir le message
    Ah bah super, c'est vraiment le comble du comble pour une techno propriétaire de merde.
    Généralement c'est à chaque mise à niveau du WDDM par Microsoft, d'ailleurs la dernière révision 2.4 a cassée la fonction "Turbo" des moniteurs ASUS :

    https://www.reddit.com/r/Windows10/c..._button_turbo/

    Dernière modification par Blazkowicz ; 19/10/2018 à 21h30.

  10. #5230
    Perso, seul problème avec Gsync, il s'active de façon aléatoire lorsque je joue en fenêtré, je ne sais pas pourquoi. En plein écran jamais eu de soucis par contre.

  11. #5231
    Citation Envoyé par Pandalex Voir le message
    Ben il me semblait que le G-sync c'était soit sur des 24", soit sur des 32".
    Qu'il y avait une seule ref en 27" mais en 1080p.

    C'est quoi ton écran ?
    Non la gamme est bien plus étendue, j'ai ça depuis deux ans et demi : https://www.ldlc.com/fiche/PB00199869.html

  12. #5232
    Citation Envoyé par Blazkowicz Voir le message
    Perso je confirme, G-Sync c'est vraiment le top par contre des versions de drivers le casse quelque fois introduisant du stutter mais jamais de tearing pour ma part.
    Encore heureux qu'il n'y ait pas de tearing, c'est un peu le but du G-Sync.

    - - - Mise à jour - - -

    Citation Envoyé par Pandalex Voir le message
    Ben il me semblait que le G-sync c'était soit sur des 24", soit sur des 32".
    Qu'il y avait une seule ref en 27" mais en 1080p.

    C'est quoi ton écran ?
    27" 1440p; c'est un peu le type d'écran le plus nombreux en G-Sync.
    Le premier écran G-Sync était un 27" 1440p (je l'ai).

    https://www.ldlc.com/informatique/pe...+fc2037-1.html

  13. #5233
    Ma femme a eu le ROG swift qui était le tout premier GSync à ma connaissance et c'était bien un 27", 1440p.
    Quand j'ai vu ce que ça donnait j'ai tout de suite voulu en prendre un pour moi, je me suis pris le Acer XB270HU, aussi un 27" 1440p. A noter que l'Asus ROG swift de ma femme est mort depuis après même pas 3 ans (et vu le prix, c'est un peu la haine), elle s'est pris un Acer XB271HU pour le remplacer, encore un écran Gsync 27" 1440p.

    En fait une fois qu'on y a goûté, c'est dur de revenir en arrière même si ça coûte une blinde. C'est pour moi plus important que la 4k, le HDR ou le 144Hz.
    Et une fois que le FressSync deviendra la norme sur les télés, je pense que ça va énormément faire de bien aux jeux sur consoles.

  14. #5234
    Encore moi, j’hésite entre une 1070 Ti et une Vega 64 (dans ce cas je dois changer l’alimentation), mon écran est compatible FreeSync, 1080p, 144 Hz. Sachant que mon principal critère de choix est celle qui me durera le plus longtemps possible.

  15. #5235
    Citation Envoyé par Endymion Voir le message
    Encore heureux qu'il n'y ait pas de tearing, c'est un peu le but du G-Sync.
    Clairement pas. Le but du G-Sync/FreeSync c'est de synchroniser l'écran avec le rendu GPU, et plus l'inverse.
    Donc, certes, au passage ça revient à une Vsync mais pas régulière à 60 ou 144 Hz (par exemple), et donc ça élimine le tearing.
    Mais le but principal de ces technos c'est d'avoir une fluidité ressentie maximale, la plus régulière possible, malgré des variations du temps de rendu, et si possible même dans les bas taux d'images rendues par seconde.
    C'est très réducteur de le présenter comme ça...

    Parce que sinon, du jeu fluide, sans trop d'input-lag et sans tearing, on savait déjà faire : jouer à 120/144 images par seconde (stables et avec Vsync active) sur un écran 120/144 Hz.
    Pas de tearing, fluidité très confortable, input lag minime (à 144Hz/fps stables, à moins de faire de l'esport à très haut niveau, qu'on me sorte pas l'excuse de l'input lag).
    Sauf que si tu as des descentes à 50 fps dans une zone un peu lourde à dessiner c'est la cata.

  16. #5236
    Citation Envoyé par Borh Voir le message
    Ma femme a eu le ROG swift qui était le tout premier GSync à ma connaissance et c'était bien un 27", 1440p.
    Quand j'ai vu ce que ça donnait j'ai tout de suite voulu en prendre un pour moi, je me suis pris le Acer XB270HU, aussi un 27" 1440p. A noter que l'Asus ROG swift de ma femme est mort depuis après même pas 3 ans (et vu le prix, c'est un peu la haine), elle s'est pris un Acer XB271HU pour le remplacer, encore un écran Gsync 27" 1440p.

    En fait une fois qu'on y a goûté, c'est dur de revenir en arrière même si ça coûte une blinde. C'est pour moi plus important que la 4k, le HDR ou le 144Hz.
    Et une fois que le FressSync deviendra la norme sur les télés, je pense que ça va énormément faire de bien aux jeux sur consoles.
    Pas de chance, le mien fonctionne toujours aussi bien.

    - - - Mise à jour - - -

    Citation Envoyé par taronyu26 Voir le message
    Clairement pas. Le but du G-Sync/FreeSync c'est de synchroniser l'écran avec le rendu GPU, et plus l'inverse.
    Donc, certes, au passage ça revient à une Vsync mais pas régulière à 60 ou 144 Hz (par exemple), et donc ça élimine le tearing.
    Mais le but principal de ces technos c'est d'avoir une fluidité ressentie maximale, la plus régulière possible, malgré des variations du temps de rendu, et si possible même dans les bas taux d'images rendues par seconde.
    C'est très réducteur de le présenter comme ça...

    Parce que sinon, du jeu fluide, sans trop d'input-lag et sans tearing, on savait déjà faire : jouer à 120/144 images par seconde (stables et avec Vsync active) sur un écran 120/144 Hz.
    Pas de tearing, fluidité très confortable, input lag minime (à 144Hz/fps stables, à moins de faire de l'esport à très haut niveau, qu'on me sorte pas l'excuse de l'input lag).
    Sauf que si tu as des descentes à 50 fps dans une zone un peu lourde à dessiner c'est la cata.
    Le but de base du G-Sync est de n'avoir aucun tearing quand on ne veut pas activer la V-Sync (suffit de voir les article présentant le système à l'époque).
    Sans G-Sync:
    - tu mets pas le V-Sync --> tearing mais fluide
    - tu mets la V-Sync --> pas de tearing mais pas fluide
    G-Sync (et Freesync) --> pas de tearing et fluide tant qu'on est dans l'intervalle adéquat.

    Et en effet, le seul moyen d'avoir un rendu fluide sans tearing sur un écran sans G/Freesync, donc avec V-Sync activée; c'est de s'assurer de taper haut en fps.

    Donc, le G-Sync (et Freesync) permet de n'avoir ni tearing, ni chûtes de fps, sans pour autant avoir à taper les 60-120-144 fps. (la croyance de certains comme quoi un écran G-Sync 144Hz oblige à avoir une grosse config est totalement erronée)

    - - - Mise à jour - - -

    Citation Envoyé par Borh Voir le message
    Et une fois que le FressSync deviendra la norme sur les télés, je pense que ça va énormément faire de bien aux jeux sur consoles.
    J'ai vu une vidéo de Linus Tech Tips de test d'une TV Samsung avec Freesync, c'était pas très brillant (surtout vu le prix; Q9F 65" qui coûte 3500 € ) car l’intervalle de fréquence est de 40-60Hz.
    Donc pas top si on veut brancher un PC dessus, pas top si on joue à un jeu console à 30 fps.
    https://www.youtube.com/watch?v=oHtXx1JOUpo
    Dernière modification par Endymion ; 20/10/2018 à 00h51.

  17. #5237


    Y'a quand même un gros gain de netteté avec le DLSS.

  18. #5238
    Citation Envoyé par Endymion Voir le message
    J'ai vu une vidéo de Linus Tech Tips de test d'une TV Samsung avec Freesync, c'était pas très brillant (surtout vu le prix; Q9F 65" qui coûte 3500 € ) car l’intervalle de fréquence est de 40-60Hz.
    Donc pas top si on veut brancher un PC dessus, pas top si on joue à un jeu console à 30 fps.
    https://www.youtube.com/watch?v=oHtXx1JOUpo
    Attention car cette plage de 48-60Hz est seulement en UHD/4K car en FHD/1080P elle est de 48-120Hz, la raison est que l'HDMI 2.0 des TV actuels est incapable de gérer la bande passante du 4k 120Hz.

    L'HDMI 2.1 comble ces lacunes mais les 1ere TV compatible seront pas avant 2019 et il faudra aussi des carte graphiques en HDMI 2.1.

    - - - Mise à jour - - -

    Citation Envoyé par Blazkowicz Voir le message
    Y'a quand même un gros gain de netteté avec le DLSS.
    Sauf sur la plaque d'immatriculation où ça devient plus flou.

  19. #5239
    Bonjour,

    Est-ce que quelqu'un a des retours sur la MSI GeForce GTX 1070 Ti ARMOR 8G ? Niveau bruit et refroidissement en particulier mais si vous avez d'autres choses je prends aussi.

  20. #5240
    Citation Envoyé par Blazkowicz Voir le message
    https://www.techspot.com/articles-in...images/F-1.jpg

    Y'a quand même un gros gain de netteté avec le DLSS.
    La démo de FFXV est un très mauvais exemple. Son implémentation du TAA est absolument horrible, ça crée un flou pas possible. Le 4K sans TAA est beaucoup plus net que le 4K avec TAA ou le 4K DLSS. Il ne faut pas rêver, une image 4K fabriquée à partir d'une image rendu en 2K à l'origine ne pourra jamais rivaliser avec du 4K natif. Le fautif ici c'est le TAA.

    Je vais pas reposter encore une fois la vidéo qui décortique le DLSS (qualité d'image et impact sur les performances) mais je vais redonner la conclusion: le DLSS 4K (image d'abord calculée en 2K puis reconstruite en 4K via les tensor cores) est équivalent, en qualité d'image et perf, à un rendu en 1800p upscalé en 4K.
    Dernière modification par Kimuji ; 20/10/2018 à 10h21.

  21. #5241
    Ah merde j'avais pas suivi, c'est l'implémentation du TAA qui est à l'arrache sur FF ? Dommage car un TAA bien implanté est généralement correcte en rendu non-statique.

    Après pour ce qui est de la 4K native je me doute que ce soit le best même si j'ai des doutes, faudrait que je trouve des infos approfondies sur le DLSS notamment la grille de pixels utilisée.

    Par contre le réseau neuronal utilisé pour le DLSS est toujours en cours d'amélioration, faudrait voir ça avec un réseau mature dans 6 mois~1 an.

  22. #5242
    Citation Envoyé par Endymion Voir le message
    J'ai vu une vidéo de Linus Tech Tips de test d'une TV Samsung avec Freesync, c'était pas très brillant (surtout vu le prix; Q9F 65" qui coûte 3500 € ) car l’intervalle de fréquence est de 40-60Hz.
    Donc pas top si on veut brancher un PC dessus, pas top si on joue à un jeu console à 30 fps.
    https://www.youtube.com/watch?v=oHtXx1JOUpo
    Il me semblait que FreeSync fonctionnait désormais comme Gsync, c'est à dire que lorsque les fps passent sous la fréquence minimale, l'écran adapte sa fréquence pour faire un multiple des fps. Par exemple si la fréquence minimale est à 40-60Hz et que les fps sont à 24, la télé se met à 48Hz.
    Après, 40-60, ça pose soucis car il y a tout l'intervalle 30-40fps qui n'a pas de multiple dans l'intervalle, au dessus et au dessous ça va, mais pas dans cet intervalle particulier, ça marchera pas. Faudrait que ce soit un intervalle de 30-60Hz ou 40-80Hz pour que tous les multiples des fps soient couverts, et imo, ça me parait pas inaccessible.

  23. #5243
    @Endymion : Désolé mais je suis obligé d'insister parce qu'il semble que tu sois mal renseigné.

    Citation Envoyé par Endymion Voir le message
    Le but de base du G-Sync est de n'avoir aucun tearing quand on ne veut pas activer la V-Sync (suffit de voir les article présentant le système à l'époque).
    Alors justement, non, non et encore non, et surtout non. Puisque d'une part, le G-Sync C'EST une synchronisation, c'est une v-sync en bonne et due forme, si ce n'est que c'est la cadence de rendu qui impose la fréquence, et pas la dalle de l'écran. On la qualifie donc de v-sync dynamique.

    Et justement, les articles de l'époque, comme tu dis, le confirment. Il suffit de lire ne serait-ce que le titre de l'article HFR qui présentait la techno :
    Nvidia G-SYNC: la v-sync enfin dynamique !
    Et bien sûr c'est confirmé dans le contenu :
    Cette limitation pénalise le jeu PC depuis des années et G-SYNC la fait enfin voler en éclats à travers une synchronisation verticale dynamique
    se rafraîchir en synchronisation avec le GPU
    La sensation de fluidité avec G-SYNC activé est excellente dès 40 fps, alors qu'entre 40 et 60 fps elle est souvent très mauvaise avec v-sync et tout juste passable sans v-sync.
    Donc encore une fois, le G-Sync et le Freesync C'EST de la synchronisation verticale, avec comme nouveauté de 1- pouvoir faire varier la fréquence 2- l'imposer à l'écran au lieu de se la faire imposer.

    Citation Envoyé par Endymion Voir le message
    Et en effet, le seul moyen d'avoir un rendu fluide sans tearing sur un écran sans G/Freesync, donc avec V-Sync activée; c'est de s'assurer de taper haut en fps.
    C'est faux.
    Même si elles n'égalent pas les nouvelles technos G-Sync/Freesync, des astuces étaient déjà utilisées pour trouver un bon compromis entre Vsync ON et Vsync OFF.
    Par exemple, la technique de la "Vsync adaptative" (ça c'est son nom chez Nvidia, à ne pas confondre avec "Adaptive Sync" qui a été choisi comme nom générique VESA pour Freesync) qui consiste à n'activer la V-sync que si l'on dépasse la fréquence de l'écran. Dans les autres cas, c'est un rendu en mode "immediate".
    Ou encore, la technique de buffering qui autorise le rendu de plusieurs images entre deux périodes, sachant que l'image affichée par l'écran sera la dernière image rendue à 100%. Aucun tearing possible, mais l'image utilisée est potentiellement plus récente que l'unique image qui aurait été rendue si la Vsync était active, et donc moins d'input-lag.

    Citation Envoyé par Endymion Voir le message
    Donc, le G-Sync (et Freesync) permet de n'avoir ni tearing, ni chûtes de fps, sans pour autant avoir à taper les 60-120-144 fps. (la croyance de certains comme quoi un écran G-Sync 144Hz oblige à avoir une grosse config est totalement erronée)
    Oui, pas de tearing puisque justement ce SONT des V-sync. Et enfin, oui, les chutes de FPS sont moins perceptibles (dire qu'elles sont absentes serait faux, si tu tombes trop bas tu vas le sentir, peu importe la techno), et ce sans avoir besoin de tourner à 144fps. C'est bel et bien ça le but de ces technos, comme je le disais au-dessus.
    Donc tu vois, au fond de toi tu sais déjà que le but ce n'est pas de se débarrasser de synchronisation GPU<->écran.

  24. #5244
    Citation Envoyé par Couyu Voir le message
    Tiens parlons-en...
    Je ne sais pas si ça dépend de l'âge de la puce, d'un problème matériel ou tout simplement logiciel (de certains jeux), mais je ne trouve pas la Gsync miraculeuse.
    Je ressens toujours des baisses de framerate et certains jeux sont quand même sujets au tearing.

    Ça fonctionne vraiment bien chez toi ? Je crois qu'il faudrait que je fasse un essai en la désactivant pour voir la différence.
    Oh que oui, faut vraiment que ça baisse sous les 40fps pour que je ressente une réelle gène.

    Je ne vois pas comment tu peux avoir du tearing avec la G Sync activé.

  25. #5245
    Il faut aller dans le Nvidia control panel



    pour le tearing

    1/ activer Gsync
    2/ activer Vsync

    3/ desactiver Vsync dans le jeu

  26. #5246
    Et si possible limiter les fps à -3 im/s de la fréquence maximum de rafraîchissement de l'écran pour rester dans la plage G-Sync.

  27. #5247
    Citation Envoyé par taronyu26 Voir le message
    bla
    Souci de compréhension on dirait, tu commences par me dire non pour ensuite dire d'une autre manière ce que j'ai dit.
    Donc au final on a le même avis...

    - - - Mise à jour - - -

    Citation Envoyé par revanwolf Voir le message
    Attention car cette plage de 48-60Hz est seulement en UHD/4K car en FHD/1080P elle est de 48-120Hz, la raison est que l'HDMI 2.0 des TV actuels est incapable de gérer la bande passante du 4k 120Hz.

    L'HDMI 2.1 comble ces lacunes mais les 1ere TV compatible seront pas avant 2019 et il faudra aussi des carte graphiques en HDMI 2.1.
    Cela ne me choque pas que ça n'aille pas au-dessus de 60 Hz, donc 60 fps, surtout si on joue sur console, il n'y a à ma connaissance aucune console faisant tourner des jeux à plus de 60 fps.
    Ce qui me dérange plus c'est la limite basse, il faudrait du 30 Hz.

  28. #5248
    Citation Envoyé par Endymion Voir le message
    Souci de compréhension on dirait, tu commences par me dire non pour ensuite dire d'une autre manière ce que j'ai dit.
    Donc au final on a le même avis...

    - - - Mise à jour - - -



    Cela ne me choque pas que ça n'aille pas au-dessus de 60 Hz, donc 60 fps, surtout si on joue sur console, il n'y a à ma connaissance aucune console faisant tourner des jeux à plus de 60 fps.
    Ce qui me dérange plus c'est la limite basse, il faudrait du 30 Hz.
    C'est très important quand même du fait des multiples de fps. Si ton jeu est entre 30 et 40 fps sur un écran Fressync 48-60Hz, il y aura pas de synchronisation. Alors que sur un écran 48-120Hz, le FreeSync fonctionnera, la fréquence de rafraichissement de l'écran se synchronisera sur le double des fps du jeu, 1 frame calculée par la carte graphique sera affichée sur 2 frames sur l'écran.
    Donc effectivement, le HDMI 2.1 va changer beaucoup de chose, mieux vaut l'attendre avant d'acheter une nouvelle télé.

  29. #5249
    Citation Envoyé par Borh Voir le message
    C'est très important quand même du fait des multiples de fps. Si ton jeu est entre 30 et 40 fps sur un écran Fressync 48-60Hz, il y aura pas de synchronisation. Alors que sur un écran 48-120Hz, le FreeSync fonctionnera, la fréquence de rafraichissement de l'écran se synchronisera sur le double des fps du jeu, 1 frame calculée par la carte graphique sera affichée sur 2 frames sur l'écran.
    Donc effectivement, le HDMI 2.1 va changer beaucoup de chose, mieux vaut l'attendre avant d'acheter une nouvelle télé.
    On est d'accord, car la majorité des jeux console tournent à 30 fps, donc en-dehors de cette plage.
    Certes sur PS4 Pro et Xbox One X on peut choisir parfois d'avoir un jeu à 60 fps (ou bien 30 fps plus beau, et là...).
    Et si un jour on a des consoles pouvant monter à +60-120 fps, là c'est dommage aussi.

    Par contre c'est un encore plus gênant si on branche un PC; si t'as un PC qui peut taper les 120 fps tranquille et bien il vaudra mieux capper à 60 fps si tu veux que Freesync soit utilisé.

  30. #5250
    Citation Envoyé par Endymion Voir le message
    Souci de compréhension on dirait, tu commences par me dire non pour ensuite dire d'une autre manière ce que j'ai dit.
    Donc au final on a le même avis...
    Bah le début et la fin de ton post étaient en contradiction. Donc je suis en désaccord avec le début, et en accord avec la fin.
    Et j'insiste bien, l'idée du Gsync et Freesync n'est pas de se débarrasser de la Vsync, mais d'offrir un maximum de fluidité en cas de taux d'images rendues par seconde modérés et/ou variables, via un mécanisme de Vsync dynamique.
    Et ces technos ne sont pas le seul moyen de jouer de façon fluide sans trop d'input-lag, il y a des alternatives.



    D'ailleurs je trouve que le parti-pris de viser le 144 fps sur un écran 144Hz reste viable, pour plusieurs raisons :
    • Freesync ? Il te faut un écran Freesync et un GPU de chez AMD. Gsync ? Il te faut un écran Gsync et un GPU de chez Nvidia. Si tu veux changer de crêmerie côté GPU, soit tu te passes de la techno du concurrent, soit tu changes aussi l'écran... Bref soit tu te forces à rester chez le même fondeur, soit tu changes d'écran au changement de carte graphique.
    • Le budget qu'on met dans un tel écran, surtout en Gsync chez Nvidia, pourrait très bien aller dans un GPU plus véloce. Alors certes, un écran se garde théoriquement assez longtemps (sauf si bien sûr, on doit changer de crêmerie par la suite), mais en même temps on vise des taux de FPS plus bas tout en s'imposant de rester chez le même fabricant de GPU pour rester compatible avec la dalle. Alors qu'un GPU plus véloce permettrait de viser des taux plus hauts, tout en allant de pair avec n'importe quel écran classique.
    • Pour les jeux qui ne nécessitent pas une réactivité extrême, viser le 72 fps en double vsync marche très bien, ça reste fluide, c'est plus simple à maintenir de façon stable, et encore une fois on se préserve de tout pacte de sang avec un fabricant. Exemple : le dernier DOOM en 144 Hz c'est un pur bonheur, mais pour doser des brouxes sur The Witcher III on peut tourner à 72 fps sans réel impact négatif sur la jouabilité.

Page 175 sur 337 PremièrePremière ... 75125165167168169170171172173174175176177178179180181182183185225275 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •