Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 256 sur 313 PremièrePremière ... 156206246248249250251252253254255256257258259260261262263264266306 ... DernièreDernière
Affichage des résultats 7 651 à 7 680 sur 9367
  1. #7651
    Citation Envoyé par Dross Voir le message
    Vous... déconnectez votre CG plus d'une ou deux fois durant sa durée d'utilisation ?
    J'allais rebondir dans ce sens.
    Je comprend l'absurdité du truc, mais ma gtx1060 actuelle j ai du l'enlever 5 fois en 4 ans ...

  2. #7652
    Citation Envoyé par Dross Voir le message
    Vous... déconnectez votre CG plus d'une ou deux fois durant sa durée d'utilisation ?
    Non, on va dire que à part pour avoir besoin de toucher un composant à problème, en règle générale on enlève peu les câbles, néanmoins là il est quand même question d'un remplacement total... c'est pas rien je trouve.
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  3. #7653
    Je la débranche et la range dans sa boîte après chaque utilisation !

  4. #7654
    Ouais mais pour des gens qui testent du matos, ça peut être rageant.

    (Et ne pas oublier dans le post les nouveaux tarifs des cartes ATI ).
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  5. #7655
    Citation Envoyé par Maalak Voir le message
    Dit-il en jouant à Flight Simulator sur son casque HP Reverb 2.
    Ouais mais MSFS je le fais déjà tourner à 90FPS en 2880x1600 avec ma GTX 1070 dans ce cas
    Spoiler Alert!
    En fait il tourne en low + de l'upscaling mais pas tant que ça, à 30FPS + 2/3 de frames synthétisées, sans motion smoothing (reprojection plus basique) sinon ça me fait des méga artefacts (surtout à cause des hélices). Et dans des contextes sélectionnés (pas un avion ni environnement trop lourd). Pour le coup sauf si on fait de la voltige 33ms d'input lag / world refresh ça va… mais seulement 11ms de lag de la caméra.


    Quand même curieux de ce donne leur système de génération de frames, et s'il pourra être un jour intégré aux pipelines de rendu VR.

  6. #7656
    Moi ce que je suis curieux de savoir, c'est quel CPU mettre en face de ces fameuses cartes RTX series 40xx sans être bottlenech, parceque là je ne vois pas

  7. #7657
    Citation Envoyé par QuiLetoKyja Voir le message
    Moi ce que je suis curieux de savoir, c'est quel CPU mettre en face de ces fameuses cartes RTX series 40xx sans être bottlenech, parceque là je ne vois pas
    Ca dépend de ce que tu appelles un bottleneck. Il y a toujours un composant qui sera plus rapide que l'autre, et en plus ça sera pas forcément le même selon les jeux. Si ton CPU te "limite" à 150fps alors que ton GPU ne tourne qu'à 70% tu peux t'en foutre royalement, oui tu pourrais potentiellement avoir 30% de perf en plus avec un CPU plus rapide mais est-ce que ça changerait quelque chose en pratique? Et inversement des fois ton CPU pourrait pousser 120 fps mais ton GPU est à 100% et tu tournes à 60. En règle générale, si tu joues en très haute def ce sera quasi tout le temps ton GPU qui va limiter. Oui un CPU récent peut limiter le framerate dans certains cas, mais jamais en dessous du seuil de confort. Aucun jeu actuel ne met à genoux un intel 12xxx ou un AMD 5xxx.

  8. #7658
    Citation Envoyé par QuiLetoKyja Voir le message
    Moi ce que je suis curieux de savoir, c'est quel CPU mettre en face de ces fameuses cartes RTX series 40xx sans être bottlenech, parceque là je ne vois pas
    Le problème c'est qu'ils ont tendance à mélanger les frames qui passent par le moteur du jeu et celles affichées après DLSS3. Dans ce dernier cas faut diviser par deux pour connaître la charge du moteur du jeu (et CPU typiquement).

  9. #7659
    Ah ok merci, je ne savais pas tout ça et ne l'envisageais pas comme ça.
    Je restais borné avec l'idée qu'un bottleneck de 5% c'était pas bien ...

    Du coup, je vais peut-être me faire plaisir sur cette génération (avec une 4080, j'ai un écran G-Sync donc sauf à changer d'écran, j'suis marié à Nvidia pour le moment) et refiler ma bécane à mon filston.

  10. #7660
    T'est forcément bottleneck par un truc sinon t'a des perfs infinies.

    Le vrai problème du bottleneck c'est par exemple changer de CG pour l'exploiter à 30% car le CPU ne suis pas. T'essaye au maximum d'avoir une configuration homogène, mais c'est pas une règle absolue non plus : par exemple je change CPU et GPU en alternance, souvent c'est le composant le plus ancien qui bottleneck, et quand je le change l'autre se retrouve avec un petit boost de perf. Mais je le fais en connaissance de cause.

    ps: ne pas oublier que dans ces histoire de bottleneck, la définition d'écran joue énormément : un vieux i5 avec une 3090 sera très bottleneck par le CPU sur du 1080p, mais sur du 4K beaucoup moins (car le GPU a plus de boulot à faire).

  11. #7661
    D'ailleurs, comment ça se détermine si on souffrira de Bottleneck ou pas ?
    Je suis pas exemple parti dans l'idée que mon i9 9900K me permettra de ne pas subir ça jusqu'à la série 50X0 avec laquelle je penserai peut-être faire un renouvellement de CG si la consommation baisse par rapport aux dingueries de la série 40X0. Mais y a-t-il une règle qui permet de dire : "nope, trop optimiste", ou au contraire "tu peux même attendre la série 60X0 avec ce que tu as" .

  12. #7662
    Avec les tests CPU/GPU et l'information sur la définition de l'écran.

    Mais c'est un problème surtout pour le 1080p, sur les grosses résolutions aujourd'hui le plus gros GPU le mieux (surtout avec le RT et autre), sauf avoir un CPU vraiment bas de gamme (vieux i3) avec le top du GPU mais personne fait ça.

  13. #7663
    Citation Envoyé par Maalak Voir le message
    D'ailleurs, comment ça se détermine si on souffrira de Bottleneck ou pas ?
    Je suis pas exemple parti dans l'idée que mon i9 9900K me permettra de ne pas subir ça jusqu'à la série 50X0 avec laquelle je penserai peut-être faire un renouvellement de CG si la consommation baisse par rapport aux dingueries de la série 40X0. Mais y a-t-il une règle qui permet de dire : "nope, trop optimiste", ou au contraire "tu peux même attendre la série 60X0 avec ce que tu as" .
    Moi j'utilise ce site, mais je ne sais pas si c'est super fiable : https://pc-builds.com/bottleneck-calculator/

  14. #7664
    "La baisse du prix des puces est une histoire du passé", déclare le PDG de Nvidia.

    Chips "going down in price is a story of the past," Nvidia CEO says.

    https://arstechnica.com/gaming/2022/...of-moores-law/

  15. #7665
    Citation Envoyé par Angelina Voir le message
    "La baisse du prix des puces est une histoire du passé", déclare le PDG de Nvidia.

    Chips "going down in price is a story of the past," Nvidia CEO says.

    https://arstechnica.com/gaming/2022/...of-moores-law/
    "Les prix ne vont pas baisser" - PDG qui vient d'annoncer un produit cher, qui doit rassurer des investisseurs malgré des ventes en baisses et un inventaire massif, et qui doit convaincre des joueurs qui n'ont pas les moyens/l'envie de payer une fortune pour quelque chose dont le prix a été maintenu élevé par une demande qui n'existe plus.

  16. #7666
    Citation Envoyé par QuiLetoKyja Voir le message
    Moi j'utilise ce site, mais je ne sais pas si c'est super fiable : https://pc-builds.com/bottleneck-calculator/
    Merci, c'est intéressant, si bien sûr c'est fiable.
    Le bottleneck apparaît effectivement assez rapidement sur les "petites" résolutions genre FHD.
    Est-ce qu'il y a une sorte de barème d'"acceptabilité" du bottleneck, indiquant qu'il est temps de changer de carte (ou d'écran avec une plus grande résolution - probablement avec une nouvelle CG aussi, du coup) ?

  17. #7667
    Bah t'essaye de rentabiliser au maximum ton matériel : ça permet surtout d'éviter d'acheter trop puissant pour rien : par exemple si tu veux passer sur un GPU mais que tu va le bottleneck a 50% sans vouloir changer autre chose dans les prochaines années, ça sert à rien de gâcher ton argent : prends moins puissant et moins cher, et t'aura les mêmes perfs.

  18. #7668
    Citation Envoyé par Angelina Voir le message
    "La baisse du prix des puces est une histoire du passé", déclare le PDG de Nvidia.

    Chips "going down in price is a story of the past," Nvidia CEO says.

    https://arstechnica.com/gaming/2022/...of-moores-law/
    C'est marrant avec AMD qui baisse ses prix à coté. Bon ok, là ils parlent du prix de lancement seulement.

    Sinon je n'ai toujours pas bien compris pourquoi les gens s'énervent sur des gammes qui sont variables, c'est surtout des choix de marketing.
    Encore entre la RTX 3080 10Go de 2020 et la RTX 4080 12Go de 2022 je veux bien, c'est la RTX x80 "de base" pour cette génération, même s'ils auraient pu la nommer autrement ou faire une version moins balaise et moins chère si avoir un prix fixe est important (genre prendre les specs d'une RTX 4070Ti 10Go hypothétique).
    Mais si je comprends bien ils comparent aussi le prix de lancement d'une RTX 3080 12Go sortie début 2022 avec une RTX 4080 16Go qui sort 10 mois plus tard, qu'est ce que ça veut dire ? Ou alors j'ai raté leur 2e tiers de 3080 sorti en 2020.

  19. #7669
    Citation Envoyé par skyblazer Voir le message
    "Les prix ne vont pas baisser" - PDG qui vient d'annoncer un produit cher, qui doit rassurer des investisseurs malgré des ventes en baisses et un inventaire massif, et qui doit convaincre des joueurs qui n'ont pas les moyens/l'envie de payer une fortune pour quelque chose dont le prix a été maintenu élevé par une demande qui n'existe plus.
    ¯\_(ツ)_/¯

  20. #7670
    Citation Envoyé par Maalak Voir le message
    Merci, c'est intéressant, si bien sûr c'est fiable.
    Le bottleneck apparaît effectivement assez rapidement sur les "petites" résolutions genre FHD.
    Est-ce qu'il y a une sorte de barème d'"acceptabilité" du bottleneck, indiquant qu'il est temps de changer de carte (ou d'écran avec une plus grande résolution - probablement avec une nouvelle CG aussi, du coup) ?
    Non, mais le CPU limited, tu le vois tout simplement. Par exemple, en jeu, si tu vois que ton CPU est au dessus des 80% tout le temps, tu peux commencer à te poser quelques questions. Tu peux ensuite, pour identifier la chose, voir si les performances augmentent en baissant la définition. Si oui, c'est la carte qui limite, si ça ne change rien, même performances, c'est probablement ton CPU.

    Le souci, c'est que pour chaque jeu c'est variable. Tu as des jeux qui sont très peu CPUvores, donc le CPU limited arrivera tardivement. Par contre, les jeux de simulations, le CPU limited peut vite arriver.

    Tu ajoutes à ça qu'il y aussi les histoires de réglages graphiques. Certains joueurs de FPS, vont par exemple tout mettre en low voir ultra low pour avoir une framerate élevée. Dans ce cas, étant donné le peu de calcul que la carte graphique aura à faire par rapport à des réglages classiques, tu seras CPU limited même avec un CPU "équilibré par rapport à ta carte graphique qui est prévu pour telle définition (1080p, 1440p ou 2160p), mais avec des réglages classiques.

  21. #7671
    Citation Envoyé par Rocca Voir le message
    Non, mais le CPU limited, tu le vois tout simplement. Par exemple, en jeu, si tu vois que ton CPU est au dessus des 80% tout le temps, tu peux commencer à te poser quelques questions. Tu peux ensuite, pour identifier la chose, voir si les performances augmentent en baissant la définition. Si oui, c'est la carte qui limite, si ça ne change rien, même performances, c'est probablement ton CPU.
    Pour me répéter, si ton CPU est à 80% mais que ton framerate est élevé et stable il y a pas de quoi s'alarmer (et si ça tombe c'est quand même ta CG qui "limite" si celle-ci est reste au dessus des 90% d'utilisation par exemple).

  22. #7672
    Je ne sais pas si vous avez déjà mis l'article dans le forum.
    https://wccftech.com/nvidia-engineer...-rtx-i-o-news/

    DLSS 3.0 théoriquement compatible avec les RTX 2000 et 3000 car les OFA (optical flow accelerator) nécessaires sont présents depuis turing.
    Reste à savoir si présents signifie compatibles ou suffisant pour un gain de performance ou une qualité suffisante.

  23. #7673
    Citation Envoyé par Kimuji Voir le message
    Pour me répéter, si ton CPU est à 80% mais que ton framerate est élevé et stable il y a pas de quoi s'alarmer (et si ça tombe c'est quand même ta CG qui "limite" si celle-ci est reste au dessus des 90% d'utilisation par exemple).
    Dans Cyberpunk mon CPU est à souvent à environ 98-99% (tous les cores) et le GPU idem. Je sais pas quoi en déduire du coup, qu'ils sont équilibrés?
    C'est pas faux !

  24. #7674
    Citation Envoyé par Tenebris Voir le message
    Dans Cyberpunk mon CPU est à souvent à environ 98-99% (tous les cores) et le GPU idem. Je sais pas quoi en déduire du coup, qu'ils sont équilibrés?
    C'est quoi ton CPU.

    Un CPU à presque 100% c'est un CPU qui limite la CG. Vérifie quand tu est à 99% de CPU, la CG ne doit pas être à 100 %

  25. #7675
    Citation Envoyé par Dross Voir le message
    Vous... déconnectez votre CG plus d'une ou deux fois durant sa durée d'utilisation ?
    Non, mais chaque changement de CM, plus chaque changement de boitier, plus d'alim, ou toute insertion dans le boitier qui demande de bouger une partie du cablage...
    15 fois dans le cycle de vie, ça ne me semble pas idiot, à moins de partir direct sur un setup haut de gamme qui va rester figé longtemps.

    Donc exit la valeur de revente, et puis pour un objet à 1000 euros qui est supposé s'inscrire dans la durée ou la revente, c'est extrêmement malaisant.
    C'est le cable qui devient un consommable, pas l'alim. Enfin, pourvu qu'on change le cable à temps.


    Sinon, il "suffira" de changer le cable de l'alim supposément modulaire. Ce problème est lié au cable et au standard du cable, absolument pas à NVidia.
    La vraie mauvaise nouvelle, c'est que visiblement la 4080 risque de demander ce nouveau connecteur exotique que votre alim ne possède sûrement pas nativement. Il va falloir faire un sacré inventaire afin de voir s'il y a moyen de trouver 4 lignes 8 pins pour alimenter un adaptateur vers ce nouveau format (a priori j'ai ça sur ma 650W).
    Dernière modification par vectra ; 26/09/2022 à 21h39.

  26. #7676
    Citation Envoyé par Dross Voir le message
    Vous... déconnectez votre CG plus d'une ou deux fois durant sa durée d'utilisation ?
    Il y a le cas isolé des E-Gpu maison où la carte vidéo en mode externe est alimenté également par une alimentation externe.
    Quand tu déménages ton portable, tu dois démonter le bouzin.

    Cas non commun, mais ça existe.

  27. #7677
    Citation Envoyé par vectra Voir le message
    Non, mais chaque changement de CM, plus chaque changement de boitier, plus d'alim, ou toute insertion dans le boitier qui demande de bouger une partie du cablage...
    15 fois dans le cycle de vie, ça ne me semble pas idiot, à moins de partir direct sur un setup haut de gamme qui va rester figé longtemps.

    Donc exit la valeur de revente, et puis pour un objet à 1000 euros qui est supposé s'inscrire dans la durée ou la revente, c'est extrêmement malaisant.
    C'est le cable qui devient un consommable, pas l'alim. Enfin, pourvu qu'on change le cable à temps.

    Sinon, il "suffira" de changer le cable de l'alim supposément modulaire. Ce problème est lié au cable et au standard du cable, absolument pas à NVidia.
    La vraie mauvaise nouvelle, c'est que visiblement la 4080 risque de demander ce nouveau connecteur exotique que votre alim ne possède sûrement pas nativement. Il va falloir faire un sacré inventaire afin de voir s'il y a moyen de trouver 4 lignes 8 pins pour alimenter un adaptateur vers ce nouveau format.
    Oui c'est juste le câble, et même en y allant franchement : installation + rajout d'un SSD M.2 en dessous de la CG + changement de CPU/CM + changement d'alim (ce qui est déjà bien plus que la plupart des gens) t'a juste consommé 4 des 30 cycles...


    Citation Envoyé par Herman Speed Voir le message
    Il y a le cas isolé des E-Gpu maison où la carte vidéo en mode externe est alimenté également par une alimentation externe.
    Quand tu déménages ton portable, tu dois démonter le bouzin.

    Cas non commun, mais ça existe.
    En général les e-gpu sont branchés dans leur propre boîtier et tu ne touche pas le câble d'alimentation pour le couplage/découplage au PC portable, donc on est à 1 cycle sur les 30.

  28. #7678
    Citation Envoyé par Berk-124 Voir le message
    C'est quoi ton CPU.

    Un CPU à presque 100% c'est un CPU qui limite la CG. Vérifie quand tu est à 99% de CPU, la CG ne doit pas être à 100 %
    GTX 1070 et 6600K oc à 4.2ghz

    Ben par exemple là, l'utilisation du GPU est pas à 100 mais elle s'en rapproche.

    C'est pas faux !

  29. #7679

  30. #7680
    Citation Envoyé par Tenebris Voir le message
    GTX 1070 et 6600K oc à 4.2ghz
    6600k = 4 core / 4 thread comme feu mon 4690k. D’ailleurs la différence entre ces 2 CPU est minime.
    Clairement à l'époque il limitait ma 1070ti sur les jeux récents. Le passage à un 2700x a été génial.

    Le truc c'est que si tu le changes tu ne verras pas de grande évolution car la 1070 est maintenant une carte "faible".

    Bref soit tu gardes ta 1070 pour encore longtemps et une évolution vers le plus gros i7 de ta plateforme (si à moins de 50 €) et 16go de ram s'envisage. Sinon laisse tomber et change tout.

Page 256 sur 313 PremièrePremière ... 156206246248249250251252253254255256257258259260261262263264266306 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •