Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 165 sur 313 PremièrePremière ... 65115155157158159160161162163164165166167168169170171172173175215265 ... DernièreDernière
Affichage des résultats 4 921 à 4 950 sur 9367
  1. #4921
    Citation Envoyé par GuillaumeZ Voir le message
    Petite question (qui a peut etre deja ete repondu, mais je vois des infos contradictoires, alors j'aimerais confirmation).

    J'ai cette config et je compte y ajouter une 3080:
    Casing: Fractal Design Define R6 Type-C TG Casing
    CPU: Amd Ryzen 9 3900X
    MB: Gigabyte X570 Aorus Pro Wifi
    Ram: G.Skill Trident Z Neo RGB 3600MHz 32Gb Kit
    Ssd : Samsung 970 Evo Plus 500Gb Nvme M.2
    Cooler: Be Quiet! Dark Rock Pro4 250W TDP Toer Heatsink Cooler
    Psu: Seasonic Focus GX-650W Gold Modular
    SSD1: Crucial M500 240GB 2.5-Inch Solid State Drive SATA 6Gb/s CT240M500SSD1
    SSD2: Crucial BX100 240GB

    Mon soucis est sur l'alimentation, j'aimerais savoir si je vais avoir des soucis, et il faut que j'upgrade aussi, ou si ca devrait passer.

    J'ai verifier sur https://outervision.com/power-supply-calculator qui semble dire que c'est suffisant, mais j'ai lu ici ou la qu'il vaudrait mieux 750 voir 850W

    Merci d'avance !
    Commences par la carte et tu verras si c'est nécessaire de changer après.
    Une bonne alimentation 650W suffit avec une 3080, tant qu'on utilise pas un gros cpu énergivore et qu'on n'overclocke pas à fond (le cpu ou le gpu).
    Au pire le ventilateur de l'alimentation va s'activer.

    https://www.youtube.com/watch?v=Bdoh...ature=youtu.be
    Dernière modification par Endymion ; 22/11/2020 à 18h45.

  2. #4922
    Citation Envoyé par Berk-124 Voir le message
    Doom eternal on se demande comment il occupe plus de 100 mo de VRAM vu la qualité du rendu ...
    En fait ca tient beaucoup a ce que le couple graphiste/codeur soit malin sur l'utilisation/re-utilisation des textures qui prennent bcp de vram en temps reel.
    J en avais parle il y a quelques temps, en precalc on en a rien a foutre de la quantité de textures dans une certaine mesure. J ai deja lance des rendus avec plus d'un to de textures.
    Du coup tu imagines, que si eux ne sont pas au taquet niveau optimisation, ils saturent vite ta vram.

    C'est pour ca que sur console c est souvent mieux optimisé. Ils ont un matériel donné et font au mieux qvec cette contrainte. C est bien que la xbox et la ps aient plus ou moins la meme quantité de vram du coup.
    Avec 16go partagee sur les consoles, je ne sais pas comment ils vont gerer le partage cpu/gpu sur cette generation. Ca ne m'ettonerai pas que la cible soit 8/10go de vram justement.
    Citation Envoyé par Kahn Lusth Voir le message
    Oh se détend du slibard, les redresseurs de torts du Dimanche.

  3. #4923
    Cette vidéo est très intéressante concernant la consommation des 3080/90
    https://www.youtube.com/watch?v=FqpfYTi43TE

    Un léger undervolting permet de gagner 50W voir plus en ne perdant quasi rien en perf.

  4. #4924
    Citation Envoyé par garyturner Voir le message
    Avec 16go partagee sur les consoles, je ne sais pas comment ils vont gerer le partage cpu/gpu sur cette generation. Ca ne m'ettonerai pas que la cible soit 8/10go de vram justement.
    Ouaip ça se tiendrait.
    Et je ne savais pas que le système se réservait 3GB sur Xbox One, reste 5GB pour l'usage général et vidéo des jeux.
    Même si ce n'est pas plus sur la nouvelle génération, ça fout déjà un sacré coup dans les 16GB.
    Peut-être que des infos techniques du genre vont être publiées tôt ou tard.
    Edit: et le plus petit dénominateur commun sera la Xbox Series S avec 10GB au total, c'est pas demain que les jeux auront besoin de 8GB de VRAM pour tourner, même s'ils font l'impasse sur l'ancienne génération de matos

    Quoi qu'il en soit, sur PC les devs peuvent profiter de la RAM/VRAM en plus, surtout avec les moteurs comme l'Unreal Engine 5.
    Et ça leur permettra de garder sous le coude un potentiel upgrade graphique pour la PS5 Pro & co sans trop forcer.

  5. #4925
    Citation Envoyé par Ashley TOUCRU Voir le message
    Compte tenu de ce que consomme ton 3900x, et ce que va pomper une 3080, et si l'on prend en compte que cette dernière risque de créer des pics soudains de conso (cf précédents messages), perso je partirais sur une alim' plus balaise. Ce serait ballot de fusiller une si belle config pour économiser à peine plus de 100 balles.
    Seasonic c'est pas de la merde normalement y aura une protection non? (En plus de la charge maximum réelle généralement plus importante que ce qui est indiqué)

  6. #4926
    Citation Envoyé par Mastaba Voir le message
    Seasonic c'est pas de la merde normalement y aura une protection non? (En plus de la charge maximum réelle généralement plus importante que ce qui est indiqué)
    Je pense que ça passe. Mais effectivement, t'amuse pas trop à jouer aux benchmarks type OCCT Power Supply. La 3080 en conso "jeu" ça va, mais en conso "max" elle monte très très haut. Idem pour ton CPU, en jeux ce sera super raisonnable car il utilisera pas tous ses cores.

  7. #4927
    Citation Envoyé par Qiou87 Voir le message
    Je pense que ça passe. Mais effectivement, t'amuse pas trop à jouer aux benchmarks type OCCT Power Supply. La 3080 en conso "jeu" ça va, mais en conso "max" elle monte très très haut. Idem pour ton CPU, en jeux ce sera super raisonnable car il utilisera pas tous ses cores.
    A prendre en compte pour moi ou à méditer Vu que la plupart de ceux qui passent par la section dépannage, on leur conseille de faire un OCCT pour voir si l'alimentation tient et si ça passe côté carte graphique... Si on lui fait cramer la config ou l'alimentation en vérifiant que tout marche, ça serait embêtant

    Bon après, y'aura pas foule avec des 3080 et i7 10700K, j'imagine...

  8. #4928
    Super merci a tous,

    Je ne compte ni faire d'OC, ni de test de charge/benchmark etc, donc je vais commencer par la carte, et si j'ai un soucis, je saurais vers quoi me tourner

  9. #4929
    Petite question rapide vu que je me pose la question de l'alimentation si je change de CG: c'est fiable jusqu'à quel point les valeurs de conso remontées par OCCT (pas en mode test, simplement le moniteur) ?
    Je pense que si j'arrive à choper une 3060 (et si Nvidia ne pipeaute pas trop les valeurs), ça passera avec ma 550W, mais au cas où j'aimerais pouvoir évaluer proprement.

    -.-.-– nAKAZZ, depuis 2024

  10. #4930
    Citation Envoyé par Rocca Voir le message
    A prendre en compte pour moi ou à méditer Vu que la plupart de ceux qui passent par la section dépannage, on leur conseille de faire un OCCT pour voir si l'alimentation tient et si ça passe côté carte graphique... Si on lui fait cramer la config ou l'alimentation en vérifiant que tout marche, ça serait embêtant

    Bon après, y'aura pas foule avec des 3080 et i7 10700K, j'imagine...
    Bah auparavant y'avait pas autant de souplesse sur la conso : un CPU à "95W" par ex. consommait à peu près ça. Désormais tu en as qui te vendent ce matos à "95W" mais en fait c'est plutôt 140W en stabilisé avec un pic autorisé à 250W pendant 1min. Résultat impossible de dimensionner ton alim en fonction du TDP en fait, ni même sur la base de la conso stabilisée en charge.

    Les micro-pics qu'on voit côté GPUs doivent être encaissés par une alim de qualité, de telle sorte que si c'est ultra court ça ne veut pas dire qu'il faut dimensionner l'alimentation en fonction. Cependant il faut pas s'aveugler: si tes composants sont capables de consommer autant dans certaines circonstances, ça oblige à la prudence. Effectivement, en usage réel tu ne rencontreras probablement jamais un cas où CPU et GPU sont à 100%, et même 120% pendant un bref moment, simultanément. Mais en bench, oui, et donc faire un test de torture d'alim si tu es un peu limite en puissance, c'est pas l'idéal à mon sens, surtout si par ailleurs ton PC est stable dans un "gros" jeu où tu as poussé tous les taquets à fond (Vsync off bien sûr) pour le faire transpirer.

    @Cacao: c'est des valeurs remontées par les composants eux-mêmes, t'aurais la même info dans HW Monitor aussi. La fiabilité est variable, simplement parce que l'info remontée peut être incomplète (carte graphique: la conso remontée peut être celle du GPU seul par exemple, ignorant donc les VRMs et la VRAM).

    L'idéal à mon sens est d'avoir un wattmètre qui se met sur la prise murale et on branche le PC dessus. C'est pas trop cher. Il est bien sûr crucial de tenir compte du facteur d'efficience de l'alim (par ex. 92% @80% de charge). Exemple: ton wattmètre dit "388W" c'est ce que ton PC tire à la prise, les composants eux vont tirer 359W et l'alim génère 8% de pertes lorsqu'elle convertit l'alternatif d'EDF en courant continu. Ce % de pertes correspond à son classement dans la norme 80PLUS (Gold, Bronze, etc.). En général entre 20 et 80% de charge, une alim conserve à peu près la même efficacité énergétique à 1-2% près.

    Mais bon, une 3060 ça va taper 180-200W en charge, au pire, alors avec 550W tu seras large.

  11. #4931
    Maj de Vulkan pour le Ray tracing : https://www.overclock3d.net/news/sof...sion_1_2_162/1
    "J'aime la nuit, j'ai les idées plus claires dans le noir"

  12. #4932
    Citation Envoyé par Berk-124 Voir le message
    Cette vidéo est très intéressante concernant la consommation des 3080/90
    https://www.youtube.com/watch?v=FqpfYTi43TE

    Un léger undervolting permet de gagner 50W voir plus en ne perdant quasi rien en perf.
    Je confirme, je suis passé de 1890 MHz @ 0.944 mV à 1890 MHz @ 0.893 mV sur ma 3070 FE, 50 W en moins à la louche et surtout 5 °C de moins à ventilation équivalente .

  13. #4933
    Pas de raytracing AMD a la sortie de cyberpunk. Ça va influencer les ventes ça.
    Citation Envoyé par Kahn Lusth Voir le message
    Oh se détend du slibard, les redresseurs de torts du Dimanche.

  14. #4934
    Citation Envoyé par garyturner Voir le message
    Pas de raytracing AMD a la sortie de cyberpunk. Ça va influencer les ventes ça.
    Pas de RTX 3070/3080 à la sortie de cyberpunk. Ça va influencer les ventes ça ?
    Do you hear that thunder?

  15. #4935
    Citation Envoyé par helle Voir le message
    Pas de RTX 3070/3080 à la sortie de cyberpunk. Ça va influencer les ventes ça ?




    Monstre

    -.-.-– nAKAZZ, depuis 2024

  16. #4936
    Bah ta autant de 3070 que de 6800xt non ?
    Citation Envoyé par Kahn Lusth Voir le message
    Oh se détend du slibard, les redresseurs de torts du Dimanche.

  17. #4937
    Citation Envoyé par Streght Voir le message
    Je confirme, je suis passé de 1890 MHz @ 0.944 mV à 1890 MHz @ 0.893 mV sur ma 3070 FE, 50 W en moins à la louche et surtout 5 °C de moins à ventilation équivalente .
    Perso j'ai fait l'inverse, je recherche la frequence maximale que ma carte puisse tenir sans depasser les 80° en jeu. J'en suis a 2130mhz@0.975v pour le core et 8000mhz pour la mémoire
    En moyenne, sous MS Flight Simulator, je gagne 5fps entre la carte stock et l'OC (sachant que je suis aux alentours de 40/50fps en moyenne)

  18. #4938
    Citation Envoyé par garyturner Voir le message
    C'est pour ca que sur console c est souvent mieux optimisé. Ils ont un matériel donné et font au mieux qvec cette contrainte. C est bien que la xbox et la ps aient plus ou moins la meme quantité de vram du coup.
    Avec 16go partagee sur les consoles, je ne sais pas comment ils vont gerer le partage cpu/gpu sur cette generation. Ca ne m'ettonerai pas que la cible soit 8/10go de vram justement.
    Sur cette gen, on a l'inconnu SSD qui devrait faire un peu baisser les besoins en RAM (les nouvelles consoles ont proportionellement peu de RAM / au passage ps3-ps4). Reste a voir si sur PC on aura l'architecture pour aussi streamer en direct du SSD, c'est ce que vend AMD et Nvidia, mais pour l'instant ca reste reservé (surprise !) à Ampere et aux dernières cartes AMD.

    https://www.cowcotland.com/news/7424...ss-memory.html

  19. #4939
    On en a parlé plus haut, 16go/s contre genre 400
    Citation Envoyé par Kahn Lusth Voir le message
    Oh se détend du slibard, les redresseurs de torts du Dimanche.

  20. #4940
    Citation Envoyé par garyturner Voir le message
    On en a parlé plus haut, 16go/s contre genre 400
    Et encore on parlait de l'accès à la ram via le PCI-E, les SSD les plus rapides du moment c'est du 7 Go/s. Donc le SSD à la rescousse de la VRAM, c'est pas vraiment ça. C'est plus pour accélérer les temps de chargement ou streamer en arrière plan les données d'un monde ouvert.

    Même pour seconder la RAM c'est pas idéal, comme dit précédemment de la DRR 4 3600Mhz c'est déjà plus de 50Go/s (et avec une latence infiniment meilleure).

  21. #4941
    Oui, mais c'est deja plus que venant du HDD. Et une scene n'a pas vraiment besoin de 7Go/sec de données à updater.

    Qui vivra verra.

  22. #4942
    Citation Envoyé par helle Voir le message
    Pas de RTX 3070/3080 à la sortie de cyberpunk. Ça va influencer les ventes ça ?
    pas de sortie de Cyberpunk à la sortie de Cyberpunk, Ca va influencer les ventes ça?

    Le temps qu'il sorte, on sera sur la génération suivante de carte vidéo.

  23. #4943
    Vous savez quoi, il se dit ce jour que la grosse pénurie des GeForce RTX 3000 pourrait être la résultante de la vente de très nombreuses cartes graphiques de dernière génération à des mineurs. En effet, selon le cabinet Barrons, NVIDIA aurait vendu pour pas moins de 175 millions de dollars de GeForce RTX 3000 à des mineurs, pour les upgrades à venir en vue de l'Ethereum 2.0 qui ne permettra pas d'utiliser les anciennes cartes graphiques pour la fabrication des cryptomonnaies.

    https://www.tweaktown.com/news/76468...ers/index.html

    La valeur des monnaies virtuelles se base sur l'énergie dépensée, le matos pour la spéculation de tulipes et de coquillages. Ref connues.

  24. #4944
    Petite interrogation sémantique:
    "Nvidia a vendu..."
    sonne comme une volonté délibérée = le fabricant cherche activement des cryptomineurs


    Légende : un minivan Nvidia en croisette avec ses bonbons cartes pour pécho des mineurs...

    ou alors, plus prosaïquement, "Nvidia a vendu..." = les acheteurs de cartes sont des cryptomineurs, Nvidia y peut rien, elle fait que vendre.

    Dans le premier cas, on est dans le "bouuuh Nvidia pas bien !", dans le deuxième on est dans la non information.
    Pour décider, envoyer moi votre vote au 36 15 15 (10 ethernium v2.0 la minute)
    "Plus généralement, systématiquement se méfier des citations" Angelina, 2019

  25. #4945
    Citation Envoyé par Herman Speed Voir le message
    Vous savez quoi, il se dit ce jour que la grosse pénurie des GeForce RTX 3000 pourrait être la résultante de la vente de très nombreuses cartes graphiques de dernière génération à des mineurs. En effet, selon le cabinet Barrons, NVIDIA aurait vendu pour pas moins de 175 millions de dollars de GeForce RTX 3000 à des mineurs, pour les upgrades à venir en vue de l'Ethereum 2.0 qui ne permettra pas d'utiliser les anciennes cartes graphiques pour la fabrication des cryptomonnaies.

    https://www.tweaktown.com/news/76468...ers/index.html

    La valeur des monnaies virtuelles se base sur l'énergie dépensée, le matos pour la spéculation de tulipes et de coquillages. Ref connues.
    Plus de 100.000unites de 3090 donc plus avec la 3080...
    Citation Envoyé par Kahn Lusth Voir le message
    Oh se détend du slibard, les redresseurs de torts du Dimanche.

  26. #4946
    Citation Envoyé par Argelle Voir le message
    Petite interrogation sémantique:
    "Nvidia a vendu..."
    sonne comme une volonté délibérée = le fabricant cherche activement des cryptomineurs

    https://banner2.cleanpng.com/2018062...6553328943.jpg
    Légende : un minivan Nvidia en croisette avec ses bonbons cartes pour pécho des mineurs...

    ou alors, plus prosaïquement, "Nvidia a vendu..." = les acheteurs de cartes sont des cryptomineurs, Nvidia y peut rien, elle fait que vendre.

    Dans le premier cas, on est dans le "bouuuh Nvidia pas bien !", dans le deuxième on est dans la non information.
    Pour décider, envoyer moi votre vote au 36 15 15 (10 ethernium v2.0 la minute)
    VENDRE : il n'y pas d'interprétation péjorative ? il faut un avocat ? - C'est le signalement d'une cause de pénurie.

    On est sur le topic Apple ?

    ( TOPIC DES RUMEURS )

  27. #4947
    Citation Envoyé par Argelle Voir le message
    "Nvidia a vendu..." = les acheteurs de cartes sont des cryptomineurs, Nvidia y peut rien, elle fait que vendre.
    On en sait rien en fait. Si le mineur en question fait comme tous les joueurs, attend une carte dispo et l'achète, OK. Mais si les mineurs, parce qu'en fait ils ne sont pas des ptis gars mais des entreprises et n'achètent pas leurs cartes sur le marché grand public, ont bénéficié d'un stock bien plus important de GPUs que les canaux grand public, là on peut se sentir lesés. On sait déjà que les assembleurs ont leurs propres canaux (c'est comme ça que pas mal de canards ont pu se faire construire des tours chez CSL ou Dubaro ou autre avec des RTX3000) pour s'approvisionner. Les sociétés de minage aussi, probablement. Sinon je ne vois pas d'où sortirait ce chiffre de 175M$, tu reçois pas un questionnaire après ton achat chez RDC/LDLC/nVidia.com te demandant "allez vous miner de l'Ethereum avec votre GPU?".

  28. #4948
    Mais pourquoi Nvidia/AMD ne sortent pas des cartes dédié aux mineurs ?
    (Sachant qu'en plus c'est surement aussi intéressant dans d'autre domaines comme l'IA)

    Est ce qu'on peut espérer qu'il y aura moins de problèmes avec l'arrivée des 3060/équivalent AMD ?
    Anything that can go wrong will go wrong.

  29. #4949
    Citation Envoyé par TheMothMan Voir le message
    Est ce qu'on peut espérer qu'il y aura moins de problèmes avec l'arrivée des 3060/équivalent AMD ?
    Possible, rien que parce que des puces plus petites sont produites en plus grande quantité à nombre de wafers équivalents, et avec souvent de meilleurs rendements. Mais je pense que le jeu de cons d'AMD et nVidia sur le faux prix "recommandé" qu'on ne retrouvera pas chez les customs sera toujours là, tant que la presse ne sanctionne pas réellement la pratique dans leurs tests en disant clairement "cette carte coûte 900€ même si nVidia essaie de vous faire croire qu'elle coûte 720€"...

    Et leur but c'est pas de développer des cartes, juste des GPUs.

  30. #4950
    Citation Envoyé par Argelle Voir le message
    Petite interrogation sémantique:
    "Nvidia a vendu..."
    sonne comme une volonté délibérée = le fabricant cherche activement des cryptomineurs

    https://banner2.cleanpng.com/2018062...6553328943.jpg
    Légende : un minivan Nvidia en croisette avec ses bonbons cartes pour pécho des mineurs...

    ou alors, plus prosaïquement, "Nvidia a vendu..." = les acheteurs de cartes sont des cryptomineurs, Nvidia y peut rien, elle fait que vendre.

    Dans le premier cas, on est dans le "bouuuh Nvidia pas bien !", dans le deuxième on est dans la non information.
    Pour décider, envoyer moi votre vote au 36 15 15 (10 ethernium v2.0 la minute)
    Faut savoir...j'ai cru lire dans cette section que les CG pour la crypto-monnaie c'était plus assez efficace...

    -.-.-– nAKAZZ, depuis 2024

Page 165 sur 313 PremièrePremière ... 65115155157158159160161162163164165166167168169170171172173175215265 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •