Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 240 sur 313 PremièrePremière ... 140190230232233234235236237238239240241242243244245246247248250290 ... DernièreDernière
Affichage des résultats 7 171 à 7 200 sur 9367
  1. #7171
    C'est une réalité pourtant, je connais des gars ayant des revenus limités et s'étant chauffé gratuitement comme ça durant l'hiver (rendre le minage rentable avec juste un seul GPU et le coût électrique en France c'est loin d'être évident).
    Donc si, ils ont coupé le minage dès l'hiver passé.

  2. #7172
    On verra si ça a encore du sens l'hiver prochain, même si l'Ethereum a du mal à se passer du PoW ils devraient finir par le faire. Ou alors le marché des cryptos se sera vraiment effondré entre temps.
    Faudra trouver autre chose à faire avec son GPU. À une époque il y en a qui voulaient faire du rendu 3D distribué ou ce genre de choses, mais je ne sais pas si ça prends vraiment.

  3. #7173
    Citation Envoyé par Dross Voir le message
    C'est une réalité pourtant, je connais des gars ayant des revenus limités et s'étant chauffé gratuitement comme ça durant l'hiver (rendre le minage rentable avec juste un seul GPU et le coût électrique en France c'est loin d'être évident).
    Donc si, ils ont coupé le minage dès l'hiver passé.
    Que ce soit possible est une hérésie, le faire est encore pire.
    C'est du même tonneau que laissee tourner sa voiture toute la journée dans un pays producteur de pétrole pour la clim parce qu'on ne paye pas l'essence.
    Déjà que les grosses boites ony ce raisonnement complètement irresponsable (green washing inclu), mais que les particuliers emboîtent le pas, ça me révolte.

  4. #7174
    Citation Envoyé par Dross Voir le message
    C'est une réalité pourtant, je connais des gars ayant des revenus limités et s'étant chauffé gratuitement comme ça durant l'hiver (rendre le minage rentable avec juste un seul GPU et le coût électrique en France c'est loin d'être évident).
    Donc si, ils ont coupé le minage dès l'hiver passé.
    C'est un peu antinomique "revenus limités" et "config pour miner" non ?

  5. #7175
    Citation Envoyé par Cedski Voir le message
    C'est un peu antinomique "revenus limités" et "config pour miner" non ?
    C'est bien le problème, des particuliers se sont laissés envoûter par les sirènes du gain facile au moment où les cours montaient, avec la promesse de gain d'une 50aine d'euro par mois, électricité déduite, ont acheté un PC dans l'optique de miner genre 1 an et revendre le PC après.
    Que les promesses aient été tenues ou non (j'espère qu'elles ne l'ont pas été), cela a attiré des gens aux revenus modestes qui ont cru bon d'investir là-dedans.

  6. #7176
    Des gens cupides prêt à consommer des quantité astronomiques d'énergie pour gagner 2€ par jour

  7. #7177
    En soit cette consommation d'énergie essentiellement convertie en chaleur n'est pas vraiment un problème si on est à même d'utiliser cette chaleur.
    Donc un particulier qui mine en hiver, mais qui éteint son chauffage pourquoi pas. Mais ferme de minage que l'ont est obligé de climatiser, c'est complétement débile.

    Mais je vais vous rassurer le minage n'est ni le 1er ni le dernier truc débile que va produire l'humanité. Moi ce qui me rassure c'est qu'à la fin c'est la nature qui aura le dessus même si la planète doit ressembler à la lune pour y arriver.

  8. #7178

  9. #7179
    Ce n'est pas 3dfx qui avait sorti des CG qui consommaient tellement qu'elles avaient une alimentation extérieure ?

    On a vu comment ils ont fini.

  10. #7180
    Nvidia plus il font de la merde plus ils vendent de cartes
    On verra si y'a une prise de conscience un jour chez les consomateurs

  11. #7181
    Citation Envoyé par Cedski Voir le message
    C'est un peu antinomique "revenus limités" et "config pour miner" non ?
    Bah non, il suffit d'avoir un GPU pas trop vieux et tu pourra miner, tu deviendra pas riche, mais ça permet de baisser les coûts de chauffage par contre.

    (je ne parle pas de quelqu'un qui a monté un rig de minage hein, mais bien d'un gars qui a une config gamer comme c'est le cas de tous (ou presque) sur ce forum)

  12. #7182
    Bel exemple de cupidité humaine

  13. #7183
    ?

    Pas franchement, non.

    (petit rappel : un GPU c'est un radiateur qui fait des images, au moins dans le cadre du chauffage ça sert vraiment des besoins essentiels)

  14. #7184
    Citation Envoyé par Dross Voir le message
    ça permet de baisser les coûts de chauffage par contre.
    Vous vivez tous dans un placard ?



  15. #7185
    Citation Envoyé par Stelarc Voir le message
    Vous vivez tous dans un placard ?
    C'est juste que tu as un GPU qui ne consomme pas assez

    (oui)

  16. #7186
    Citation Envoyé par Berk-124 Voir le message
    Mais je vais vous rassurer le minage n'est ni le 1er ni le dernier truc débile que va produire l'humanité. Moi ce qui me rassure c'est qu'à la fin c'est la nature qui aura le dessus même si la planète doit ressembler à la lune pour y arriver.
    On peut aussi aller vivre à poil dans une grotte à fumer des joints autour d'un feu. Inventer des trucs débiles c'est le propre de l'humanité, genre les cartes graphiques pour faire du "gaming de gamer" tavu.



  17. #7187
    Citation Envoyé par Stelarc Voir le message
    Vous vivez tous dans un placard ?
    En général quand tu utilise un chauffage d'appoint tu ne chauffe que la salle où tu te trouve, oui.

  18. #7188
    Moi oui je vis dans un placard. C'est écolo avec une emprunte carbonne faible. Et alors ?

  19. #7189
    Citation Envoyé par Praetor Voir le message
    Ce n'est pas 3dfx qui avait sorti des CG qui consommaient tellement qu'elles avaient une alimentation extérieure ?

    On a vu comment ils ont fini.
    Si si, la fameuse voodoo 5 6000, mais elle n'est jamais sortie. Une carte avec un SLI intégré de 4 VSA 100, 4 ventilo et 64 Mo de SDR.
    http://www.x86-secret.com/articles/d...0/v56kfr-6.htm

    Mais 3dfx c'est sacré. Quand à l'époque t'avais un CPU pourri comme moi (pentium 133) et qu'un jeu te proposait l'API glide de 3dfx pour ta voodoo 2, les perfs restaient au top.

    La guerre de la conso revient régulièrement. C'est débile et AMD comme Nvidia vont revenir en arrière d'ici une ou 2 architectures. En gros ils font un TIC, puis plusieurs TOC ou les perfs augmentent presque qu'uniquement en montant la consommation. Le dernier TIC chez nvidia je dirai que c'est les GTX 900, donc 4000 ou 5000 devrait être un TOC avec un conso en forte baisse pour les mêmes perfs.
    Je dis dernier TIC car de 700 à 900 la conso à globalement baisser depuis ça n'a que monté. Mais on ne peut pas nier que la sortie des RTX était quand même un grosse mise à jour.

  20. #7190
    Là je pense que nvidia a perdu la boule, ils atteignent des conso qu'on a jamais atteind
    Et amd suit dans une moindre mesure car ils arrivent à avoir une meilleure efficacité énergétique

    Mais je pense que NVidia fait une énorme erreur, ils vont pas du tout dans le bon sens ça ne me plaît pas du tout en tous cas

    Ou bien c'est les acheteurs qui perdent la boule car une 3060 ça reste correct en fait
    Tout le monde se rue sur des cartes à 1.5K€ qui consomment 400w

  21. #7191
    reneyvane
    Guest
    "TSMC To Become NVIDIA’s Sole GPU Supplier In 2022 – Report"

    En Avril 2022, on apprend que Nvidia avait exceptionnellement confié la production de ses puces rtx3000 qu'à Samsung, au lieu de partagé avec TSMC comme pour les rtx2000 et la refresh "Super". Cette décision à été catastrophique car le fondeur Coréen à multiplier les retards de livraison. Au lieu de répartir à nouveau la production chez les deux fondeurs, le jusque boutisme du Camélon à fait de TSMC sa seule entité pour produire les rtx4000.

    Le problème de mettre à nouveau tout ses oeufs dans le même panier, c'est que TSMC en profite pour imposer ses prix et à la fin c'est le consommateur qui trinque.

    https://wccftech.com/tsmc-to-become-...n-2022-report/

    Citation Envoyé par Berk-124 Voir le message
    ...La guerre de la conso revient régulièrement. C'est débile et AMD comme Nvidia vont revenir en arrière d'ici une ou 2 architectures. En gros ils font un TIC, puis plusieurs TOC ou les perfs augmentent presque qu'uniquement en montant la consommation. Le dernier TIC chez nvidia je dirai que c'est les GTX 900, donc 4000 ou 5000 devrait être un TOC avec un conso en forte baisse pour les mêmes perfs.
    Je dis dernier TIC car de 700 à 900 la conso à globalement baisser depuis ça n'a que monté. Mais on ne peut pas nier que la sortie des RTX était quand même un grosse mise à jour.
    Quand Nvidia & AMD se retrouvent avec un ou deux fondeurs qui ne tiennent pas les prix, les délais et les objectifs de gravure et que c'est impossible de revoir à la baisse les performances, il ne reste plus qu'à chercher d'autre fondeurs qui sont toujours à des gravures moins précises, ce qui nécessite une consommation des gpu bien plus importante que prévue.

    Qu'est-ce que préfère le Caméléon pour la sortie de ses rtx4000 ?

    1-Une sortie symbolique ou aucun magasin n'a la carte en stock mais ou les quelques gpu livrés sont bien gravé en 4 mn par TSMC = consommation watts raisonnable.

    2-Des rtx4000 disponible partout grâce à des sacrifice sur la consommation et qui fabrique le gpu.

    Comme les verts ne peuvent pas vendre tantôt du 4 à 5 mn à 230 watts et l'autre du 6 mn à 300 watts donc c'est forcément le pire scénario qui se passe et les mois suivant, les fondeurs concurrents vont à leur tour se perfectionner et graver en 5 puis 4 mn et les consommations vont chuter.

    En résumé, le problème actuel qu'on appelle :"La pénurie de composant asiatique", c'est qu'un trop petit nombre de société qui ont la technologie pour graver toujours plus finement et atteindre le bon ratio: puissance/prix/watt sont à la fois dépassé par la demande et investissent dans de nouvelle unité de production. En situation d'imposer ses prix, des géants comme TSMC font donc payer dans ses puces le coût des nouvelles usines.

    Le problème derrière c'est que toute l'industrie qui vie de la commercialisation de nouvelle version de leurs produits vedettes équipé d'une nouvelle puce++ se tire dans les pattes à coup de chèque pour que Samsung ou TSMC produisent d'abord pour eux et noel 2022.

    L'astuce est que pour pouvoir avoir assez de rtx4000 et Radeon7000 au lancement+ en fin d'année 2022 à la puissance et au prix promis, AMD & Nvidia qui prévoyait du 4 à 5 mn et une consommation en watt raisonnable doivent viser du 6 mn et les consommations sont atroces. En plus la demande étant supérieur à l'offre, même en se rabattant sur une gravure moins moderne, il faut payer plein pot.

    Au final, au lieu de repousser à 2023 et proposer du gpu 4mn, performant avec une consommation normale, on va être les dindons de la farce.
    Dernière modification par reneyvane ; 17/05/2022 à 01h06.

  22. #7192
    Citation Envoyé par Berk-124 Voir le message
    Si si, la fameuse voodoo 5 6000, mais elle n'est jamais sortie. Une carte avec un SLI intégré de 4 VSA 100, 4 ventilo et 64 Mo de SDR.
    http://www.x86-secret.com/articles/d...0/v56kfr-6.htm
    Ah oui, quand même ! Consommation mesurée de presque 50W à pleine charge. Pas étonnant qu'ils proposaient une alim externe. Mention spéciale aux ventilateurs qui en imposent.

  23. #7193
    Citation Envoyé par Grindipo Voir le message
    Ah oui, quand même ! Consommation mesurée de presque 50W à pleine charge. Pas étonnant qu'ils proposaient une alim externe. Mention spéciale aux ventilateurs qui en imposent.
    Il faut remettre ça dans le contexte c'est une carte "sortie" en 2000. Il y a 22 ans la plupart des cartes n'avait pas de connecteur d'alimentation supplémentaire ou alors une pauvre prise MOLEX. Bref 50w c'était énorme. Même si vu de maintenant ça fait rigoler. Tout comme de voir que les tests parles de résolutions types 640*480 / 800*600 / 1024*768 / 1280*1024. La plupart de tests, y compris CPU, ne se font plus en dessous de 1920*1080 de nos jours.

  24. #7194
    Citation Envoyé par reneyvane Voir le message
    "TSMC To Become NVIDIA’s Sole GPU Supplier In 2022 – Report"

    En Avril 2022, on apprend que Nvidia avait exceptionnellement confié la production de ses puces rtx3000 qu'à Samsung, au lieu de partagé avec TSMC comme pour les rtx2000 et la refresh "Super". Cette décision à été catastrophique car le fondeur Coréen à multiplier les retards de livraison. Au lieu de répartir à nouveau la production chez les deux fondeurs, le jusque boutisme du Camélon à fait de TSMC sa seule entité pour produire les rtx4000.

    Le problème de mettre à nouveau tout ses oeufs dans le même panier, c'est que TSMC en profite pour imposer ses prix et à la fin c'est le consommateur qui trinque.

    https://wccftech.com/tsmc-to-become-...n-2022-report/



    Quand Nvidia & AMD se retrouvent avec un ou deux fondeurs qui ne tiennent pas les prix, les délais et les objectifs de gravure et que c'est impossible de revoir à la baisse les performances, il ne reste plus qu'à chercher d'autre fondeurs qui sont toujours à des gravures moins précises, ce qui nécessite une consommation des gpu bien plus importante que prévue.

    Qu'est-ce que préfère le Caméléon pour la sortie de ses rtx4000 ?

    1-Une sortie symbolique ou aucun magasin n'a la carte en stock mais ou les quelques gpu livrés sont bien gravé en 4 mn par TSMC = consommation watts raisonnable.

    2-Des rtx4000 disponible partout grâce à des sacrifice sur la consommation et qui fabrique le gpu.

    Comme les verts ne peuvent pas vendre tantôt du 4 à 5 mn à 230 watts et l'autre du 6 mn à 300 watts donc c'est forcément le pire scénario qui se passe et les mois suivant, les fondeurs concurrents vont à leur tour se perfectionner et graver en 5 puis 4 mn et les consommations vont chuter.

    En résumé, le problème actuel qu'on appelle :"La pénurie de composant asiatique", c'est qu'un trop petit nombre de société qui ont la technologie pour graver toujours plus finement et atteindre le bon ratio: puissance/prix/watt sont à la fois dépassé par la demande et investissent dans de nouvelle unité de production. En situation d'imposer ses prix, des géants comme TSMC font donc payer dans ses puces le coût des nouvelles usines.

    Le problème derrière c'est que toute l'industrie qui vie de la commercialisation de nouvelle version de leurs produits vedettes équipé d'une nouvelle puce++ se tire dans les pattes à coup de chèque pour que Samsung ou TSMC produisent d'abord pour eux et noel 2022.

    L'astuce est que pour pouvoir avoir assez de rtx4000 et Radeon7000 au lancement+ en fin d'année 2022 à la puissance et au prix promis, AMD & Nvidia qui prévoyait du 4 à 5 mn et une consommation en watt raisonnable doivent viser du 6 mn et les consommations sont atroces. En plus la demande étant supérieur à l'offre, même en se rabattant sur une gravure moins moderne, il faut payer plein pot.

    Au final, au lieu de repousser à 2023 et proposer du gpu 4mn, performant avec une consommation normale, on va être les dindons de la farce.
    La finesse de gravure de la puce Ampère (ou des puces Ampère...) a-t-elle bougée depuis la sortie en sept 2020 ?? Les consos ont-elles baissées ? Ca ne me semble pas valider ta théorie, qui semble plus valable chez les CPU (Intel) avec des nouvelles générations plus fines en gravure mais avec une archi identique. j'ai pas l'impression qu'on ait vraiment ça chez les GPU.... (va-t-on y venir ?)

    Je suis d'accord avec Berk, va falloir vite revenir à quelque chose de raisonnable, ça ne peux pas continuer à monter indéfiniment dans tous les cas. On avait le même discours il y a 10/15 ans avec les 480 et autres 580, ou quelques années de moins avec les R9 - Fury etc chez AMD. Ca a fini par baisser.... (meme si à chaque fois on plus haut que le pic précédent... )

  25. #7195
    Citation Envoyé par Cedski Voir le message
    La finesse de gravure de la puce Ampère (ou des puces Ampère...) a-t-elle bougée depuis la sortie en sept 2020 ?? Les consos ont-elles baissées ? Ca ne me semble pas valider ta théorie, qui semble plus valable chez les CPU (Intel) avec des nouvelles générations plus fines en gravure mais avec une archi identique. j'ai pas l'impression qu'on ait vraiment ça chez les GPU.... (va-t-on y venir ?)

    Je suis d'accord avec Berk, va falloir vite revenir à quelque chose de raisonnable, ça ne peux pas continuer à monter indéfiniment dans tous les cas. On avait le même discours il y a 10/15 ans avec les 480 et autres 580, ou quelques années de moins avec les R9 - Fury etc chez AMD. Ca a fini par baisser.... (meme si à chaque fois on plus haut que le pic précédent... )
    wccftech est un site putaclic de fakes. Inutile de perdre ton temps à commenter

  26. #7196
    Les générations actuelles sont en Samsung 8nm chez NVidia et TSMC 7nm chez AMD (par contre je n'ai pas tout suivi aux variantes dans une finesse donnée, notamment les histoires d'Intel).
    C'est de la spéculation pour les prochaines, c'est rare de changer de finesse de gravure en cours de route non ?

    Sinon pour les histoires d'efficacité thermique, je vois souvent ça mesuré de façon anormale dans les tests, en faisant une règle de trois avec le framerate au max, sans tenir compte de l'efficacité et overhead du moteur de rendu.
    Ce qui m'intéresse c'est de savoir la conso en 1080p à 60FPS (mon cas d'usage) sur les gros titres récents, ou pour les jeux VR avec une cible de rendu du genre 2016x2240 x2 (~9Mpx) à 90FPS.
    Après il y a un problème d'efficacité du moteur quand même, je suis tombé sur des jeux qui consomment quasi autant à 60FPS que débridé à beaucoup plus. On dirait qu'ils pédalent dans la choucroute "au cas où", et balancent tout le boulot à la benne s'il est fini trop tôt.
    Si vous avez de bonnes refs dans le genre, ça m'intéresse d'ailleurs. Enfin ça m'intéressera encore plus quand les nouvelles générations d'AMD/NVidia/Intel seront sorties. Même si c'est du 6nm, ce sera toujours mieux que mon GPU 16nm actuel. Sans compter les nouvelles fonctionnalités.

  27. #7197
    Je suis pas sûr que le rapport consommation / perfs varie tant que ça en fonction de la charge (du moment que la carte est réellement utilisée, comme dans un jeu), et encore moins que cette courbe ait une tête si différente d'une carte à l'autre.
    Mais c'est une question intéressante, de même que celle en l'absence de charge, qui, elle, est généralement mesurée.
    Sur mobile par contre c'est critique vu que ça joue sur l'autonomie !

    Reste que si on en parle pour des raisons écologiques, l'utilisation de la carte n'est qu'un des maillons du cycle de vie du produit : ça ne pèse pas forcément tant que ça.

    edit : phrases pas trop dans le bon ordre...
    Dernière modification par Kaede ; 17/05/2022 à 21h06.
    "Il y a des enfants en Afrique qui n'ont rien sur leur compte GOG !". "Le prix de 60 boules c'est juste pour choper les cons, les riches, les fans de la licence et les hardcore gamers."

  28. #7198
    Après y'a des options pour limiter la conso
    (Radeon Chill chez AMD par exemple)

    Puis on peut UV aussi si on veut

    Bref l'user fait un peu ce qu'il veut aussi

    Par exemple ma VEGA 56 réputée pour consommer bcp, une fois UV elle consommait très peu
    Là ma 6800 avec radeon chill, elle consomme très peu en jeu

  29. #7199
    Citation Envoyé par Kaede Voir le message
    Je suis pas sûr que le rapport consommation / perfs varie tant que ça en fonction de la charge (du moment que la carte est réellement utilisée, comme dans un jeu), et encore moins que cette courbe ait une tête si différente d'une carte à l'autre.
    Mais c'est une question intéressante, de même que celle en l'absence de charge, qui, elle, est généralement mesurée.
    Reste que si on en parle pour des raisons écologiques, l'utilisation de la carte n'est qu'un des maillons du cycle de vie du produit : ça ne pèse pas forcément tant que ça.
    Sur mobile par contre c'est critique vu que ça joue sur l'autonomie !
    Justement en voyant les tests d'optimisation pour Steam Deck, l'efficacité est loin d'être linéaire. En gros le max de FPS par watt est à 2/3 de la puissance, ensuite ça diminue.
    Et ce n'est pas une histoire de surchauffe, le but du 3/3 est justement d'avoir encore de la marge de dissipation thermique dans un environnement normal.
    Sur PC j'ai l'impression qu'ils foutent des gros ventilos et poussent à 4/3 alors que la puce est la plus efficace à 2/3 (edit: bon c'est un exemple à la con). Mais ça fait gagner des FPS sur les benchmarks en mode débridé.

    Enfin j'aimerais bien des mesures de tout ça avec des GPU desktop. J'ai fait quelques tests en limitant le framerate et/ou la conso de mon GPU à 75W l'été dernier, mais ça m'intéresse plus pour ce que j'achèterais.

    Edit: le Steam Deck n'est peut-être pas un bon exemple en fait, c'est le SOC complet qui est mesuré donc forcément le CPU morfle aussi quand on augmente le framerate.
    Mais c'est pour ça qu'il faudrait une cible identique pour comparer l'efficacité des cartes: tous les autres composants bossent autant, il n'y a que le GPU qui diffère.
    Dernière modification par 564.3 ; 17/05/2022 à 21h14.

  30. #7200
    Ah j'ai retrouvé le nom : loi de Rock ou "deuxième loi de Moore" : le coût des usines double aussi régulièrement, il est de plus en difficile de trouver des capitaux pour en construire (on est déjà à plus de 15 milliards pour les derni-res usines Intel ou Samsung, de mémoire ?).

    Donc il y a aura de moins en moins de fondeurs, voire un seul à terme... Et fini les gains de performances, ou du moins de coûts.

Page 240 sur 313 PremièrePremière ... 140190230232233234235236237238239240241242243244245246247248250290 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •