Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 17 sur 165 PremièrePremière ... 79101112131415161718192021222324252767117 ... DernièreDernière
Affichage des résultats 481 à 510 sur 4947
  1. #481
    Citation Envoyé par Møgluglu Voir le message
    Haswell est quand-même une sacrée tuerie, avec des évolutions énormes : la 4e ALU, le FMA, l'AVX full-256-bit...
    C'est vos jeux codés avec les pieds qui ne savent pas l'exploiter.
    C'est d'ailleurs pour ça que quand les benchmarks utilisent le FMA ou l'AVX, le CPU passe à 100 degrés .


  2. #482
    Bah ouais, faut savoir ce que vous voulez aussi...

  3. #483
    Citation Envoyé par gregounech Voir le message
    C'est d'ailleurs pour ça que quand les benchmarks utilisent le FMA ou l'AVX, le CPU passe à 100 degrés .
    Non, ça c'est parce que ton rad est mal fixé...
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  4. #484
    Ben voilà mon 2500K à 4500mhz je vais le garder 10 ans je crois.
    Sans exagérer.
    Ce serait bien qu'amd redevienne competitif aussi.

  5. #485
    Citation Envoyé par FB74 Voir le message
    Non, ça c'est parce que ton rad est mal fixé...
    Nonon, lance un petit bench d'Aida 64 qui utilise l'AVX tu verras. (EDIT : Linpack aussi c'est le pire je crois).


  6. #486
    Forcément, sous Linpack, Haswell double quasiment les perfs par rapport à Ivy Bridge.
    +90% de perf pour +20% de power, moi ça me va...

  7. #487
    Citation Envoyé par Møgluglu Voir le message
    Forcément, sous Linpack, Haswell double quasiment les perfs par rapport à Ivy Bridge.
    +90% de perf pour +20% de power, moi ça me va...
    Ouais c'est cool, enfin quand je serais sous Haswell, que pas mal de programmes se serviront des nouvelles instructions et que Broadwell sera de sortie, on aura pas l'air con avec nos 100 degrés.


  8. #488
    Mouais... le PC comme chauffage d'appoint ça a fait ses preuves
    Citation Envoyé par doshu Voir le message
    le gros engin de Vladtepes

  9. #489
    Citation Envoyé par Teocali Voir le message
    Les qualités qui comptent pour être élus ne sont pas les même que pour gouverner. Et c'est tout le défi d'une démocratie dans notre société moderne : réussir a résoudre ce dilemme.

  10. #490

  11. #491
    Pas loin du carton plein pour Sapphire, impressionnant.
    Photo : Nikon D5100 et Fujifilm X20 Flickr

  12. #492
    Je case ça ici, j'imagine que c'est à peu près le bon endroit : existe-t-il une possibilité qu'avec la génération de consoles qui arrive et une bonne optimisation multi-cœurs (je sais pas comment appeler ça autrement), les AMD FX (pas ceux avec un TDP de 200W) redeviennent compétitifs par rapport au i5 (voire i7) ?

    Sur GameGPU, à propos de BF4, on voit notamment ceci :


    Il faudra probablement attendre d’autres jeux pour le dire, mais est-ce que vous semble probable ?
    i5 3550 (3,3 Ghz) – 16 Go DDR3 – GeForce 1070 8 Go – Crucial MX300 512 Go et M4 128 Go – Creative Soundblaster Z – LDLC-QS 550+ – LG 27GN850 – Iiyama G2773Bitfenix Phenom M.

  13. #493
    AMD a couché collaboré avec DICE sur le développement de BF4. Il est pas exclu qu'en plus d'un gain pour les GPUs Radeon on retrouve aussi un gain sur leurs processeurs - soit en optimisant le jeu pour tirer parti des modules Bulldo, soit en bridant les perfs des CPUs Intel.

    Quoi qu'il en soit j'éviterai de tirer des conclusions générales sur la base d'un seul jeu sponsorisé. Dans 99% des jeux les processeurs AMD restent à la peine...

  14. #494
    Après, il faut voir aussi le rapport performance/ conso.

    Pas tant dans l'optique des euros épargnés par an, mais plutôt comme un indicateur du bon rendement de puissance de la puce (bonne architecture).

    A ce petit jeu, je pense qu'AMD a du retard sur Intel actuellement.
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  15. #495
    Mouais, Crysis 3 permet au FX de foutre une méchante branlée en performance/prix aux Intel, mais c'est vrai que ça reste 2 cas assez isolé. Bien que je pense que l'avenir est vers la multiplication des coeurs avec le développement pour console qui va de facto être pour 8 coeurs.

    Et FB74, ça n'est pas une question d'architecture uniquement. Intel a un avantage de finesse de fabrication qui va leur conférer un avantage certain en terme de consommation/performance.

  16. #496
    Vous achetez des proc sur le fait qu'ils font un bon score sur un jeu vous ? oO

  17. #497
    Citation Envoyé par Slane Voir le message
    Vous achetez des proc sur le fait qu'ils font un bon score sur un jeu vous ? oO
    Oui bien sur. J'ai donc 123 PC pour mieux jouer à chacun de mes jeux.

  18. #498
    Citation Envoyé par Ragondin Voir le message
    Oui bien sur. J'ai donc 123 PC parce que je suis riche, c'est tout.
    fixed.

  19. #499
    Il est terre à terre le Ragondin, riche mais terriblement terre à terre...

  20. #500
    Je fais dans le pratique et j'aide l'économie à tourner. Suis un mec bien quoi

  21. #501
    Citation Envoyé par skyblazer Voir le message
    Mouais, Crysis 3 permet au FX de foutre une méchante branlée en performance/prix aux Intel, mais c'est vrai que ça reste 2 cas assez isolé. Bien que je pense que l'avenir est vers la multiplication des coeurs avec le développement pour console qui va de facto être pour 8 coeurs.
    Je sais pas si tu as suivi l'actu sur l'architecture console mais en fait ce serait faux, les consoles ne seraient pas de vrais octo-cores. Ce seraient deux quad-cores gravés sur le même die, si mes souvenirs sont bons. La différence se situe surtout au niveau des caches qui ne sont pas partagés et ne permettent pas d'exécuter un programme en parallèle sur les 8 coeurs en même temps.

    Il est donc probable que les jeux doivent se contenter de 4 coeurs (sur lesquels ils seront les seuls programmes exécutés, ce qui est un minimum vu qu'on parle de 4 coeurs basse conso @1,6Ghz), le reste (OS, fonctions d'enregistrement et de partage en ligne, chat vocal, Kinect...) s'exécutant sur les 4 autres coeurs.

  22. #502
    Alors de ce que je viens de lire, la séparation des cache ne se fait que jusqu'au cache L2, ce qui laisse une communication par cache L3 qui théoriquement permet une certaine communication. Après ouais, c'est sans doute lent, c'est con.

    Donc il convient de s'en tenir à l'ancien adage wait and see.

  23. #503


    7 ans après, AMD qui se prend dans les dents le retour de la vengeance du quad-core natif.
    C'est con, leur marketing avait fait du tellement bon boulot pour persuader les gens que 4 cores Natifs® c'était mieux que 2+2 que c'est resté...

  24. #504
    Citation Envoyé par Qiou87 Voir le message
    Il est donc probable que les jeux doivent se contenter de 4 coeurs (sur lesquels ils seront les seuls programmes exécutés, ce qui est un minimum vu qu'on parle de 4 coeurs basse conso @1,6Ghz), le reste (OS, fonctions d'enregistrement et de partage en ligne, chat vocal, Kinect...) s'exécutant sur les 4 autres coeurs.
    Si je dis pas de bêtises, la PS4 comme la One dédient 6 cœurs au jeu.
    i5 3550 (3,3 Ghz) – 16 Go DDR3 – GeForce 1070 8 Go – Crucial MX300 512 Go et M4 128 Go – Creative Soundblaster Z – LDLC-QS 550+ – LG 27GN850 – Iiyama G2773Bitfenix Phenom M.

  25. #505
    Citation Envoyé par meduz Voir le message
    Si je dis pas de bêtises, la PS4 comme la One dédient 6 cœurs au jeu.
    Faudra qu'on m'explique alors - mais pour de vrai hein, pas de mauvaise foi promis juré - comment ils font communiquer efficacement leurs coeurs 1 à 4 et les 5+6. Le fait de ne pouvoir passer que par le cache L3 (lent) ne va-t-il pas poser de sérieux soucis si on essaie de paralléliser sur 6 coeurs? Ou alors on exécute une partie du programme sur 4 coeurs et une autre sur 2?

    Et tant qu'à faire si l'idée était de faire tourner les jeux sur 6 coeurs, pourquoi ces cons n'ont-ils tout simplement pas demandé à AMD de leur faire un CPU 6+2 plutôt qu'un 4+4? Paraîtrait qu'ils avaient un budget développement énorme et tout ça, ça devait pas être insurmontable.

  26. #506
    Citation Envoyé par Qiou87 Voir le message
    Faudra qu'on m'explique alors - mais pour de vrai hein, pas de mauvaise foi promis juré - comment ils font communiquer efficacement leurs coeurs 1 à 4 et les 5+6. Le fait de ne pouvoir passer que par le cache L3 (lent) ne va-t-il pas poser de sérieux soucis si on essaie de paralléliser sur 6 coeurs? Ou alors on exécute une partie du programme sur 4 coeurs et une autre sur 2?
    Il me semble qu'il n'y a pas de cache L3 sur les APU de la PS4 et la Xbox One. Pour communiquer entre les deux clusters, on passe par la DRAM ou par le crossbar :


    Les caches sont cohérents. Un core peut lire dans le cache d'un autre. Même le GPU peut lire dans les caches des core CPU.
    C'est une archi tout ce qu'il y a de plus classique. C'est au contraire le fait de partager des L2 entre beaucoup de cores (4) qui est atypique. Chez Intel, chaque core a son L2 dédié.
    Tu peux voir comme un avantage le fait que les communications coûtent moins cher à l'intérieur des clusters de 4 cores. Même si ça ne change surement pas grand-chose en pratique. Quand tu écris des applis multi-thread qui se veulent un minimum efficaces, tu ne t'amuses pas à synchroniser sur des variables globales à tout bout de champ.

  27. #507
    Ok je comprends mieux, merci. On verra bien ce que ça donne en pratique, les comparatifs de perfs entre consoles et PC risquent de toute manière de fleurir une fois les premiers jeux multi-plateforme sortis.

  28. #508
    Héhéhé...

    Radeon R9 290(X) : un souci avec les modèles vendus dans le commerce ?

    La question des exemplaires envoyés à la presse dans le domaine des processeurs et des cartes graphiques n'est pas nouvelle. La tentation est en effet grande pour les constructeurs de proposer des produits spécifiques, plus performants que ceux que leurs clients pourront acheter. Suite au lancement de la Radeon R9 290X, Tom's Hardware a rencontré quelques soucis. AMD promet un patch.

    Acheter tout le matériel testé par une rédaction est quasiment impossible, notamment dans le domaine des nouvelles technologies. Même l'UFC-Que choisir se résout parfois à passer par des exemplaires de prêt, comme c'était récemment le cas avec une analyse d'écrans 4K.

    Il faut dire qu'à l'heure où les médias cherchent déjà à financer leurs rédactions, acheter tous les gadgets à plusieurs centaines d'euros qui sortent chaque semaine n'est pas vraiment à l'ordre du jour. D'autant plus que les exemplaires de presse sont disponibles à l'avance, et qu'une semaine ou deux après leur lancement, cela n'intéressera plus grand monde.

    Les produits prêtés à la presse : une incitation à la méfiance

    Cela a parfois incité les marques à tenter de fournir aux médias des produits sélectionnés, meilleurs que ceux vendus dans le commerce, afin de s'assurer d'une bonne image malgré un produit peu convaincant sur certains aspects. À cela s'ajoutent les références qui ne changent pas lorsque des composants importants sont modifiés, et d'autres pratiques pour le moins douteuses.


    Avec le temps, cela a poussé certaines rédactions à chercher à se fournir de temps à autre des produits via le canal commercial, notamment en les achetant afin de vérifier ce qu'ils avaient constaté dans une série de premiers tests. Dans le domaine des cartes graphiques, avec la gestion des fréquences qui a évolué ces derniers temps pour des modèles qui dépendent de la température du GPU, du système de refroidissement, et donc de la capacité de la puce à s'échauffer, le problème est encore plus concret. Hardware.fr s'y était notamment attardé dans le cas des GPU de NVIDIA en mai 2012.

    Le cas des R9 290(X) d'AMD encore un peu mystérieux

    Mais le débat revient sur le devant de la scène suite à la parution de l'article de Tom's Hardware qui a commandé des Radeon R9 290X d'AMD et a eu la mauvaise surprise de constater des performances moindres que les versions envoyées à la presse, et même parfois inférieures à une R9 290. La raison ? La fréquence du GPU qui tombait parfois à 727 MHz plutôt que les 1 GHz mis en avant. Il faut effectivement savoir qu'avec cette génération, AMD ne communique plus que sur la fréquence maximale, et non pas sur une fréquence minimale, comme peut encore le faire NVIDIA par exemple.

    Radeon R9 290X

    Dans une réponse adressée à nos confrères américains, le texan a précisé que si des écarts pouvaient exister d'un produit à l'autre (ce qui n'a rien d'inhabituel), ils ne devraient pas être si importants. La société affirme que d'autres journalistes ayant récupéré des cartes dans le commerce n'ont pas constaté de tels soucis et que celles de Tom's Hardware vont être analysées.


    Mais dans le même temps, on apprend qu'AMD a « identifié des zones dans lesquelles la variabilité pouvait être réduite, et nous travaillons sur une mise à jour des pilotes qui devrait la minimiser. Nous publierons rapidement une mise à jour ». Bref, il n'y a pas de problème, mais on va tout de même le corriger. Une affirmation qui ne devrait pas franchement lever les doutes, d'autant plus qu'un lecteur de Tech Report indique lui aussi avoir rencontré quelques soucis du même genre.


    Il ne reste maintenant plus qu'à attendre que d'autres analyses soient faites à la fois sur les modèles envoyés à la presse et sur ceux disponibles dans le commerce afin d'avoir le fin mot de cette histoire. Quoi qu'il en soit, si vous avez commandé une Radeon R9 290 / 290X et que vous constatez de tels comportements, faites-le nous savoir au sein de nos commentaires.
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  29. #509
    La fréquence diminue jusqu'à 727Mhz avec l'augmentation de la température (ou plutôt la maintenir à 95°C). Cette valeur n'est donc pas anormale.
    Je suis allé sur le site de Tom's Hardware pour en savoir un peu plus, et j'ai envie de penser qu'AMD a soigné le travail sur le ventirad (meilleur pâte thermique ?? Mieux appliqué ??) pour celles fournies à la presse que sur celles qui sont produites à la chaine et directement mises en vente. Ça expliquerai que celle qui leur a été fournie tenait bien les 1000MHz tandis que celle qu'ils ont acheté tombait tout de suite à 727. Leur solution via la mise à jour des pilotes va sans doute être d'augmenter encore un peu les rpm de la turbine...
    De toutes façons personne ne recommande d’acheter ces cartes avec le design de référence, et ce problème ne devrait plus se retrouver sur les modèles custom (à condition qu'ils soient bien fait).

  30. #510
    C'est plus probablement un choix dans les puces pour choisir celles qui ont le moins tendance à chauffer.

Page 17 sur 165 PremièrePremière ... 79101112131415161718192021222324252767117 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •