Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 3 sur 3 PremièrePremière 123
Affichage des résultats 61 à 88 sur 88
  1. #61
    Tu ne dois pas jouer à Metro 2033 alors, parce qu'en activant tout (sauf PhysX !) en Full HD, même avec une GTX 580 ça rame…

    Bien sûr c'est un cas assez extrême, mais pour un joueur (exigeant) je dirais qu'il est beaucoup plus logique d'upgrader sa carte graphique quand on a une GTX 280 (par exemple) que son CPU quand on a un C2Q à base de Penryn par exemple, pour prendre un modèle de gamme similaire et même un peu plus vieux.

    Et honnêtement je pense que c'est une tendance qui va se maintenir encore quelques années. Pour un joueur qui achète une HD 6970 ou GTX 580 aujourd'hui, je peux facilement envisager un "besoin" d'upgrade dans 18~24 mois, mais pour quelqu'un qui achète un Core i7-2600 ?
    Dernière modification par Alexko ; 07/01/2011 à 00h46.
    Mon blog (absolument pas à jour) : Teχlog

  2. #62
    Non je n'y joue pas . Bien sur qu'il y a bien plus d'impact a upgrader son GPU pour un joueur que son CPU, et honnetement le joueur en question peut deja garder son Conroe et economiser l'achat d'un Sandy Bridge sans vraiment trop souffrir...
    fefe - Dillon Y'Bon

  3. #63
    Perso, mon secteur d'activité fait parti de ceux qui ont encore besoin du desktop pour tout un tas de raisons, dont la mauvaise qualité des portables.

    De plus, lorsque tu es un peu power user, trouver un bon portable, ce n'est pas une mince affaire. De mon point de vue, 90% des notebooks présents sur le marché sont mauvais, pour une raison ou une autre (l'écran représentant sans doute au moins 50%).
    Et les quelques bon modèles sont 3 fois plus cher d'un desktop.

  4. #64
    Citation Envoyé par fefe Voir le message
    Non je n'y joue pas . Bien sur qu'il y a bien plus d'impact a upgrader son GPU pour un joueur que son CPU, et honnetement le joueur en question peut deja garder son Conroe et economiser l'achat d'un Sandy Bridge sans vraiment trop souffrir...
    Oui, je développais parce que tu semblais ne pas être d'accord avec l'idée qu'un joueur aurait plutôt intérêt à changer sa CG environ deux fois plus souvent que son CPU…
    Mon blog (absolument pas à jour) : Teχlog

  5. #65
    Ce que j'essayais de dire c'est que en plus d'etre inutile d'upgrader son cpu pour un joueur, la necessite d'upgrader souvent son GPU semblait disparaitre aussi. Bien entendu il restera toujours des cas ou une upgrade frequente aide beaucoup (tout comme pour le CPU) mais au final ca devient de moins en moins utile aussi...
    fefe - Dillon Y'Bon

  6. #66
    Citation Envoyé par fefe Voir le message
    Ce que j'essayais de dire c'est que en plus d'etre inutile d'upgrader son cpu pour un joueur, la necessite d'upgrader souvent son GPU semblait disparaitre aussi. Bien entendu il restera toujours des cas ou une upgrade frequente aide beaucoup (tout comme pour le CPU) mais au final ca devient de moins en moins utile aussi...
    OK. Ça dépend évidemment des jeux auxquels on joue, mais au-delà de ça, je me demande dans quelle mesure les consoles sont responsables de ça. La PS3 et la Xbox ont des GPU à peu près équivalents à une GeForce 7900 et une Radeon X1900+ respectivement, et avec tous les jeux multi-plateformes…
    Mon blog (absolument pas à jour) : Teχlog

  7. #67

  8. #68
    Je viens de tomber sur cette news, le chipset de Sandy Bridge aurait un problème hardware au niveau de certains ports SATA.
    Ca remonte à longtemps la dernière mesure de rappel chez Intel, non ?

    Edit :
    Bon ok, je débarque un peu (je lis plus trop les news), l'info est connue depuis fin janvier.
    Dernière modification par Yasko ; 03/02/2011 à 10h38.

  9. #69
    Citation Envoyé par Yasko Voir le message
    Ca remonte à longtemps la dernière mesure de rappel chez Intel, non ?
    Ce qui est intéressant (ou pas), c'est que contrairement à la dernière fois, c'est un bout de logique en trop qui a causé le bug.
    L'analyse d'Anand : http://www.anandtech.com/show/4143/t...point-sata-bug

    Le fait que le problème n'a pas été détecté comme une violation des design rules, c'est parce que c'était dans la partie analogique qui n'est pas validée pareil?

  10. #70
    De ce que j'en lis:

    The problem in the chipset was traced back to a transistor in the 3Gbps PLL clocking tree. The aforementioned transistor has a very thin gate oxide, which allows you to turn it on with a very low voltage. Unfortunately in this case Intel biased the transistor with too high of a voltage, resulting in higher than expected leakage current. Depending on the physical characteristics of the transistor the leakage current here can increase over time which can ultimately result in this failure on the 3Gbps ports. The fact that the 3Gbps and 6Gbps circuits have their own independent clocking trees is what ensures that this problem is limited to only ports 2 - 5 off the controller.
    En gros c'est la pll qui tient pas correctement en tension. Hors une PLL en général c' est fait avec un VCO avec transistor cross coupled. Donc si l'alim est directement sur la self sans PMOS ou circuit de biasing en haut, ben l'excursion en tension des transistors couplés va dépasser l'alim et donc les niquer. Hors les simulateurs ca ils le disent pas du tout...

    Probable que le bug vienne de la mais a vérifier.

  11. #71
    Encore un canard qui parle bizarre, on a bien fait de l'enfermer avec les autres.

    Merci, j'ai presque l'impression de saisir l'idée.

  12. #72

  13. #73
    Necro threading, j'ai pas trouve de thread sur Ivy Bridge.

    Juste pour dire a quel point j'ai ete etonne de voir combien de sites se sont faits avoir par les 7W d'IVB. C'est bien triste je trouve

  14. #74
    Je me suis fait avoir pendant la conf de presse... parce qu'ils ont bien montré 7 W. J'ai pas eu les infos à ce moment là (et c'est franchement limite comme présentation...)

    Le "vrai" TDP est un rien plus haut, certes (10 ou 13 W)

  15. #75
    Avoir ? Je ne suis pas sur de comprendre. La maniere dont les nouveaux IVB sont definis a certes change, mais en gros soit tu choisis de les utiliser comme avant et ils consommeront 10 a 13W suivant les modeles, soit tu choisis de les utiliser a 7W et ils consommeront 7W.... La performance guarantie sur les scenarios TDP dans ce mode d'operation a 7W sera plus faible que dans le mode 10-12W (surprise?), mais si tu ne design une box qui ne peut refroidir que 7W, tous les workloads y compris un workload TDP s'executeront a 7W (avec moins de guaranties sur les perfs que traditionellement bien entendu il n'y a pas de magie).

    Donc ce n'est pas vraiment une histoire de se faire avoir avec le TDP, plutot de poser la question / ou de mesurer les perfs quand il s'execute a 7W.
    fefe - Dillon Y'Bon

  16. #76
    Je voulais dire que certains ont cru que le TDP etait passe de 17W a 7W, ce qui n'est de toute evidence pas le cas

  17. #77
    Faux, relis ce que j'ai ecris juste au dessus. Tu peux maintenant mettre un chip IVB dans une envelope thermique de 7W alors qu'avant c'etait 17W. La maniere employee pour y arriver est differente donc le nom a ete change, le fait que la plateforme fonctionne avec moins de la moitie du power est une realite, pas un gimmick...
    fefe - Dillon Y'Bon

  18. #78
    Si je comprends bien, le « TDP » est configurable, en gros ? On peut choisir 7 W (avec logiquement les perfs associées) ou 10/13 W en fonction de la machine ?

  19. #79
    Citation Envoyé par fefe Voir le message
    Faux, relis ce que j'ai ecris juste au dessus. Tu peux maintenant mettre un chip IVB dans une envelope thermique de 7W alors qu'avant c'etait 17W. La maniere employee pour y arriver est differente donc le nom a ete change, le fait que la plateforme fonctionne avec moins de la moitie du power est une realite, pas un gimmick...
    Alors pourquoi Intel donne-t-il 2 nombres, l'un nommé TDP et l'autre SDP ? Quel est l'impact sur les perfs sur un même chip si on l'utilise avec son TDP ou avec son SDP ? Les anciens IVB à 17W ont un SDP de combien ? Les nouveaux sont plus performants que les anciens à 7W ?

    Désolé, pour moi tout ça n'est pas clair, et je pense que ça ne l'est pas pour grand monde

  20. #80
    Oui, tu peux configurer le TDP d'un chip aux "valeurs que tu veux", et Intel fournit des parts qui ont ete testees a un certain nombre de points (le point TDP classique, et un certain nombre d'autres points comme par exemple 7W dans l'exemple cis-dessus).
    Bien entendu il y a des contraintes et des limitations sur les valeurs que tu peux selectionner, et en theorie les valeurs "interressantes" devraient etre listees dans la spec du produit. En pratique un OEM (ou potentiellement meme l'utilisateur) pourra configurer le TDP desire statiquement ou dynamiquement. La performance s'ajustant pour reduire le TDP dans la limite demandee.

    Je suppose que la plage de TDP atteignables (testee) sera communiquee, pour l'instant il semblerait (sans surprise) que l'accent sois mis sur la borne inferieure de cette plage.

    Depuis Sandy Bridge, les CPUs mobiles vienent avec 2 limites de TDP, une limite qui est generalement listee comme le TDP officiel et qui peut etre soutenue indefiniment, et une limite maximum qui peut etre atteinte pendant une periode de temps limitee (configurable mais generalement comptee en secondes) mais ne peut etre depassee par aucune application. Cette 2 eme limite est souvent plus de 20% plus haut que le TDP et permet d'ameliorer la reactivite d'applications n'ayant pas besoin de calculs pendant tres longtemps (tu utilises le fait que ta plateforme a une capacite a accumuler l'energie disssipee > TDP quand tu parts d'une temperature faible avant d'atteindre la temperature max a laquelle tu ne peux plus dissiper que le TDP).

    ---------- Post added at 20h47 ---------- Previous post was at 20h41 ----------

    Citation Envoyé par newbie06 Voir le message
    Désolé, pour moi tout ça n'est pas clair, et je pense que ça ne l'est pas pour grand monde
    La on est d'accord. Le probleme vient du fait que TDP signifie bien plus que le power dissipe par le chip dans l'ecosysteme PC, et pour eviter de redefinir le terme ils ont decide d'etre confus .

    L'idee de SDP est de lister la perf d'une application choisie (un scenario d'ou le S) a un power dissipe donne pour communiquer cette guarantie. Si tu veux pouvoir comparer les perfs de cette application a 17W vs les nouveaux chips, tu fais juste tourner cette application sur un ancien chip et peut calculer la difference (on peut supposer que c'est exactement ce qu'un departement de PR ou Marketing ferait ?).
    fefe - Dillon Y'Bon

  21. #81
    Bon, j'ai eu une partie de mon info ici : http://semiaccurate.com/forums/showthread.php?t=6866
    Pour passer a 7w le chip descend a 800 MHz. Ca commence a faire peu

  22. #82
    Citation Envoyé par newbie06 Voir le message
    Bon, j'ai eu une partie de mon info ici : http://semiaccurate.com/forums/showthread.php?t=6866
    Pour passer a 7w le chip descend a 800 MHz. Ca commence a faire peu
    Ça fera une comparaison intéressante avec Kabini, qu'on trouvera à peu près au même niveau de consommation.
    Mon blog (absolument pas à jour) : Teχlog

  23. #83
    Citation Envoyé par fefe Voir le message
    Avoir ? Je ne suis pas sur de comprendre. La maniere dont les nouveaux IVB sont definis a certes change, mais en gros soit tu choisis de les utiliser comme avant et ils consommeront 10 a 13W suivant les modeles, soit tu choisis de les utiliser a 7W et ils consommeront 7W.... La performance guarantie sur les scenarios TDP dans ce mode d'operation a 7W sera plus faible que dans le mode 10-12W (surprise?), mais si tu ne design une box qui ne peut refroidir que 7W, tous les workloads y compris un workload TDP s'executeront a 7W (avec moins de guaranties sur les perfs que traditionellement bien entendu il n'y a pas de magie).

    Donc ce n'est pas vraiment une histoire de se faire avoir avec le TDP, plutot de poser la question / ou de mesurer les perfs quand il s'execute a 7W.
    C'est bizarre que tu ne comprennes pas en quoi c'est un problème d'afficher sur un slide des chiffres en watts pour plusieurs CPU, sans préciser que certains sont des TDP et d'autres des SDP, et sans définir nul part précisément ce qu'est le SDP.

    Comme tu dis il n'y a pas de magie. Sauf la magie du marketing qui va essayer de vendre des Core i7 "up to 2.6 GHz" dans des tablettes. Il était tout à fait possible de faire un Core ix avec un TDP de 10w ou moins avec des specs que je qualifierais de plus honnêtes, c'est à dire avec la base clock à 800 Mhz (ou un peu plus) et un Turbo à 1.x GHz en charge faible.

  24. #84
    SDP= TDP definit pour un workload (scenario) different et plus leger (moins de concurrence entre les core et le graphics).

    Au contraire je vois un enorme probleme, ils ont reussi a communiquer de maniere tellement claire que personne n'a rien compris et a l'impression de se faire avoir.

    Pourquoi limiter le turbo a 1.x alors que tu peux atteindre effectivement 2.6 ?
    fefe - Dillon Y'Bon

  25. #85
    Depuis le CES il faut chercher chaque bout d'info au chausse-pieds et trier dans des réponses qui manquent volontairement de précision. Clairement il y'a un souci de com sur le sujet et ce flou ne peut qu'être volontaire.

    La tournure du communiqué de presse est drôle d'ailleurs : http://newsroom.intel.com/community/...le-experiences
    "Available now, these chips will operate as low as 7 watts". Tant qu'à faire ils auraient pu caser la consommation idle dans cette phrase... (aucun détail au passage sur le SDP bien sûr).

    Sinon, si tu veux garder les 2.6 GHz sur un core pourquoi pas (j'attends de voir les tests de tablettes en i7 limité à 7W pour voir dans quels conditions les 2.6 GHz sont atteints), mais un Turbo plus réaliste sur 2C et SURTOUT une base clock qui correspond à celle qui sera utilisée en cas de charge lourde, c'était vraiment trop demandé ? Seriously...
    Dernière modification par Marc ; 14/01/2013 à 13h12.

  26. #86
    Je crois que la phrase de fefe était ironique.

    Je suppose que les 2,6 GHz, on peut les atteindre en pratique pendant une demi-seconde toutes les trente secondes, ou quelque chose comme ça ?

    Si ça peut rendre les UI plus responsives, ça me semble une très bonne idée. Après, comment va-t-on benchmarker les CPU pour ces "scénarios" ?
    Ça existe, des benchmarks type browsing web (ou autre utilisation interactive) qui mesurent la latence entre le clic et le résultat à l'écran, et qui vont au rythme d'un humain ?

  27. #87
    Ah oui, édité, c'est le matin tout ça

  28. #88
    Oui, desole, j'ai du cynisme et de l'ironie a revendre.
    fefe - Dillon Y'Bon

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •