Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 17 sur 30 PremièrePremière ... 791011121314151617181920212223242527 ... DernièreDernière
Affichage des résultats 481 à 510 sur 883
  1. #481
    J'avoue ne pas connaitre la conso en idle actuelle d'un mobile, juste l'ordre de grandeur. En revanche, je ne peux pas croire une seule seconde que la conso idle de Medfield soit de 2w, c'est forcement une erreur

    Sinon en effet je ne vois pas l'interet du x86 actuellement sur un telephone, de la meme facon que je ne vois ce que ferait un ARM dans un desktop.

  2. #482
    Vu ce qu'ils disent, je pense que c'est la consommation de la tablette elle-même, enfin j'espère pour eux.

    2 W c'est en gros la consommation d'un iPad en idle, vu qu'il charge à peine avec un port USB de base (2,5 W)

  3. #483
    "iPad 2's battery; A 3.8V, 25 Watt-hour unit" (http://www.ifixit.com/Teardown/iPad-...eardown/5071/1), a 2W idle ca fait 12.5h de batterie idle, si c'est mesure idle avec l'ecran on c'est peut etre possible (ca semble court), si c'est mesure avec l'ecran eteint c'est a coup sur nettement moins de 2W.
    Bref c'est vraiment une question de la definition de "idle": ecran allume? Wifi et 3G allumes ou suspendus ? 2W me semble enorme pour un iPad qui ne ferait rien.

    PS: mes calculs precedents quelques posts plus hauts sont probablement faux vu que le voltage de la batterie d'un telephone est certainement plus eleve que ce que j'ai utilise dans mon calcul.
    fefe - Dillon Y'Bon

  4. #484
    Mon iPad tient très largement une semaine si je ne le touche pas (pas de notification en marche donc il doit couper le wifi ; pas de module 3G).

  5. #485
    Citation Envoyé par Alexko Voir le message
    Vraiment ? Même en supposant qu'Intel soit compétitif en perfs et conso, quel intérêt ?
    C'est de voir comment ils s'en sortent alors qu'ils avaient encore tant de retard il y a peu de temps (ils ont découvert le power gating l'an dernier c'est ça ? )
    crève boulon

  6. #486
    Nehalem utilisait des power gate en 2007, donc si on prend en compte le temps de developpement du projet d'environ 5 ans ca placerait la "decouverte" a une date anterieure a 2002 si Nehalem etait la premiere puce Intel a utiliser des power gate .
    fefe - Dillon Y'Bon

  7. #487
    C'est pas plutôt sur un blog de chez AMD qu'un ingé frimait en racontant comment Bulldozer allait rien consommer grâce à des trucs de fou genre clock et power gating ?

  8. #488
    AMD a mis quelques annees de plus que Intel a adopter des "embedded power gates", oui. C'est pas comme si auparavant personne n'allait eteindre le VR externe, c'etait juste plus lent a passer a 0V et pas pratique si on ne voulait pas eteindre tout ce qui etait connecte a ce VR.
    fefe - Dillon Y'Bon

  9. #489
    Citation Envoyé par fefe Voir le message
    2.6W en idle ahahah. Le truc le plus drole c'est que l'article parle d'un target de 2W. 2 choix: soit le journaliste n'a rien compris a ce que la personne qui leakait lui a dit, soit les ingenieurs qui ont choisi 2W idle comme target pour une plateforme telephone sont tellement debiles qu'ils meritent de prendre la porte ainsi que tout leur management.
    Si on prend une batterie de telephone de 1.2Ah et qu'on considere que les 2W "idle" (le target d'apres ce qui a ete publie) sont consommes a 1V en moyenne ca fait 36 minutes d'autonomie sans rien faire avec le telephone...
    une batterie de tel c'est 3.7v pour 1500mAh en moyenne. mais 2w de conso idle c'est juste délirant, on fait rien avec... le rasberry pi ( http://www.raspberrypi.org )consommera autant en fonctionnement. D'ailleurs vu que j'en parle, y en a qui en acheteront?

  10. #490
    Citation Envoyé par hellsing Voir le message
    une batterie de tel c'est 3.7v pour 1500mAh en moyenne. mais 2w de conso idle c'est juste délirant, on fait rien avec... le rasberry pi ( http://www.raspberrypi.org )consommera autant en fonctionnement. D'ailleurs vu que j'en parle, y en a qui en acheteront?
    Pourquoi attendre alors qu'on peut déjà trouver des prototypes apacher sur eBay
    http://www.ebay.co.uk/sch/raspberry_pi/m.html

  11. #491
    Citation Envoyé par hellsing Voir le message
    une batterie de tel c'est 3.7v pour 1500mAh en moyenne. mais 2w de conso idle c'est juste délirant, on fait rien avec... le rasberry pi ( http://www.raspberrypi.org )consommera autant en fonctionnement. D'ailleurs vu que j'en parle, y en a qui en acheteront?
    Oui j'avais note mon erreur en regardant la batterie de l'ipad. Ca fait dans les 2 heures au lieu de 36 minutes, mais ca reste ridicule .
    fefe - Dillon Y'Bon

  12. #492
    Citation Envoyé par Foudge Voir le message
    Pourquoi attendre alors qu'on peut déjà trouver des prototypes apacher sur eBay
    http://www.ebay.co.uk/sch/raspberry_pi/m.html
    ouai j'ai vu ça, mais bizarrement c'est le prix qui m'intéresse

    C'est le genre de truc que je vais bidouiller dans tous les sens, souder dessus etc, si je le nique, à 25€ jm'en fou. à 3000 un peu moins

    Sérieusement une plateforme ARM, opérationnelle à ce prix et aussi "ouvert" doit y avoir moyen de s'amuser avec.
    Dernière modification par hellsing ; 06/01/2012 à 11h15.

  13. #493

  14. #494
    Et ça : http://www.anandtech.com/show/5365/i...-smartphones/1

    Attendons de voir les premiers téléphones sur le marché, mais Intel semble devenir enfin compétitif

  15. #495

  16. #496
    Huhu, ca ne sera pas mieux que la traduction ARM->x86 qu'Intel veut coller pour que Medfield ait acces aux applis natives Android. Ca parait seduisant, mais c'est juste trop lent ; au mieux facteur 2 de ralentissement par rapport a du natif et dans les deux cas (ARM, Medfield), on n'a pas des foudres de guerre capable d'encaisser un tel ralentissement. Bref hors cas tres specifiques, ca ne me parait pas tres viable.

  17. #497
    Citation Envoyé par newbie06 Voir le message
    Et ça : http://www.anandtech.com/show/5365/i...-smartphones/1

    Attendons de voir les premiers téléphones sur le marché, mais Intel semble devenir enfin compétitif
    J'pensais pas qu'Intel arriverait si vite à un tel résultat !

  18. #498
    Si vite ? Alors que depuis 3 ans ils nous bassinent en disant qu'ils un super CPU qui va être dans les smartphones, je ne trouve pas ça bien rapide. Je pense qu'ils n'ont pas bien vu venir la vague smartphone / tablette, niveau engineering ils auraient pu en être là bien avant.

    Niveau power je pense que le coeur consomme un peu trop : 700 mW à pleine charge. Normalement les constructeurs attendent un CPU dans les 400 mW pour les téléphones. Par ailleurs, les benchmarks sont très douteux ; nos bench internes montrent que l'Atom ne devrait pas être aussi haut par rapport à la concurrence.

    Cerise sur le gateau : pour une fois c'est Intel qui a un problème avec l'eco système software existant

    Et c'est pour toutes ces raisons que je dis qu'il vaut mieux attendre la mise sur le marché pour voir de vraies comparaisons

    EDIT : Ce blog de MS sur Windows ARM dément complètement l'idée que WOA fera tourner des programmes x86.
    Dernière modification par newbie06 ; 09/02/2012 à 21h19.

  19. #499
    Citation Envoyé par newbie06 Voir le message
    Si vite ? Alors que depuis 3 ans ils nous bassinent en disant qu'ils un super CPU qui va être dans les smartphones, je ne trouve pas ça bien rapide.
    Honnêtement, vu où ils en étaient récemment, je m'attendais clairement à devoir attendre 2 ou 3 ans de plus avant de pouvoir proposer une solution efficace dans les smartphones, mais qu'on allait d'abord les voir arriver massivement sur tablette (ça a commencé, mais j'avoue de pas savoir ce que vaut un Atom sur une tablette) avant d'attaquer le marché des smarphones où les contraintes de power sont plus importantes encore.

    Citation Envoyé par newbie06 Voir le message
    Niveau power je pense que le coeur consomme un peu trop : 700 mW à pleine charge. Normalement les constructeurs attendent un CPU dans les 400 mW pour les téléphones. Par ailleurs, les benchmarks sont très douteux ; nos bench internes montrent que l'Atom ne devrait pas être aussi haut par rapport à la concurrence.
    D'après le tableau d'Anand, c'est dans la moyenne, non ?
    Dernière modification par Foudge ; 09/02/2012 à 22h00.

  20. #500
    Citation Envoyé par newbie06 Voir le message
    Niveau power je pense que le coeur consomme un peu trop : 700 mW à pleine charge. Normalement les constructeurs attendent un CPU dans les 400 mW pour les téléphones. Par ailleurs, les benchmarks sont très douteux ; nos bench internes montrent que l'Atom ne devrait pas être aussi haut par rapport à la concurrence.
    La question est plus quelle est la gamme de conso possible et quelle est la perf iso power. Le fait qu'un CPU puisse consommer plus quand la perf est bonne a power comparable avec la competition n'est en soit pas un handicap, juste un choix (et meme un avantage, ca permet des bursts courts a haute perf). Si le power supplementaire est necessaire pour compenser la difference de perf, la c'est un probleme de competitivite.
    Pour la perf, il y a le core et la plateforme. Tu peux facilement diviser les perf d'un bon core par 2 en y mettant un sous-systeme memoire anemique. Dans ce cas peu importe que le core soit meilleur ou pas tant qu'une plateforme decente n'est pas produite (en partant du principe que beaucoup d'applis interressantes stressent le sous-systeme memoire). Le prechargement, beaucoup de buffering et des schedulers bien faits dans le controleur memoire peuvent changer beaucoup de choses. Une des difficultes d'implementation de ce type de mecanisme est qu'il y a besoin d'une collaboration etroite entre le design/archi du core et de la plateforme. C'est plus difficile quand les designs sont controles par des equipes differentes (d'ou les ameliorations de perf visibles depuis que ce type de probleme n'est plus gere sur un chipset separe du coeur depuis K8/Nehalem), et encore plus difficile quand ils sont developpes dans des boites differentes. En revanche, dans l'absolu ces problemes sont plus faciles a resoudre que beaucoup d'autres qui sont deja resolus dans les core ARM recents...
    Dernière modification par fefe ; 13/02/2012 à 19h35.
    fefe - Dillon Y'Bon

  21. #501
    En clair, on devrait avoir des sous-systèmes mémoire bien plus efficaces avec un CPU fait par NVIDIA plutot que dans l'implémentation actuelles qui utilise un contrôleur mémoire NVIDIA et un CPU de chez ARM ?

    C'est déjà en partie le cas avec Snapdragon, mais les implémentations matérielles sont souvent foireuses, avec un seul canal mémoire alors que les SoC en supportent deux.

  22. #502
    Si la personne qui design le core a connaissance de ce que la platforme fait et vis versa, ca aide beaucoup. Donc l'exemple que tu donne est correct si on part du prinipe que Nvidia sait mieux faire des fill buffers et des prefetchers que ARM (je n'ai pas la reponse).
    fefe - Dillon Y'Bon

  23. #503
    Citation Envoyé par fefe Voir le message
    Si la personne qui design le core a connaissance de ce que la platforme fait et vis versa, ca aide beaucoup. Donc l'exemple que tu donne est correct si on part du prinipe que Nvidia sait mieux faire des fill buffers et des prefetchers que ARM (je n'ai pas la reponse).
    Il y a deux problèmes en effet : premièrement ARM ne contrôle pas toute la plateforme et deuxièmement jusqu'à il n'y a pas si longtemps le traffic mémoire n'était pas assez pris au sérieux (et donc des prefetchers limite voire inexistants). Mais ça y est on fait tourner autre chose que dhrystone, on a vu la lumière

  24. #504
    Ouai mais c'est quand même pas gagné, les bus mémoire sont toujours ridiculement étroit...

  25. #505
    Citation Envoyé par hellsing Voir le message
    Ouai mais c'est quand même pas gagné, les bus mémoire sont toujours ridiculement étroit...
    Cortex-A9 peut sortir deux bus 128-bit. Mais personne n'a jamais implémenté ça. Ce sont les clients qui décident et jusqu'à il n'y a pas longtemps ces clients ne juraient aussi que par dhrystone qui comme tout le monde le sait a d'énormes besoins de bande passante mémoire.

  26. #506
    Je suis au MWC et j'ai pu voir le Snapdragon S4 (core maison) mais surtout le SoC d'Huawei qui est un quad core A9 à 1,5 GHz avec a priori un GPU maison, et c'est très performant : les rares tests que j'ai pu faire (sont pas joueurs les chinois du stand) donnent le GPU plus rapide que Tegra 3. Impressionant.

  27. #507
    Apparemment le système mémoire du Huawei est très performant aussi, enfin c'est ce qu'ils disent, et j'imagine que c'est relatif aux autres SoC ARM

  28. #508

  29. #509
    Comment, c'est pas toi qui a eu l'idée du nom? (Ils faisaient un appel à idées il y a quelques mois.)

    Les Barcelonais en rassemblent plein pour en faire un supercalculateur, avec les sousous de l'Europe.
    Est-ce qu'on connaît d'autres applications/clients pour ce truc ?
    Dernière modification par Møgluglu ; 14/03/2012 à 20h56.

  30. #510
    Coude Arm, ok je sors
    fefe - Dillon Y'Bon

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •