Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 22 sur 30 PremièrePremière ... 121415161718192021222324252627282930 DernièreDernière
Affichage des résultats 631 à 660 sur 883
  1. #631
    Citation Envoyé par newbie06 Voir le message
    Oui, c'est le but : couper les coeurs et la L2. Le probleme de cette approche est aussi qu'il faut flusher la L2 avant de couper le jus ce qui implique une reduction de la frequence a laquelle tu peux migrer (dans le modele migratoire bien sur).
    Juste les lignes marquees "Dirty" non ? Ce qui va beaucoup plus vite.
    fefe - Dillon Y'Bon

  2. #632
    Citation Envoyé par fefe Voir le message
    Juste les lignes marquees "Dirty" non ? Ce qui va beaucoup plus vite.
    En theorie oui, bien sur. Mais j'avoue ne pas savoir s'il y a une instruction pour ca, ou s'il faut faire un clean set/way sur l'ensemble de la cache. Faut que j'aille jeter un coup d'oeil.

    D'ailleurs j'avais fait quelques calculs pour savoir quel etait le taux de lignes dirty et dans mon souvenir ca reste relativement eleve. Y'a des etudes la-dessus?

  3. #633
    Ca doit se trouver dans les archives d'ISCA ou Micro . C'est tres dependant de comment tu geres ton cache .

    Edit: http://www.date-conference.com/proce...LES/06.4_4.PDF premier hit sur google, donne des stats, certes pour un cache de 32k
    Dernière modification par fefe ; 10/01/2013 à 22h52.
    fefe - Dillon Y'Bon

  4. #634
    Citation Envoyé par Møgluglu Voir le message
    Ah oui, ce sont bien 2 clusters de 4 CPU homogènes.

    Pour les scénarios visés (migrations entre A7 et A15), avoir 4 clusters de 2 CPU hétérogènes ne serait pas plus efficace ? Même si ça paraît bien plus compliqué à mettre en place.

    D'un autre côté, en mode basse conso tous les A15 sont inactifs, donc on peut en profiter pour éteindre ou endormir le cache L2 du cluster.
    Visiblement, toutes les options sont possibles :









    Accessoirement, les performances « little only » sont pas mauvaises, surtout en navigation internet. Donc un dual/quad-A7, ça pourrait le faire pour un smartphone d'entrée de gamme avec une bonne autonomie.
    Mon blog (absolument pas à jour) : Teχlog

  5. #635

  6. #636
    Moi je préfère les jolies annonces autour d'OCP. Les micro serveurs ça va être fun, je le sens

  7. #637
    Avec la sortie de T4, on a ce qui se rapproche le plus de scores SPEC :

    - T4 Cortex-A15 1.9 GHz: SPEC INT 2000 1168 (page 16)
    - T4i Cortex-A9 r4p1 2.3 GHz: SPEC INT 2000 920 (page 7)
    - Atom D525 1.8 GHz: SPEC INT 2000 725 avec icc (page 2)

  8. #638
    Anandtech a analysé le T4, visiblement le problème de la mémoire a été en partie résolu. En partie car le dual channel est dispo que sur une seule des versions.

    http://www.anandtech.com/show/6787/n...oenix-hands-on

  9. #639
    Citation Envoyé par hellsing Voir le message
    Anandtech a analysé le T4, visiblement le problème de la mémoire a été en partie résolu. En partie car le dual channel est dispo que sur une seule des versions.

    http://www.anandtech.com/show/6787/n...oenix-hands-on
    Ouai les "analyses" d'AnandTech

    Le T4 a deux canaux memoire, c'est le T4i, qui n'a presque rien a voir, qui a un unique canal memoire.

  10. #640
    Non, mais tu comprends, appeller ça Tegra 3++, ça le faisait pas trop, même si on est évidemment bien plus proche d'un 3 que d'un 4 (discours marketing...)

  11. #641
    Citation Envoyé par newbie06 Voir le message
    Ouai les "analyses" d'AnandTech
    Des fois les tests sont bien, ça dépend vachement de qui va rédiger l'article. Mais ils sont en général super enthousiaste sur le matos à venir c'est vrai...

  12. #642
    Citation Envoyé par hellsing Voir le message
    Des fois les tests sont bien, ça dépend vachement de qui va rédiger l'article. Mais ils sont en général super enthousiaste sur le matos à venir c'est vrai...
    Depuis les tests avec du matos et un ingé fournis par Intel, j'ai des doutes. Après je ne dis pas que c'était du foireux, il faudrait ptet que des boites utilisant de l'ARM soient plus agressifs en marketing de ce genre, mais ça laisse une drôle d'impression.

  13. #643
    Citation Envoyé par newbie06 Voir le message
    Depuis les tests avec du matos et un ingé fournis par Intel, j'ai des doutes. Après je ne dis pas que c'était du foireux, il faudrait ptet que des boites utilisant de l'ARM soient plus agressifs en marketing de ce genre, mais ça laisse une drôle d'impression.
    Bah ça va, pour le marketing agressif je fais confiance à Nvidia.

    Après, c'est pas évident d'avoir du recul et un point de vue critique sur un jeu de slides sur une archi pas encore disponible, à moins de maitriser à fond le sujet. Et les gens pour qui c'est le cas sont rarement rédacteurs pour un site web.

  14. #644
    Citation Envoyé par Møgluglu Voir le message
    Bah ça va, pour le marketing agressif je fais confiance à Nvidia.
    Ouai, j'aimerais bien qu'ils fassent preuve d'autant d'agressivite sur le secteur mobile que sur le secteur GPU, et c'est pas le cas hormis sur des transparents

    Et sinon AnandTech nous fait un E5 vs Calxeda. J'attends la livraison de serveurs configures par Intel avec les inges et les benchmarks qui vont bien pour refaire passer les chips Intel devant

    M'enfin je quand meme etonne que le bidule outrageusement cher a base d'ARM soit devant en terme d'efficacite.

  15. #645
    Pas grand-chose à voir avec la discussion en cours, mais une question me vient subitement à l'esprit : avant Krait et Scorpion, Qualcomm faisait-elle ses propres cores CPU ? Difficile de trouver des infos avec Google.

    Edit : apparemment, Scorpion serait le premier core Qualcomm : http://en.wikipedia.org/wiki/List_of...rocessor_cores Si c'est bien le cas, c'est assez impressionnant pour une première tentative.
    Dernière modification par Alexko ; 25/03/2013 à 03h15.
    Mon blog (absolument pas à jour) : Teχlog

  16. #646
    Citation Envoyé par Alexko Voir le message
    Pas grand-chose à voir avec la discussion en cours, mais une question me vient subitement à l'esprit : avant Krait et Scorpion, Qualcomm faisait-elle ses propres cores CPU ? Difficile de trouver des infos avec Google.

    Edit : apparemment, Scorpion serait le premier core Qualcomm : http://en.wikipedia.org/wiki/List_of...rocessor_cores Si c'est bien le cas, c'est assez impressionnant pour une première tentative.
    On peut dire la même chose de StrongARM/XScale Que trouves-tu impressionnnant ? Les performances ou le succès commercial ?

    Pour les performances, tout tient dans le but que l'on cherche à atteindre et de l'équilibre recherché. Il ne faut pas oublier qu'ARM tente de faire des coeurs qui peuvent correspondre à plusieurs marchés/clients, ce qui n'est pas forcément le cas de Qualcomm.

    Sinon un coeur que je trouve plus impressionnant est le Swift d'Apple qui me paraît avoir un meilleur point d'équilibre entre perf et conso.

  17. #647
    Citation Envoyé par newbie06 Voir le message
    On peut dire la même chose de StrongARM/XScale Que trouves-tu impressionnnant ? Les performances ou le succès commercial ?

    Pour les performances, tout tient dans le but que l'on cherche à atteindre et de l'équilibre recherché. Il ne faut pas oublier qu'ARM tente de faire des coeurs qui peuvent correspondre à plusieurs marchés/clients, ce qui n'est pas forcément le cas de Qualcomm.
    En pratique, Scorpion était-il moins polyvalent que les Cortex A8/A9 ? Quant au StrongARM, DEC avait déjà conçu des CPU si je ne m'abuse (pas sous ARM, certes).

    Citation Envoyé par newbie06 Voir le message
    Sinon un coeur que je trouve plus impressionnant est le Swift d'Apple qui me paraît avoir un meilleur point d'équilibre entre perf et conso.
    Je n'ai pas vu de données directes sur la consommation, mais effectivement ça a l'air très bon. Cela dit, c'est le bébé de PA-Semi avec les moyens d'Apple derrière, donc on était en droit de s'attendre à quelque chose de bon.

    En fait je me pose ces questions par rapport au projet Denver de NVIDIA. Je cherche des précédents pour une entreprise n'ayant pas d'expérience dans le design CPU et se lançant dedans. Il me semble que ce cas est unique en ceci que NVIDIA n'est pas une très grosse entreprise et que le marché visé est particulièrement compétitif — plus qu'à l'époque où Qualcomm a sorti Scorpion, par exemple. En d'autres termes je vois mal comment NVIDIA pourrait réussir à produire un CPU compétitif, et à vrai dire je me demande un peu pourquoi ils essaient — en quoi un Cortex A57 serait-il insuffisant pour leurs besoins ?

    Je ne comprends pas comment ils justifient ce risque.
    Mon blog (absolument pas à jour) : Teχlog

  18. #648
    Il est probable que Qualcomm avait récupéré des designers à gauche et à droite voire une/des équipes complètes. C'est ce qu'a fait nVidia il me semble (mais c'était une équipe x86 dans mon souvenir) il y a quelques années déjà, et je peux t'assurer qu'ils ont quelques excellents ingénieurs dans le design CPU

    Par ailleurs, il ne faut pas nécessairement une grosse équipe pour faire un bon CPU (je ne parle pas de CPU hyper pointu comme Haswell hein). Une trentaine d'ingés avec plus ou moins d'expérience, quelques blocs existants à améliorer, quelques trucs tout neufs, des suites de validation standardisées qui viennent d'ailleurs et ça roule.

    Je n'ai pas de détails sur Denver en particulier, mais on peut imaginer un scénario qui justifierait la prise de risque. Ils veulent peut-être faire des boites CPU+GPU indépendantes pour les render farms ; ou bien déporter un maximum du driver sur les GPU. Il me semble que j'avais posté un lien sur une telle carte dans ce thread, qui a été déployée à ma connaissance dans un studio de postprod.

    De manière plus générale et sans sombrer dans le marketing, faire son propre CPU présente pas mal d'avantages : meilleure indépendance et CPU bien ciblé pour le marché visé. Et encore une fois tu serais surpris par ce qu'il est possible de faire avec des équipes assez petites

  19. #649
    Citation Envoyé par newbie06 Voir le message
    Il est probable que Qualcomm avait récupéré des designers à gauche et à droite voire une/des équipes complètes. C'est ce qu'a fait nVidia il me semble (mais c'était une équipe x86 dans mon souvenir) il y a quelques années déjà, et je peux t'assurer qu'ils ont quelques excellents ingénieurs dans le design CPU
    OK, logique.

    Citation Envoyé par newbie06 Voir le message
    Par ailleurs, il ne faut pas nécessairement une grosse équipe pour faire un bon CPU (je ne parle pas de CPU hyper pointu comme Haswell hein). Une trentaine d'ingés avec plus ou moins d'expérience, quelques blocs existants à améliorer, quelques trucs tout neufs, des suites de validation standardisées qui viennent d'ailleurs et ça roule.
    Justement, pour être compétitif en 2015 sur le marché low-power, ne faudrait-il pas quelque chose de vraiment pointu ? D'ailleurs je ne sais pas NVIDIA a effectivement des blocs existants.

    Citation Envoyé par newbie06 Voir le message
    Je n'ai pas de détails sur Denver en particulier, mais on peut imaginer un scénario qui justifierait la prise de risque. Ils veulent peut-être faire des boites CPU+GPU indépendantes pour les render farms ; ou bien déporter un maximum du driver sur les GPU. Il me semble que j'avais posté un lien sur une telle carte dans ce thread, qui a été déployée à ma connaissance dans un studio de postprod.

    De manière plus générale et sans sombrer dans le marketing, faire son propre CPU présente pas mal d'avantages : meilleure indépendance et CPU bien ciblé pour le marché visé. Et encore une fois tu serais surpris par ce qu'il est possible de faire avec des équipes assez petites
    En l'occurrence, pour le ciblage ça me semble douteux puisque Denver est censé intégrer à la fois Tegra 6 et une puce hétérogène pour le HPC. C'est pas super ciblé quand même. Mais bon, on verra bien.
    Mon blog (absolument pas à jour) : Teχlog

  20. #650
    Citation Envoyé par Alexko Voir le message
    En l'occurrence, pour le ciblage ça me semble douteux puisque Denver est censé intégrer à la fois Tegra 6 et une puce hétérogène pour le HPC. C'est pas super ciblé quand même. Mais bon, on verra bien.
    Si c'est Echelon la puce pour le HPC, ça compte pas. C'est un prototype de recherche financé par la DARPA, donc pas un projet critique d'un point de vue commercial. Après tout, il y en a même qui font des processeurs pour le HPC à base de Pentium.

  21. #651
    Citation Envoyé par Møgluglu Voir le message
    Si c'est Echelon la puce pour le HPC, ça compte pas. C'est un prototype de recherche financé par la DARPA, donc pas un projet critique d'un point de vue commercial.
    J'avais cru comprendre que c'était aussi censé être (ou mener à) un vrai produit, mais je me trompe peut-être.

    Citation Envoyé par Møgluglu Voir le message
    Après tout, il y en a même qui font des processeurs pour le HPC à base de Pentium.
    Bouh, le vilain ! :D
    Mon blog (absolument pas à jour) : Teχlog

  22. #652
    Citation Envoyé par Alexko Voir le message
    Bouh, le vilain ! :D
    Et pourquoi pas ? Certains ont bien fait des #1 du TOP500 avec des PPC440 qui ne sont pas non plus des chefs d’œuvres de modernisme...
    Mes propos n'engagent personne, même pas moi.

  23. #653

  24. #654
    Cortex-A12 annonce : http://semiaccurate.com/2013/06/02/a...alled-the-a12/

    Vraiment pas beaucoup d'infos pour le moment, il va falloir attendre. Ha si c'est 40% de mieux que Cortex-A9.

  25. #655
    On trouve des rigolos sur Twitter : https://twitter.com/FPiednoel/status/341810212937809921

    Faudra lui transmettre que le bestiau existe

  26. #656
    Ca sent quand même le plan de secours parce que le A15 consomme trop (et les rumeurs sur l'implémenttion Samsung foireuse aident pas) et que le A7 et le A9 tiennent plus la route face aux Snapdragon récents.

    Sur le coup, les rares implémentations A15 sont soit pas disponibles (Tegra 4) soit consomment trop comme le dual A15 Samsung et l'Octo du Galaxy S 4 qui est pas vraiment disponible (la majorité des S 4 sont en Snapdragon).

    Mais ce A12 semble pas mal dans les présentations.

  27. #657
    Citation Envoyé par dandu Voir le message
    Mais ce A12 semble pas mal dans les présentations.
    Il est vraiment pas mal du tout (je ne dis pas ca parce que ca vient de chez nous), mais je ne peux pas en dire plus, il va falloir attendre la presentation des benchmarks

  28. #658
    Cherchez l'erreur : http://www.abiresearch.com/press/int...dia-qualcomm-s
    http://browser.primatelabs.com/geekb...979365/1970335

    Des fois je me dis que j'aimerais bien qu'ARM alimente aussi des etudes biaisees, ou mieux encore que personne ne finance de telles etudes, mais la je reve du pays des Bisounours

  29. #659
    3 possibilites:
    -Geekbench est un benchmark stupide et n'est en rien correle avec la "vraie" perf des chips et ABI research a tout bon Clovertrail+ est fantastique
    -Abi research est a la solde d'Intel et leur suite de test est completement deconnectee de la realite (ou completement fake) et Clovertrail+ est une grosse merde
    -Les 2 sont du grand n'importe quoi et on n'a toujours pas d'info vraiment utile.

    Je vous laisse deviner ou je suis dans mon choix entre ces 3 options (je suis ouvert a d'autres options )
    fefe - Dillon Y'Bon

  30. #660
    Je fais le meme choix que toi

    Je note quand meme qu'ABI Research semble avoir choisi le seul benchmark qui fasse gagner CT+. Pas difficile de trouver le nom dudit benchmark, et de noter que c'est probablement la seule app Android utilisant icc

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •