Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 2 sur 3 PremièrePremière 123 DernièreDernière
Affichage des résultats 31 à 60 sur 88
  1. #31
    Charlie serait bien sympa de faire tourner, ça a l'air vraiment puissant ce qu'il a fume la!
    fefe - Dillon Y'Bon

  2. #32
    C'est ce qu'il me semblait aussi.

    L'hypothèse de HdV est déjà plus raisonnable : une connexion dual-channel (64 bits) standard.
    http://www.realworldtech.com/forums/...15339&roomid=2

    (Que ce soit suffisant ou non pour nourrir le GPU d'Ivy Bridge est une autre question... Et l'interaction avec le L3 partagé encore une autre.)

    Sur ce, bonne année.

  3. #33
    Citation Envoyé par Møgluglu Voir le message
    C'est ce qu'il me semblait aussi.

    L'hypothèse de HdV est déjà plus raisonnable : une connexion dual-channel (64 bits) standard.
    http://www.realworldtech.com/forums/...15339&roomid=2

    (Que ce soit suffisant ou non pour nourrir le GPU d'Ivy Bridge est une autre question... Et l'interaction avec le L3 partagé encore une autre.)

    Sur ce, bonne année.
    Sans doute, mais dans ce cas, quel serait l'intérêt ? De la LPDDR2 sur 64 bits ça ne fait pas lourd niveau bande-passante, ne vaudrait-il pas mieux ajouter un canal mémoire DDR3 général, ou simplement employer de la RAM plus rapide ? Niveau power comme niveau coûts (développement et fabrication) cette solution à base de LPDDR2 serait-elle vraiment plus intéressante ? Elle devrait permettre de meilleures latences, mais pour un GPU c'est secondaire. Donc à moins qu'il s'agisse en fait d'une sorte de L4 partagé entre CPU et GPU…

    De plus, si je ne dis pas de bêtises, pour Sandy Bridge l'espace mémoire est unifié pour les cores CPU et le GPU, donc avoir une mémoire dédiée pour le GPU serait plutôt un pas en arrière pour le GPGPU, non ?
    Mon blog (absolument pas à jour) : Teχlog

  4. #34
    Youpi le retour des barrettes de cache... S7 is back.
    Mes propos n'engagent personne, même pas moi.

  5. #35
    Citation Envoyé par Alexko Voir le message
    Sans doute, mais dans ce cas, quel serait l'intérêt ? De la LPDDR2 sur 64 bits ça ne fait pas lourd niveau bande-passante, ne vaudrait-il pas mieux ajouter un canal mémoire DDR3 général, ou simplement employer de la RAM plus rapide ? Niveau power comme niveau coûts (développement et fabrication) cette solution à base de LPDDR2 serait-elle vraiment plus intéressante ? Elle devrait permettre de meilleures latences, mais pour un GPU c'est secondaire. Donc à moins qu'il s'agisse en fait d'une sorte de L4 partagé entre CPU et GPU…
    Niveau coût, je ne sais pas trop, mais niveau conso une pile de LPDDR2 dans le package doit être nettement plus efficace qu'une barette de DDR3 externe. En latence ça ne devrait pas changer grand-chose du moment que le contrôleur mémoire est intégré : ce n'est pas le délai de propagation du signal qui prend du temps.

    De plus, si je ne dis pas de bêtises, pour Sandy Bridge l'espace mémoire est unifié pour les cores CPU et le GPU, donc avoir une mémoire dédiée pour le GPU serait plutôt un pas en arrière pour le GPGPU, non ?
    Ça c'est de la propagande pro-Larrabee.
    Je ne vois pas qu'est-ce que ça apporte pour le GPGPU de devoir partager quelques canaux de mémoire avec un CPU multicore déjà capable de les saturer à lui tout seul.

    Faut aussi distinguer espace mémoire unifié au niveau logique et unification au niveau physique.
    Les GPU actuels peuvent déjà taper directement dans la mémoire principale.
    En théorie, on devrait même pouvoir unifier les espaces mémoires virtuels CPU et GPU avec un GPU comme Fermi. (Sous reserve de problèmes idiots comme le fait que x86 considère les pointeurs comme des nombres signés alors que Fermi crashe dès qu'il voit des bits de poids forts à 1 dans une adresse 64 bits...)

    Au niveau physique, il est toujours intéressant que le CPU et le GPU aient chacun leur mémoire dédiée (façon NUMA). Après, si on arrive à réduire la latence des comms entre les deux (en partageant par exemple le cache L3), c'est pas plus mal mais ce n'est pas si critique. Un GPU est optimisé pour le débit après tout.

  6. #36
    Citation Envoyé par Møgluglu Voir le message
    Niveau coût, je ne sais pas trop, mais niveau conso une pile de LPDDR2 dans le package doit être nettement plus efficace qu'une barette de DDR3 externe.
    J'imagine, mais bon, de la LPDDR2-1066 sur 64 bits ça ne fait jamais que ~8,3 Go/s, environ. Ivy Bridge aura probablement 2 canaux DDR3-1333, soit ~20,8 Go/s. Le seul fait de passer à de la DDR3-1600 permettrait d'atteindre 25 Go/s, mais pour tout le système. Donc certes c'est seulement +4 Go/s au lieu de +8, mais le CPU en bénéficie aussi. Avec de la DDR3-1866 on atteint 29 Go. Si on part sur une base de DDR3-1600 pour Ivy Bridge et qu'on envisage un passage à 1866, c'est vrai que c'est un peu moins séduisant. Reste toujours la DDR3-2133, le standard existe en tout cas…

    Niveau power je ne sais pas trop, mais niveau coûts de développement et vraisemblablement de fabrication, ça devrait être plus intéressant, non ?

    Citation Envoyé par Møgluglu Voir le message
    En latence ça ne devrait pas changer grand-chose du moment que le contrôleur mémoire est intégré : ce n'est pas le délai de propagation du signal qui prend du temps.
    Ah OK, je pensais que ça avait une influence significative.

    Citation Envoyé par Møgluglu Voir le message
    Ça c'est de la propagande pro-Larrabee.
    Comme tu y vas ! :D

    Citation Envoyé par Møgluglu Voir le message
    Je ne vois pas qu'est-ce que ça apporte pour le GPGPU de devoir partager quelques canaux de mémoire avec un CPU multicore déjà capable de les saturer à lui tout seul.

    Faut aussi distinguer espace mémoire unifié au niveau logique et unification au niveau physique.
    Les GPU actuels peuvent déjà taper directement dans la mémoire principale.
    En théorie, on devrait même pouvoir unifier les espaces mémoires virtuels CPU et GPU avec un GPU comme Fermi. (Sous reserve de problèmes idiots comme le fait que x86 considère les pointeurs comme des nombres signés alors que Fermi crashe dès qu'il voit des bits de poids forts à 1 dans une adresse 64 bits...)

    Au niveau physique, il est toujours intéressant que le CPU et le GPU aient chacun leur mémoire dédiée (façon NUMA). Après, si on arrive à réduire la latence des comms entre les deux (en partageant par exemple le cache L3), c'est pas plus mal mais ce n'est pas si critique. Un GPU est optimisé pour le débit après tout.
    Ce ne serait quand même pas plus pratique si CPU et GPU pouvaient accéder de la même façon, en lecture comme en écriture, à une mémoire centralisée, physiquement comme logiquement ? (Physiquement pour ne pas avoir à se demander où mettre tel ou tel ensemble de données en fonction de la latence et du débit de la mémoire physique.) J'ai cru comprendre que c'était le cas pour Sandy-Bridge et ça me paraît plutôt intéressant, en particulier sous OpenCL.

    Après quand je dis ça, c'est en gardant à l'esprit qu'on parle ici d'un petit GPU embarqué (grosso-modo un demi-HD 5570, niveau performances graphiques). Pour du GF100/Cayman, clairement les besoins en débit imposent d'autres compromis.
    Mon blog (absolument pas à jour) : Teχlog

  7. #37
    Ca y est la plupart des review sont online. Apres les avoir survolees:
    SNB Desktop: la perf du plus haut de gamme existant avant pour 1/4 du prix et plus besoin d'acheter de carte graphique si une carte a 40$ etait suffisante (donc en gros insuffisant pour quiconque joue aregulierement a des jeux 3D).
    SNB Mobile: la perf d'un desktop dernier cri dans un portable.

    Quelques details interressants:
    -Les drivers graphiques semblent decents a la sortie, le haut de gamme graphique de Sandy Bridge semble etre une vraie alternative a une carte graphique d'entree de gamme (ca va faire mal a Nvidia dont une partie non negligeable des revenus provenait justement de ce segment)
    -Le playback et le transcodage video sont sans competition a l'heure actuelle des lors que l'on utilise l'acceleration hardware, en dehors du calcu scientifique il reste quelles applis pour justifier le GPGPU sur une carte graphique discrete ?
    -En fait c'est quoi l'interet du desktop a part pour jouer ? Le turbo n'apporte quasiment rien sur desktop, mais amene les mobiles quasiment au niveau des meilleurs desktop et la tendance ne peut plus s'inverser. L'explication est assez simple, les dernieres bins de frequence coutent tellement de power que la difference entre un chip a 45W et a 65W est assez minime au final (cv^2f avec f fonction lineaire de V, ca donne une courbe de power en f^3)

    Vos opinions ?
    Dernière modification par fefe ; 03/01/2011 à 20h48.
    fefe - Dillon Y'Bon

  8. #38
    La version desktop du 2500T est quand même clocké 43% plus haut, hors TB2. Et dans les faits, quel sera l'influence du TB2 dans un portable (en terme de perf et d'autonomie) ? D'autre part 45W ça me parait beaucoup pour du Mobile, on ne va le retrouver que dans du Desktop Replacement, non ? Et à quel prix ?

    C'est un peu ça le problème des PC portables, lorsqu'on veut vraiment des perfs desktop (hors GPU), les derniers bins de performances se payent à prix d'or et on doit sacrifier l'autonomie. Bref, je préfère payer la perf à coup de W qu'à coup d'€. Et avec les € économisés, on peut s'acheter un netbook et partir en WE au ski

    ----------------------

    Dans l'article d'HFR :
    Au niveau de l’implémentation physique, Intel profite de sa maîtrise du procédé de fabrication pour câbler l’anneau par-dessus le cache LLC. Ce positionnement qui demande quelques petites optimisations au niveau des interconnexions, permet d’éviter d’augmenter la taille de la puce.
    Vous avez un peu plus d'explication sur ce genre d'implémentation ? C'est nouveau sur ce genre de CPU (x86 grand public) ?
    Dernière modification par Foudge ; 04/01/2011 à 19h10.

  9. #39
    Sauf que ca coute le meme prix a produire un chip mobile et un chip desktop (en dehors de qq $ de plus pour le package). Si tu arretes d'acheter des desktop d'ici pas tres longtemps les mobiles seront aux prix des desktop...

    45W c'est la capacite de refroidissement de 90% des laptops actuels a partir de 13". La plupart du temps le CPU n'en occupe que 35 et le reste est consomme par le GPU et autres. Quand tu integres tout sur le meme chip, l'ensemble du budget devient accessible au CPU.
    Les plus gros laptop peuvent refroidir entre 55 (15") et 80Watts (17"). Bien sur cela varie en fonction des design de heatpipe.
    Un macbook air peut refroidir entre 25W et 30W. La plupart des boitiers 11" qui emploient des CULV peuvent refroidir a peu pres 30 Watts (bien entendu moins c'est cher, moins tu as de budget power).

    Quand tu veux de la perf et que tu es pret a utiliser un desktop a la place, tu n'es pas sur batterie donc l'autonomie compte peu...

    Je suis d'accord avec l'argument du prix (je reviens du ski ), mais c'est un argument artificiel aujourd'hui. (tu payes 100+$ de premium pour quelque chose qui a coute 10$ de plus). Malheureusement c'est pas en continuant a acheter des desktop que ca changera (acheter des laptop premier prix a un impact par contre...).

    Ca n'a rien de nouveau de router des fils par dessus de la SRAM. Je dirais que c'est a peu pres aussi vieux que les chips qui ont plus de 5 layers (en gros plus de 20 ans).
    fefe - Dillon Y'Bon

  10. #40
    Citation Envoyé par Foudge Voir le message
    La version desktop du 2500T est quand même clocké 43% plus haut, hors TB2. Et dans les faits, quel sera l'influence du TB2 dans un portable (en terme de perf et d'autonomie) ? D'autre part 45W ça me parait beaucoup pour du Mobile, on ne va le retrouver que dans du Desktop Replacement, non ? Et à quel prix ?

    C'est un peu ça le problème des PC portables, lorsqu'on veut vraiment des perfs desktop (hors GPU), les derniers bins de performances se payent à prix d'or et on doit sacrifier l'autonomie. Bref, je préfère payer la perf à coup de W qu'à coup d'€. Et avec les € économisés, on peut d'acheter un netbook et partir en WE au ski
    Sans compter que les desktops montent fréquemment à 95 W, voire plus. En fait l'écart se creuse surtout sur deux points :
    • La carte graphique, qui scale mieux avec le power puisque sur desktop il s'agit souvent de plus gros GPU;
    • Le confort, puisque pour avoir le même sur portable, à mon humble avis il faut ajouter un vrai clavier, une vraie souris, un écran de minimum 22 pouces, des enceintes, un disque dur externe (avoir toutes ses données, ça va avec le confort), etc. Du coup on obtient un système très cher et pas franchement portable.



    Citation Envoyé par Foudge Voir le message
    Dans l'article d'HFR :


    Vous avez un peu plus d'explication sur ce genre d'implémentation ? C'est nouveau sur ce genre de CPU (x86 grand public) ?
    Si je ne dis pas de bêtises, les ring stops sont toujours sur la couche de silicium, et je crois qu'il s'agit des structures entourées ici (1 stop par core + 1 pour le GPU) :



    Le ring bus lui-même, c'est essentiellement des fils, donc Intel a mis ça dans une couche métallique superposée. Du coup, ça n'ajoute presque pas de surface, à part les stops.

    Je ne sais pas si c'est nouveau, mais le ring bus de 512 bits du R600 d'ATI, par exemple, était réputé très encombrant, à tel point qu'il a été tronqué à 256 bits dans le RV670 avant d'être remplacé complètement par un crossbar dans le RV770, donc j'imagine que ce n'est pas trivial, en tout cas.
    Mon blog (absolument pas à jour) : Teχlog

  11. #41
    Citation Envoyé par Alexko Voir le message
    Sans compter que les desktops montent fréquemment à 95 W, voire plus. En fait l'écart se creuse surtout sur deux points :
    • La carte graphique, qui scale mieux avec le power puisque sur desktop il s'agit souvent de plus gros GPU;
    • Le confort, puisque pour avoir le même sur portable, à mon humble avis il faut ajouter un vrai clavier, une vraie souris, un écran de minimum 22 pouces, des enceintes, un disque dur externe (avoir toutes ses données, ça va avec le confort), etc. Du coup on obtient un système très cher et pas franchement portable.
    Pourquoi montent ils a 95W ? Pour avoir 10-15% de frequence en plus, soit 5 a 12% de perf (soutenue) en plus. En burst de quelques secondes la capacitance thermique d'un laptop de 45W permet de depenser 70 a 80W, donc pour des questions de reactivite, l'ecart avec un desktop est reduit a quelques %.

    Pour les questions de confort, j'ai deja un clavier et une souris bluetooth qui sont partages par desktop et laptop, et un NAS pour les donnees backup. Au final ton systeme confortable, tu branches ton laptop sur l'ecran en arrivant a la maison ou au bureau (le jour ou widi fonctionne correctement ce ne sera plus necessaire).

    Donc je ne vois toujours pas d'argument pour le desktop hormis supporter mon GPU de 200-300W. J'ai toujours ete un gros consommateur de puissance CPU, et la seule chose qu'un laptop fait visiblement moins bien qu'un desktop milieu de gamme ce sont les jeux.

    Oui c'est plus cher aujourd'hui d'avoir un laptop + ecran/clavier/souris/nas a la maison que desktop + ecran/clavier/souris/nas. Mais si on regarde le prix de production des composants, il y a un ecran de laptop en plus a produire, le packaging un peu plus complique du laptop, le clavier et le touchpad du laptop. La somme des couts de ces composants est inferieure au cout d'un netbook.

    Cote confort d'utilisation, ne pas avoir a se faire ch... a administrer plusieurs machines, synchroniser les donnees entre elles etc... tout est a l'avantage du laptop.

    Bien entendu il y aura toujours des choses qu'un desktop haut de gamme pourra faire mieux qu'un laptop, sa boite peut refroidir 450W au lieu de 45W, mais quand pour l'essentiel de ce que tu fais la difference est moins de 10% (donc pas vraiment observable a l'oeil nu) on peut se demander si le concept de desktop reste vraiment necessaire (en fait ca me rappelle les "mini" d'il y a 20 ans... et je leur donne la meme esperance de survie au long terme).

    Je ne parlerai pas de l'utilite d'un PC pour jouer contre une console, je ne joue quasiment que sur mon PC (mais ai l'impression d'etre un dinosaure).

    Si je ne dis pas de bêtises, les ring stops sont toujours sur la couche de silicium, et je crois qu'il s'agit des structures entourées ici (1 stop par core + 1 pour le GPU) :

    http://tof.canardpc.com/preview2/886...e5b427b864.jpg

    Le ring bus lui-même, c'est essentiellement des fils, donc Intel a mis ça dans une couche métallique superposée. Du coup, ça n'ajoute presque pas de surface, à part les stops.

    Je ne sais pas si c'est nouveau, mais le ring bus de 512 bits du R600 d'ATI, par exemple, était réputé très encombrant, à tel point qu'il a été tronqué à 256 bits dans le RV670 avant d'être remplacé complètement par un crossbar dans le RV770, donc j'imagine que ce n'est pas trivial, en tout cas.
    Les GPU ont tres peu de memoire par rapport a un CPU. Tu ne peux pas router facilement des fils au dessus de structures irregulieres comme des unites de calcul. Les CPUs ayant beaucoup de cache, il n'y a que l'embaras du choix pour savoir au dessus de quelles cells SRAM router tes fils. Dans un GPU tu consommes tout l'espace de ton ring vu le peu de choses que tu peux overlap.
    Quant-a consommer beaucoup d'espace pour un reseau d'interconnection, autant avoir un crossbar: certes c'est complexe et energivore, mais au moins tu peux le design pour avoir exactement la bande passante que tu veux entre chaque point de connexion donne. Contrairement a un ring ou la bande passante est uniforme (et dependante de ton algo de routage).
    fefe - Dillon Y'Bon

  12. #42
    Petit test du 2400S (TDP de 65W au lieu de 95W) :
    http://www.pcinpact.com/actu/news/61...e-pci-labs.htm

    Par contre, leur "Indice rendement" porte mal son nom je trouve : puisque la tâche effectuée est la même, celui qui aura le meilleur rendement sera celui qui aura consommé le moins d'énergie.

    edit: à noter qu'il s'agit de la conso à la prise (et donc du PC complet) et non du CPU, ce qui désavantage les CPU moins performant*

    *nécessite peut-être une explication de ma part

  13. #43
    Citation Envoyé par Foudge Voir le message
    *nécessite peut-être une explication de ma part[/I]
    Plus le power qui ne vient pas du processeur est eleve plus ca defavorise les CPUs peu performants de faire les mesures a la prise.

    Les desktops sont assez inefficaces de ce point de vue (personne n'essaye de reduire la conso de leur composants donc tout ce qui traine sur la carte mere a tendance a s'accumuler) et montreront quasiment toujours le cpu le plus rapide comme le plus efficace. Sur un laptop ou les composants annexes consomment peu, le CPU le plus efficace arrivera generalement en haut du tableau en terme d'efficacite a la prise (ce seront generalement les ULV).
    fefe - Dillon Y'Bon

  14. #44
    fefe: je te suis totalement. Pourtant, j'ai un desktop. Enfin, un iMac quoi, donc un truc bâtard... la principale raison étant que j'ai pas forcément envie de me trimballer mon laptop pro tous les soirs à la maison (je suis en vélo), que je ne peux pas jouer dessus et que je cloisonne un peu mes données perso et pro.
    Mais l'unique raison pour avoir un iMac est le 27", je pense sincèrement que son remplaçant sera un laptop+écran.

    Clairement, on atteint des perfs CPU totalement démentielles aujourd'hui, et pour la majorité des gens normaux, totalement inutiles. Tant mieux pour ceux qui en ont besoin (j'en suis, de temps en temps), mais je vois peu d'avenir au desktop. La workstation encore un peu, mais c'est tout. En plus, avec les normes HD/FullHD, j'ai l'impression qu'on a atteint un seuil en termes de résolution d'écran, ce qui simplifiera (un peu) la tâche côté GPU.

  15. #45
    Citation Envoyé par fefe Voir le message
    Pourquoi montent ils a 95W ? Pour avoir 10-15% de frequence en plus, soit 5 a 12% de perf (soutenue) en plus. En burst de quelques secondes la capacitance thermique d'un laptop de 45W permet de depenser 70 a 80W, donc pour des questions de reactivite, l'ecart avec un desktop est reduit a quelques %.
    Ça permet aussi d'avoir des cores en plus, sur certains modèles, même si je t'accorde volontiers que ce n'est pas forcément utile à tout le monde.

    Citation Envoyé par fefe Voir le message
    Pour les questions de confort, j'ai deja un clavier et une souris bluetooth qui sont partages par desktop et laptop, et un NAS pour les donnees backup. Au final ton systeme confortable, tu branches ton laptop sur l'ecran en arrivant a la maison ou au bureau (le jour ou widi fonctionne correctement ce ne sera plus necessaire).

    Donc je ne vois toujours pas d'argument pour le desktop hormis supporter mon GPU de 200-300W. J'ai toujours ete un gros consommateur de puissance CPU, et la seule chose qu'un laptop fait visiblement moins bien qu'un desktop milieu de gamme ce sont les jeux.

    Oui c'est plus cher aujourd'hui d'avoir un laptop + ecran/clavier/souris/nas a la maison que desktop + ecran/clavier/souris/nas. Mais si on regarde le prix de production des composants, il y a un ecran de laptop en plus a produire, le packaging un peu plus complique du laptop, le clavier et le touchpad du laptop. La somme des couts de ces composants est inferieure au cout d'un netbook.

    Cote confort d'utilisation, ne pas avoir a se faire ch... a administrer plusieurs machines, synchroniser les donnees entre elles etc... tout est a l'avantage du laptop.
    Avoir un NAS à la maison, c'est quand même un truc de geek… Pour M. Tout-le-Monde, qui pense que Nas est un rappeur, ce n'est pas vraiment une option. Du coup un desktop avec 1 ou 2 To de stockage, ça reste attractif, de même qu'une carte graphique consommant ne serait-ce que 100~120 W.

    Cela dit, les laptops se rapprochent de plus en plus des desktops, je suis tout à fait d'accord là-dessus, et pour l'instant ce qui justifie d'acheter un desktop pour beaucoup de gens — et beaucoup d'entreprises — c'est l'écart de prix, qui est plus conséquence des marges que du coût de fabrication, en effet.

    Citation Envoyé par fefe Voir le message
    Bien entendu il y aura toujours des choses qu'un desktop haut de gamme pourra faire mieux qu'un laptop, sa boite peut refroidir 450W au lieu de 45W, mais quand pour l'essentiel de ce que tu fais la difference est moins de 10% (donc pas vraiment observable a l'oeil nu) on peut se demander si le concept de desktop reste vraiment necessaire (en fait ca me rappelle les "mini" d'il y a 20 ans... et je leur donne la meme esperance de survie au long terme).

    Je ne parlerai pas de l'utilite d'un PC pour jouer contre une console, je ne joue quasiment que sur mon PC (mais ai l'impression d'etre un dinosaure).
    Je suis un dinosaure aussi alors. Les consoles c'est de la m*rde !

    Citation Envoyé par fefe Voir le message
    Les GPU ont tres peu de memoire par rapport a un CPU. Tu ne peux pas router facilement des fils au dessus de structures irregulieres comme des unites de calcul. Les CPUs ayant beaucoup de cache, il n'y a que l'embaras du choix pour savoir au dessus de quelles cells SRAM router tes fils. Dans un GPU tu consommes tout l'espace de ton ring vu le peu de choses que tu peux overlap.
    Quant-a consommer beaucoup d'espace pour un reseau d'interconnection, autant avoir un crossbar: certes c'est complexe et energivore, mais au moins tu peux le design pour avoir exactement la bande passante que tu veux entre chaque point de connexion donne. Contrairement a un ring ou la bande passante est uniforme (et dependante de ton algo de routage).
    OK ! Donc dans la mesure où cette différence de quantité de mémoire embarquée a tendance à diminuer, on peut envisager le retour du ring bus sur les futurs GPU AMD, ou leur apparition sur les GPU NVIDIA ? J'imagine que la fragmentation de la mémoire (physique, le fait qu'elle soit répartie en plein de morceaux différents sur le die) rend les choses nettement plus difficiles, mais bon…

    Citation Envoyé par D. Kanter
    Each of the 24 SIMDs has a 256KB register file, 32KB LDS and 8KB L1 texture cache. Shared across the chip are the 512KB L2 texture cache, 64KB GDS, 32KB write combining cache and 128KB for the read/write (or color) cache. Altogether that is a total of 7840KB of data storage arrays – and this isn’t even counting the arrays used for instruction caching.
    http://www.realworldtech.com/page.cf...1410213827&p=9
    Mon blog (absolument pas à jour) : Teχlog

  16. #46
    Les registres et les caches ne sont pas fait dans les memes cells, et ont des contraintes beaucoup plus importantes. Un banc de registre a n ports d'acces avec une latence d'acces pipelinee tres courte est tres sensible aux interferences. Faire passer un gros fil (il est gros parce qu'il va loin) au dessus c'est risque, tu ne veux pas le moindre bruit a proximite.
    Un cache comme le L2 ou le L3 dans Sandy Bridge n'a qu'un port d'acces par banc, un temps d'acces eleve et est generalement pas trop "pousse" (1 cycle de plus ou de moins dans le temps d'acces ne changera pas grand chose). Donc au final tu resistes mieux au bruit de l'autoroute qui passe au dessus.
    Les memoires des GPUs ne sont pas monolithiques, ce sont des petits caches ou bancs de registres repartis a proximite de chaque unite d'execution. Pour faire passer un reseau d'interconnection tres large, il faut beaucoup d'espace contigu. A moins qu'ils introduisent des niveaux supplementaires de cache unifies je ne les vois pas employer ce genre de techniques facilement.
    Apres l'utilisation d'un anneau, c'est plus une question de simplicite qu'autre chose. C'est un type de reseau sur lequel il est facile de router efficacement sans deadlocks. C'est loin d'etre la meilleure solution pour un reseau d'interconnection a tres haute bande passante.
    Je pense que les GPUs vont integrer de plus gros caches, a la fois pour leur permettre d'etre plus efficaces sur du code plus generique, et aussi parce qu'il y a de nombreuses structures qui peuvent etre cachees dans les algo 3D actuels, et donc permettre a la perf de scaler sans avoir a augmenter la bande passante memoire. Jusqu'a present il restait plus simple d'augmenter la bande passante memoire, mais a terme il vont etre forces de trouver la bande passante autrement qu'avec des IO externes.
    D'un process a l'autre en moyenne (historique), les IOs scalent d'un facteur ~0.9 alors que la surface de la logique scale d'~0.56 (la capacitance et le leakage scalent d'environ 0.75).
    La taille maximale du reticule d'une machine de prod n'a pas change depuis un bon moment, et au final la taille maximale de chip que tu peux produire est une constante, donc sa peripherie est constante.
    Les IOs des GPUs haut de gamme ne sont pas loin d'utiliser la peripherie complete du chip donc il devient difficile d'augmenter la bande passante au meme rythme que l'on augmente les unites de calcul (qui sont proportionnelles a la surface de la logique). On peut toujours mettre des IO sur des bandes de plus en plus larges, mais ca devient difficile et couteux en layers.
    Vu que le debit en FLOPS continue d'etre sur la loi de Moore et les IO a un rythme beaucoup plus faible et qu'il n y a plus vraiment de place pour en rajouter, ils vont etre forces de trouver d'autres solutions. Des caches bien faits peuvent addresser ce genre de problemes.

    Tout ca pour dire que je ne serais pas surpris de voir le meme type de techniques d'interconnexions apparaitre sur des GPUs.
    fefe - Dillon Y'Bon

  17. #47
    Merci, ça c'est de la réponse ! :D
    Mon blog (absolument pas à jour) : Teχlog

  18. #48
    Citation Envoyé par fefe Voir le message
    Les registres et les caches ne sont pas fait dans les memes cells, et ont des contraintes beaucoup plus importantes. Un banc de registre a n ports d'acces avec une latence d'acces pipelinee tres courte est tres sensible aux interferences.
    C'est vrai même pour un GPU, ça?

    Pour tous les GPU que je connais, n=1 (1W+1R, probablement assuré par multiplexage temporel).
    Et quand je mesure les surfaces des RF GPU sur les photos de die, j'obtiens des densités comparables avec celles de caches CPU.

    La brique de base est le banc SRAM 128x256-bit. Comme dans les caches, il me semble. Le reste est du routage pour émuler un nombre de ports supérieur. Que les accès soient pipelinés ou non ne devrait pas avoir d'impact significatif sur la mémoire elle-même, du moment que l'accès à un banc se fait en moins d'un cycle.

    Pour l'argument de la non-contiguïté et sur le fait que les GPU vont avoir plus de caches (ou buffers, scratchpads, mémoires locales ou partagées), je suis d'accord.

  19. #49
    Par pipelines j'entendais pipeline avec un debit de 1/cycle (oui le fait que ca soit pipeline ne change rien, mais le 1/cycle change pas mal de chose pour les ecritures apres lecture).

    Je ne sais pas si ils utilisent des cells differentes, mais si ils le faisaient ils en tireraient des benefices (les cells employees pour les derniers niveaux de caches ont enormement de proprietes indesirables par exemple sur des bancs de registres accedes tous les cycles) et c'est pourquoi je partais du principe qu'ils le faisaient. Apres le fait que les designs de GPU ne tournent somme toute pas tres vite et a des voltages plutot eleves, ce n'est pas indispensable pour eux de le faire, ils peuvent se permettre des cells sub-optimales pour leur emploi (mais rien que d'ecrire ca j'en doute).

    Quand tu parles de comparer les densites de cache tu me surprends, car rien qu'entre TSMC, GF et Intel tu as de tres grosses variations de densite sur les cell de SRAM 6T bas leakage de base (la difference a dans certain cas que j'ai observe atteint le meme ordre de grandeur qu'un process shrink de difference). Donc a moins d'avoir fait la comparaison avec un CPU fait chez TSMC dans le meme process la conclusion me semble plutot douteuse (ou le resultat d'une coincidence).
    fefe - Dillon Y'Bon

  20. #50
    Hors de question de remplacer mon desktop par un laptop : j'ai besoin de grosses resolutions pour bosser (le full HD est tres largement insuffisant), et comme je joue aussi sur mon PC, il me faut un gros GPU. Je fais quoi avec mon laptop lorsque je passe d'un 24" a un 30" ? Je le jette pour en acheter un plus gros juste parce que je ne peux pas changer le GPU ou qu'il n'existe pas de GPU assez puissant ?

    Sinon Sandy Bridge me semble vraiment tres reussi

  21. #51
    C'est pour ça que je faisais le distinguo avec les workstations, qui sont un besoin différent et spécifique.

  22. #52
    Certes, mais les gamers n'ont-ils pas aussi besoin parfois de changer d'ecran et donc de carte graphique ? Bien sur tout cela ne represente probablement qu'une petite proportion de la population, mais ca ne veut pas dire qu'on n'a pas le droit de raler de maniere pre-emptive

  23. #53
    Citation Envoyé par newbie06 Voir le message
    Certes, mais les gamers n'ont-ils pas aussi besoin parfois de changer d'ecran et donc de carte graphique ? Bien sur tout cela ne represente probablement qu'une petite proportion de la population, mais ca ne veut pas dire qu'on n'a pas le droit de raler de maniere pre-emptive
    Le gamer informé aura probablement tendance à changer de carte graphique environ deux fois plus souvent que le reste, en effet.
    Mon blog (absolument pas à jour) : Teχlog

  24. #54
    Oui, les gamers peuvent garder leur desktop, mon argument etait que tous les autres (une tres grande majorite) peut commencer a imaginer l'abandonner.

    Pour ce qui est des tres hautes resolutions, je drive un 30" sans probleme avec un laptop... Autour de moi il doit rester moins de 5% des gens qui n'emploient pas leur laptop comme workstation: et pourtant ils utilisent des outils de CAD, programment etc (et pas juste word/xl/ppt/outlook) ...

    Souvent (encore une fois dans mon entourage) les besoins imperieux en desktop sont psychologiques: certains refusent de travailler sur un laptop sous pretexte que leur desktop est plus rapide et tu decouvres un P4 willamette avec un disque 5400 rpm qui se fait effectivement atomiser par le premier laptop venu ( par contre je comprends ceux qui ne veulent pas de laptop pour ne pas le ramener chez eux et bosser a la maison ).

    Bien entendu l'argument prix restera valide pour les desktop tant qu'il y aura peu de competition sur les laptop performants mais on peut esperer que ca change en 2011.

    ---------- Post ajouté à 19h01 ----------

    Citation Envoyé par Alexko Voir le message
    Le gamer informé aura probablement tendance à changer de carte graphique environ deux fois plus souvent que le reste, en effet.
    Honnetement, j'ai change ma 8800 GTS512 qui a crame par une GTX460 et je n'ai pas vu de difference sur un 24". Je suis sur qu'en cherchant un peu j'en trouverais, mais changer sa carte graphique regulierement n'est plus vraiment un imperatif pour l'essentiel des joueurs non plus (le CPU encore moins d'ailleurs).
    fefe - Dillon Y'Bon

  25. #55
    J'utilise un laptop en principale depuis plus de 5 ans, et pour peu qu'on mette de la RAM et un SSD (certes ça monte le prix), les perfs sont très bonnes

    Et a terme, les constructeurs voient que deux choses : des portables et des "all in one", qui sont des portables dans 90 % des cas.

    Globalement, hors joueurs et besoin très spécifiques, le desktop se justifie plus. Et quand on voit l'équipement moyen des joueurs sur Steam via leurs stats, l'argument est même pas tellement valide, vu que la majorité des GPU sont au niveau d'un bon GPU de portable, les gros trucs impossibles en notebook c'est pas 5 % des joueurs.

    Il reste juste l'argument prix, en fait, et le fait qu'un portable rapide/puissant et parfois plus vraiment portable.

    Perso, mon MacBook Pro 17 pouces est silencieux, raisonablement compact, suffisant en 3D (9600M GT) et a un bon écran (1920x1200). Et le Core 2 Duo me gene pas outre mesure, même si les SSD aident

  26. #56
    Déjà, rien qu'en extrapolant sur la tendance des quelques dernières années en parts de marché desktop vs laptop, ça s'annonce mal pour le desktop...

    Je pense que la vraie question c'est à quoi vont ressembler les laptop survivants. Comme ceux d'aujourd'hui, ou les tablettes vont-elles finalement se décider à inonder le marché?
    Après tout, l'usage principal pour un clavier en mode nomade est d'écrire des mails, pour 95% des gens. Un téléphone avec un écran et un clavier fait ça tout aussi bien...

    Citation Envoyé par fefe Voir le message
    Quand tu parles de comparer les densites de cache tu me surprends, car rien qu'entre TSMC, GF et Intel tu as de tres grosses variations de densite sur les cell de SRAM 6T bas leakage de base (la difference a dans certain cas que j'ai observe atteint le meme ordre de grandeur qu'un process shrink de difference). Donc a moins d'avoir fait la comparaison avec un CPU fait chez TSMC dans le meme process la conclusion me semble plutot douteuse (ou le resultat d'une coincidence).
    Je comparais le ratio entre la surface minimale théorique des cellules 6T données par TSMC et la surface mesurée (avec les décodeurs, sense amps, etc.). De mémoire j'étais autour de 50-60%. Je veux bien croire que c'est foireux aussi comme méthode.

    En tout cas avec plus de 6Mo de registres sur la puce, la densité et le leakage doivent être des considérations plutôt importantes...
    Ce que je veux dire, c'est que le compromis doit être bien plus proche de celui d'un cache L1 que d'un RF d'Itanium.

    À propos de cache, on sait comment est réparti le L3 de Sandy Bridge entre les 4 segments? Par voie, par set?
    Dans ces cas-là, on cherche plutôt à entrelacer et randomiser les accès pour répartir la charge et éviter les conflits, ou bien au contraire à exploiter la localité pour gagner en conso (en favorisant la portion de cache "locale" et en permettant de mettre en veille des plus gros bouts de cache que si les accès étaient dispersés)?

  27. #57
    La loi de Moore invalidée non pas par la technique, mais par désintérêt général?

  28. #58
    Citation Envoyé par Møgluglu Voir le message
    En tout cas avec plus de 6Mo de registres sur la puce, la densité et le leakage doivent être des considérations plutôt importantes...
    Ce que je veux dire, c'est que le compromis doit être bien plus proche de celui d'un cache L1 que d'un RF d'Itanium.
    Justement, aujourd'hui on fait les L1 avec les memes types de cells que les registres dans les CPUs parce que ca permet de reduire la consommation totale (l'effet est indirect).

    À propos de cache, on sait comment est réparti le L3 de Sandy Bridge entre les 4 segments? Par voie, par set?
    Dans ces cas-là, on cherche plutôt à entrelacer et randomiser les accès pour répartir la charge et éviter les conflits, ou bien au contraire à exploiter la localité pour gagner en conso (en favorisant la portion de cache "locale" et en permettant de mettre en veille des plus gros bouts de cache que si les accès étaient dispersés)?
    Tu listes 2 options, prend juste la deuxieme sur une appli multithreadee et definis le concept de partition de cache locale sachant qui plus est que c'est l'OS qui choisit le processeur physique sur lequel allouer un thread et pas le hardware. Prend ensuite le concept de mise en veille, pour se faire il te faut avoir la possibilite d'eteindre un bloc de cache et pas les autres. Sachant que ton anneau qui connecte tes cores, ton graphique et tes blocs de cache est route sous le cache et que tu ne peux pas alimenter des layers superposes sur des sources de courant different, tu arriveras vite a la conclusion que tu ne peux eteindre un bloc de cache associe a un core que si tous les cores sont eteints (eteint un bout d'un anneau et imagine les consequences sur le routage).
    Bien entendu si il y a des zones de cache ou l'anneau ne passe pas tu pourrais les eteindre independament. Pour cela ces blocs devront etre isoles par une power gate du reste du cache. Ce genre de choses est assez facile a voir sur une photo de die vu que le cache est une structure tres reguliere.

    Si chaque tranche de cache est une voie, ou mets tu les tags ? Si tu les repartis sur chaque tranche il va falloir decider vers quelle voie (=tranche) envoyer avant meme d'avoir pu lookup les tags.

    Bref, avec ca je pense que tu parviendras a trouver une reponse raisonable seul .
    fefe - Dillon Y'Bon

  29. #59
    Citation Envoyé par fefe Voir le message
    Honnetement, j'ai change ma 8800 GTS512 qui a crame par une GTX460 et je n'ai pas vu de difference sur un 24". Je suis sur qu'en cherchant un peu j'en trouverais, mais changer sa carte graphique regulierement n'est plus vraiment un imperatif pour l'essentiel des joueurs non plus (le CPU encore moins d'ailleurs).
    Il y a pourtant un écart considérable, surtout en 1920 × 1200 : http://www.hardware.fr/articles/795-...e-gtx-460.html (cf. la 8800 GT, proche de la GTS 512).

    Tu ne joues qu'à des vieux jeux sur lesquels ta 8800 GTS 512 obtenait déjà 60 FPS ?
    Mon blog (absolument pas à jour) : Teχlog

  30. #60
    Je joue a des jeu ou effectivement les fps que j'obtenais sur la 8800 etaient deja suffisants pour mon skill . Bien entendu j'ai active des niveaux de filtrages plus avances, et plus d'effets speciaux avec la 460 mais en condition reelles de jeu je ne vois pas la difference: Ce n'est pas visiblement plus beau, et ca ne va pas suffisament plus vite pour changer mon impression.
    J'ai eu 7 cartes graphiques 3D depuis ma matrox mystique (ou 6 depuis ma voodoo 1 suivant si tu comptes la mystique comme une vraie carte 3D ou pas, je ne compte pas les cartes pre 3D ) et le passage de la 8800 a la 460 a definitivement ete celui ou j'ai vu le moins de difference. Je n'ai jamais upgrade frequement (regulierement quand meme avec 7 cartes en 13 ans), mais a chaque fois ca a vraiment fait une vraie difference, sauf ce coup-ci et pourtant c'etait probablement ma plus longue periode sans upgrade.
    C'est pareil pour les processeurs desktop, mais pour la 3D je m'y attendais moins.
    fefe - Dillon Y'Bon

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •