Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 1 sur 2 12 DernièreDernière
Affichage des résultats 1 à 30 sur 52
  1. #1
    Je n'avais pas remarqué qu'il n'existait aucun topic là-dessus : c'est fait :D.

    Bon. D'abord, commençons par le X38.

    J'ai lu que la différence notable avec les deux autres MCH était le support du PCI-E version 2.0 avec deux PCI-E 16X (en dehors du support exclusif de la DDR-3 semble-t-il).

    http://www.digitimes.com/mobos/a20070314VL202.html

    Je n'arrive pas à comprendre en quoi le PCI-E 2.0 double le débit ? C'est un PCI-E clairement 32X ? Ou bien on envoie 2 fois plus de mots sur du 16X qui conserve 16 lines dédiées ?

    Est-ce que dans l'absolu le P35 peut gérer ça aussi, mais qu'Intel (une fois de plus) va brider le bazard pour interdire les fabricants de mobo à mettre du Crossfire/SLi (rayez la mention inutile) dans les cartes mères pourvues de ce MCH ? (ça sent le coup du PAT)

    Ensuite, le G33, en dehors du fait qu'il ait un GMA intégré, est en tout point identique au P35 ? Pourquoi l'avoir appelé G33 et non G35, au lieu de donner ce dernier nom au successeur doté d'un IGP DX10 ?

    Enfin, personne (ou peu) a parlé des nouveautés apportés par l'ICH9. Si quelqu'un a des infos, ce serait bien de nous en faire profiter (Sam, où es-tu ????? :D)

  2. #2
    PCI-Express 2.0 : on augmente la vitesse d'un lien, on passe de 250 Mo/sec à 500 Mo/sec. Ca reste du 16X, mais plus rapide, donc.


    L'IGP intégré est théoriquement compatible DX10, c'est normalement le GMA X3000 (premier GPU DirectX 10 avant la Geforce 8800). Mais en pratique, y a pas de drivers.

    Pour l'ICH9, je ne sais pas, à part que on a pleins d'USB2 (bordel, du FW800 dans le chipset, ça les tuerais).

  3. #3
    Et hop :
    http://www.pcinpact.com/actu/news/35...CeBIT-2007.htm

    A noter que le P35 est compatible DDR2 et DDR3, pour une transition tout en douceur...

  4. #4
    Le x du pci express decrit juste combien de fils tu mets (le pcie est un protocole serie sur 1 fil), en 1 ere version les fils "tournent" a 2.5GHz, en version 2 ils tournent a 5GHz.

    Donc du 16x en v1 = 2 octets * 2.5GHz = 5Go/s
    et du 16x en v2 = 2 octets * 5GHz =10Go/s

    Pour fournir cette bande passante en bidirectionnel en pratique il y a 1 fil dans chaque sens, et vu la difficulte d'encoder un signal a 2.5Ghz sur juste 1 fil, chaque fil est en realite implemente avec 2 fils et le signal est encode en differentiel sur ceux ci.

    Bien sur avec l'overhead du protocole de transport on n'arrive jamais a la bande passante pic, chaque octet etant encode sur 10 bits, la bande passante max reelle est 80% de la bande passante physique.
    fefe - Dillon Y'Bon

  5. #5
    Profitant de l'imminence de sortie du G35, j'ai lu une datasheet sur le site d'Intel (ftp://download.intel.com/design/chip...s/31760701.pdf)

    D'abord, il est clair que le G35 sera couplé à l'ICH8 et non l'ICH9.

    Ensuite, j'ai appris également que le bus 1333 MHz ne serait pas géré.

    Je ne comprends pas trop comment Intel compte placer le G35 en tant que chipset au-dessus du G33 dans les segments de marché, vu qu'il se trainera un southbridge antérieur et apparement l'incompatibilité avec les C2D 1333 MHz. Le GMA X3500 ?

    Et je comprends encore moins pourquoi Intel n'a pas décidé de coupler le G35 avec de l'ICH9 : problème de production en masse de ce SB ?

  6. #6
    le G35 c'est de l'entrée de gamme (enfin, tout ce qui a un contrôleur graphique en fait)

    le GMA X3500, on verra bien, mais ça sent quand même le truc bien pourri au final (DirectX 10 sur de l'intégré).

    Je suppose que c'est plus placé comme remplaçant du G965.

  7. #7
    Ce qui est drôle, c'est que selon cette roadmap, le G35 est censé supporter le fsb 1333. Et là, il est classé en mainstream.

    Pour le GMA X3500, ce qui est dommage, c'est qu'Intel va encore mettre dix plombes avant de sortir un pilote qui exploite complètement les nouveautés. D'autant que sur le papier, le X3500 a l'air de tenir face à un GF 8500GT (12 unités partagées à 666 MHz contre 16 à 400 MHz pour le GF, même débit mémoire video). Et on ne sait toujours pas si ce X3500 prendra complètement en charge le H.264 via le Clear Video.

  8. #8
    en même temps, le GMA 950 tient la route face à une Geforce 6600 en théorie et absolument pas en pratique

    et je pensai que le GMA 950 était suffisant pour des effets classiques (sur Mac ou Vista) mais en pratique je me suis rendu compte que non, c'est pourri face à une vraie carte vidéo

    Pour la vidéo, ce serait bien le support, mais c'est assez lourd à mettre en place (notamment garder une chaine HDCP correcte)

  9. #9
    Compiz tournait plutôt bien sur mon GMA950.

  10. #10
    en fait, je trouvais aussi que le GMA 950 marchait bien sur un Mac, puis face à une bonne Geforce ça fait un peu pitité dès qu'on a beaucoup de fenêtre avec Exposé (et encore plus si on active l'accélération 2D via le GPU)

  11. #11
    Je me prendrais bien la nouvelle Intel X38, seulement elle est en retard (ca a la limite c'est pas grave, ca laisse plus de temps pour économiser) mais surtout ce qui m'enmerde c'est le fait qu'elle soit DDR3 seulement :/

  12. #12
    Citation Envoyé par dandu
    en fait, je trouvais aussi que le GMA 950 marchait bien sur un Mac, puis face à une bonne Geforce ça fait un peu pitité dès qu'on a beaucoup de fenêtre avec Exposé (et encore plus si on active l'accélération 2D via le GPU)
    Ca fait quoi ? Des bugs d'affichage ? Ou c'est peut-être la mémoire vidéo allouée qui n'est pas suffisante ?

    Citation Envoyé par PeGGaaSuSS
    Je me prendrais bien la nouvelle Intel X38, seulement elle est en retard (ca a la limite c'est pas grave, ca laisse plus de temps pour économiser) mais surtout ce qui m'enmerde c'est le fait qu'elle soit DDR3 seulement :/
    Tu parles de Bone Trail ? Tout le monde l'attend :D .

  13. #13
    c'est moins fluide que sur la Geforce (très nettement) et la mémoire vidéo allouée est un peu faible si on travaille sur un écran externe avec le GMA (64 Mo alloué c'est trop peu)

    maintenant, j'ai le même problème avec la 8600M du MacBook Pro : y a que 128 Mo de mémoire vidéo (rapiat) et en bi écran, Exposé rame à mort si j'ai beaucoup de fenêtres (et j'ai tendance à foutre beaucoup de fenêtres).

    mais en général c'est vraiment plus fluide sur la Geforce que sur le GMA.

  14. #14
    Citation Envoyé par childerik
    Ca fait quoi ? Des bugs d'affichage ? Ou c'est peut-être la mémoire vidéo allouée qui n'est pas suffisante ?



    Tu parles de Bone Trail ? Tout le monde l'attend :D .
    Tu parles d'un nom (traînée d'os - piste d'os), on dirait une référence macabre au petit poucet

  15. #15
    The Old Bone Trail was a short but common route connecting smaller settlements southwest of Saskatoon to the city’s bone market. Merchants and settlers began to collect and sell Bison bones until the animals became virtually extinct in the late 1880s. The bones were collected in Saskatoon and sold to buyers in the United States for use in fertilizer, or as a colouring agent in paint and ink; the average return for a tonne of bison bones was $8. Homesteaders replaced bone merchants on the trail after 1900, particularly Barr colonists passing through Saskatoon en route to Lloydminster, Alberta. It is estimated that 10,000 settlers traveled the Bone Trail between 1904 and 1905.

    James Winkel
    Ça vient peut-être de là

  16. #16
    Possible, mais quand tu voit que la précédente c'etait Bad Axe (mauvais axe - désaxé) c'est peut-être aussi ceux qui les nommes qui sont un peu :whistle:

    Marc ou Stephane (ou quelqu'un d'autre qui saurait ) vous pensez que la DDR3 va baisser d'ici la fin de l'année ou augmenter comme les autres (traditionellement du moin, ca augmente des mi-Septembre).

  17. #17
    Citation Envoyé par PeGGaaSuSS
    Possible, mais quand tu voit que la précédente c'etait Bad Axe (mauvais axe - désaxé)
    Plutôt mauvaise hache, dans la même veine macabre. (axe ça serait axis, axle ou spindle). Je ne sais pas par contre s'ils choisissent le nom "hardcore gamer" avant ou après avoir décidé des initiales (BX, BT)...

    Marc ou Stephane (ou quelqu'un d'autre qui saurait ) vous pensez que la DDR3 va baisser d'ici la fin de l'année ou augmenter comme les autres (traditionellement du moin, ca augmente des mi-Septembre).
    Parce que ça pourrait monter à encore plus cher que maintenant? uch:

  18. #18
    Personnellement, je ne pense pas que la hausse de la demande à la rentrée soit suffisante pour contre-balancer les économies d'échelle liées à l'augmentation du volume, surtout que la DDR3 est pour l'instant réservée au très haut de gamme, dont la demande est moins sujette à fluctuation.

  19. #19
    Je pense pareil, en fait j'ai remixer ma phrase, j'entendais pour la DDR2 l'augmentation, bien que ce soit pas impossible qu'il soit a cours si les mobos DDR3 marchent mieux que prévu (ca reste peu probable).

  20. #20
    Je me demande si Intel ne veut pas faire le forcing sur la DDR3 davantage pour améliorer le débit de la mémoire video de ses GMA qu'autre chose.

    Même si des améliorations techniques sont "théoriquement" apportées par la DDR3, la DDR2 suffit plus qu'amplement pour les bus CPU.

    D'ailleurs, suffit de faire le calcul :

    DDR2 à 800 Mhz DC : 12,8 Go/s utilisées pour la mémoire video partagée.
    DDR3 à 1600 MHz DC : 25,6 Go/s (soit en gros le débit de la VRAM d'une GF 8600 GT).

    Après, les timings doivent quand même influencer : à combien sont-ils sur de la VRAM dédiée GF ou Radeon ?

  21. #21
    Avec ce que j’ai lut sur le CSI je pense qu’ils en ont besoin (La ddr3) ou du moins peuvent en tirer des avantages conséquents.

    Donc en faisant un forcing ils créent une demande -> une productions en masse ->une baisse des prix pour l’arrivée de leur nouvelle plateforme ?

    We should treat all the trivial things of life seriously, and all the serious things of life with sincere and studied triviality.[Oscar wilde]

    There is no such thing as a moral or an immoral book. Books are well written, or badly written. That is all.[Oscar wilde]

    No artist is ever morbid. The artist can express everything.[Oscar wilde]

  22. #22
    Citation Envoyé par childerik
    Je me demande si Intel ne veut pas faire le forcing sur la DDR3 davantage pour améliorer le débit de la mémoire video de ses GMA qu'autre chose.

    Même si des améliorations techniques sont "théoriquement" apportées par la DDR3, la DDR2 suffit plus qu'amplement pour les bus CPU.

    D'ailleurs, suffit de faire le calcul :

    DDR2 à 800 Mhz DC : 12,8 Go/s utilisées pour la mémoire video partagée.
    DDR3 à 1600 MHz DC : 25,6 Go/s (soit en gros le débit de la VRAM d'une GF 8600 GT).

    Après, les timings doivent quand même influencer : à combien sont-ils sur de la VRAM dédiée GF ou Radeon ?
    Bof, c'est surtout l'évolution naturelle des choses. Avec la progression des CPU et la multiplication des cores c'est naturel d'avoir besoin de plus de bande passante. C'était pareil pour la DDR2, les gains n'étaient pas terribles au début mais aujourd'hui, on pourrait difficilement qualifier a posteriori de forcing basé sur des besoins artificiels. M'est avis que ça sera pareil dans 3 ou 4 ans, quand la DDR3 sera complètement imposée, très nettement plus rapide que la DDR2 et source de bande passante pour des processeurs quad-, octo-, voire hexadéca-cores.

  23. #23
    Citation Envoyé par childerik
    Après, les timings doivent quand même influencer : à combien sont-ils sur de la VRAM dédiée GF ou Radeon ?
    Il me semble que c'est un truc énorme genre 12-15-15-... car les timings ont peu d'influence dans un fonctionnement GPU (en GPGPU, c'est peut etre différent)
    Mes propos n'engagent personne, même pas moi.

  24. #24
    Citation Envoyé par Alexko
    ...pour des processeurs quad-, octo-, voire hexa-cores.
    hexa (6), c'est moins qu'octo (8). 16 cores, ce serait hexadeca-core ?
    Bon après, ils ne sont pas forcés de ne faire que des puissances de 2.

  25. #25
    Oups il fallait comprendre hexadéca, effectivement... C'est vrai que rien n'empêche de s'écarter des puissances de deux, et si je doute qu'on voie des hexa (donc 6)-cores apparaître, des dodéca (12) me semblent pas impossibles, en effet.

  26. #26
    Citation Envoyé par Alexko
    Oups il fallait comprendre hexadéca, effectivement... C'est vrai que rien n'empêche de s'écarter des puissances de deux, et si je doute qu'on voie des hexa (donc 6)-cores apparaître, des dodéca (12) me semblent pas impossibles, en effet.
    clairement, y a une console avec un processeur à trois cores qui se vend pas mal, la Xbox 360

    maintenant, c'est plus simple architecturellement de rester en puissance de deux, je pense.

  27. #27
    C est surtout la forme du die qui importe. Avec un die rectangulaire ca fait moins de perte sur le waffer.
    "si tout le monde s'etait dit "pour quoi faire ?" je pense qu'on tournerait encore sur 8086. Si tant est qu'on ait l'electricite ... " Franck@X86
    If all goes well will Dell sell Cells?
    <°)))><

  28. #28
    c'est en partie aussi le partage de cache et de FSB : un cache partagé entre deux CPU, ça va, au dessus on perd en perfs donc on doit rajouter un niveau (vive le K10). Et le FSB doit être dimensionné aussi en fonction.

    pour la Xbox 360, c'est un PowerPC relativement simple, mais les calculs sont quand même spécifiques pour les jeux et l'importance du cache est pas la même

    Pour la DDR3 et les GPU, le problème c'est que les GPU Intel bouffent beaucoup de bande passante, alors que AMD/nVidia ont une gestion plus efficace à ce niveau là.

    En puissance brute, les GMA sont corrects, mais en pratique assez mauvais parce qu'ils gèrent mal cette puissance (plus des drivers calamiteux)

  29. #29
    Citation Envoyé par childerik
    Ensuite, j'ai appris également que le bus 1333 MHz ne serait pas géré.

    Je ne comprends pas trop comment Intel compte placer le G35 en tant que chipset au-dessus du G33 dans les segments de marché, vu qu'il se trainera un southbridge antérieur et apparement l'incompatibilité avec les C2D 1333 MHz.
    Pour le FSB1333 je ne pense pas que ce sera un problème...

    Quand tu vois que le 945GC est officiellement limité en FSB800, (sauf erreur dans la doc : http://www.intel.com/design/chipsets/express_flyer.htm), mais que plein de constructeurs font des cartes-mères "compatible FSB1333" avec.

    Y compris Intel qui overclocke son propre chipset avec la D945GCNL, qui supporte le FSB1066 et la DDR2-667 :
    http://www.intel.com/products/mother...GCNL/index.htm

    Ou alors ce sont les specs du chipset qui sont fausses, enfin il y a un problème quelque part... :sarcastic:

    Edit: ça doit être les specs qui sont fausses, parce que pour le G35 :
    - Page de présentation (http://www.intel.com/products/chipsets/G35/index.htm) : FSB1333
    - Datasheet (http://download.intel.com/design/chi...s/31760701.pdf) , page Features: FSB1066
    - Datasheet (la même), diagramme 3 pages plus loin: FSB1333
    Bref, il va falloir qu'ils se décident...

  30. #30
    Citation Envoyé par Møgluglu
    Bref, il va falloir qu'ils se décident...
    FSB1600 ?
    fefe - Dillon Y'Bon

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •