Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 89 sur 97 PremièrePremière ... 39798182838485868788899091929394959697 DernièreDernière
Affichage des résultats 2 641 à 2 670 sur 2889

Discussion: News en tout genre...

  1. #2641
    Citation Envoyé par PrinceGITS Voir le message
    Au fait, comment ils ont fait pour intégrer le G200 ? Car il est en AGP à l'origine.
    En tout cas vivement les bench qu'on voit ce que ça donne comparé aux chipsets Intel, Nvidia et ATI intégrés.
    Je regarde ça aujourd'hui, mais en tout cas ne rêve pas, j'ai terminé l'install hier et c'était le même genre de charette à bras que les autres chip du genre : ATI Rage XL, ATI ES1000 et XGI Volari Z7.
    Le driver est bien signé Matrox et date de 2008, mais le chip est signé Winbond. Si j'ai bien pigé, Winbond aurait intégré simplement la partie 2D du G200, le tout interfacé sur le bon vieux PCI (l'AGP n'étant qu'une évolution du PCI ce n'est pas compliqué à faire cfr toutes les cartes AGP qui avaient une version PCI du temps ou le PCIe n'existait pas).
    http://valid.x86-secret.com/cache/banner/313021.png

  2. #2642
    Citation Envoyé par DJ_DaMS Voir le message
    Le driver est bien signé Matrox et date de 2008, mais le chip est signé Winbond. Si j'ai bien pigé, Winbond aurait intégré simplement la partie 2D du G200, le tout interfacé sur le bon vieux PCI (l'AGP n'étant qu'une évolution du PCI ce n'est pas compliqué à faire cfr toutes les cartes AGP qui avaient une version PCI du temps ou le PCIe n'existait pas).
    Mouai, esperons qu'ils n'ont pas oublie le support Linux. Mais comme c'est du Supermicro, je suppose qu'il n'y a pas d'inquietude a avoir

  3. #2643
    Citation Envoyé par newbie06 Voir le message
    Mouai, esperons qu'ils n'ont pas oublie le support Linux. Mais comme c'est du Supermicro, je suppose qu'il n'y a pas d'inquietude a avoir
    Oui, il y a bien un driver Linux.
    Pas de lien chez Winbond ni chez Matrox pour le driver, il faut passer par Supermicro.
    ftp://ftp.supermicro.com/driver/VGA/Matrox/G200e/
    http://valid.x86-secret.com/cache/banner/313021.png

  4. #2644
    Donc c'est un WPCM450R de Winbond/Nuvoton dont voici les specs :
    http://www.nuvoton-usa.com/hq/enu/Pr...C)/WPCM450.htm
    C'est donc un chip type super IO avec VGA (Matrox G200 based) pour server (donc besoins en affichage réduits à leur + simple expression) interfacé sur le PCI.

    J'ai pris une tof en gros plan, faut juste que je regarde comment on fait pour poster une photo de taille décente sur le fofo cpc

    Edit :
    Dernière modification par DJ_DaMS ; 28/01/2009 à 09h55.
    http://valid.x86-secret.com/cache/banner/313021.png

  5. #2645
    Elle casse quand même une Rage XL en deux, non ?

    (on a eu un mec qui avait un serveur bridé par la rageXL, vu qu'il avait des besoin bizzarre)
    Mes propos n'engagent personne, même pas moi.

  6. #2646
    Citation Envoyé par Neo_13 Voir le message
    (on a eu un mec qui avait un serveur bridé par la rageXL, vu qu'il avait des besoins bizarres)
    C'était moi !
    J'ai un panel de tests à faire, on verra bien, mais je sens que le slot 16X va vite être utilisé...

    Edit : en fait le Rage XL est basé sur l'ATI Rage Pro (si j'ai bonne mémoire) tandis que l'ES1000 est basé sur le Radeon 7000
    http://valid.x86-secret.com/cache/banner/313021.png

  7. #2647
    Citation Envoyé par DJ_DaMS Voir le message
    C'était moi !
    J'ai un panel de tests à faire, on verra bien, mais je sens que le slot 16X va vite être utilisé...

    Edit : en fait le Rage XL est basé sur l'ATI Rage Pro (si j'ai bonne mémoire) tandis que l'ES1000 est basé sur le Radeon 7000


    Je me souvenais pour la XL, j'en ai eu une, il y a longtemps.

    Et bien bon tests
    Mes propos n'engagent personne, même pas moi.

  8. #2648
    De toute facon le but de ce chip est d'avoir une sortie 2d correcte, non ? Ca existe encore les benchmarks 2d sous Windows ?

  9. #2649
    Ouais mais pour le G200 avec un bus mémoire 32-bit partagé avec le CPU de management, même en DDR2 à 220MHz il faut pas s'attendre à des perfs au niveau du "128-bit DualBus (TM)" du GPU original...
    Surtout qu'ils ont du récupérer un contrôleur mémoire standard pour SOC ARM pas optimisé du tout pour les transferts graphiques.

    Mais c'est sûr que par rapport à la Rage Pro/XL c'est le jour et la nuit, ne serait-ce qu'au niveau des drivers...

    @newbie06: il y a pas mal de features 2D pour accélerer les UI dans les GPU modernes, genre le rendu des polices OpenType avec anti-aliasing/hinting/sub-pixel smoothing/etc. Ça ne m'étonnerait pas que la différence soit perceptible à l'utilisation. (quoi que avec un Core i7 derrière...)

  10. #2650
    Citation Envoyé par newbie06 Voir le message
    De toute facon le but de ce chip est d'avoir une sortie 2d correcte, non ? Ca existe encore les benchmarks 2d sous Windows ?
    Ya pas que les benchs à geeks et windows dans la vie...
    Mes propos n'engagent personne, même pas moi.

  11. #2651
    Citation Envoyé par Neo_13 Voir le message
    Ya pas que les benchs à geeks et windows dans la vie...
    Ca je peux pas laisser passer.... Raaaaaaaaaaaaaah, si, je laisse passer, et je vais me prendre un cafe

  12. #2652
    Citation Envoyé par newbie06 Voir le message
    Ca je peux pas laisser passer.... Raaaaaaaaaaaaaah, si, je laisse passer, et je vais me prendre un cafe
    Je suis presque déçu
    Mes propos n'engagent personne, même pas moi.

  13. #2653
    Citation Envoyé par Neo_13 Voir le message
    Je suis presque déçu
    Je suis trop fort aujourd'hui, je n'ai meme pas repondu a la remarque desobligeante sur la pretendue absence de performance memoire des SoC ARM faite par Møgluglu

  14. #2654
    Citation Envoyé par newbie06 Voir le message
    Je suis trop fort aujourd'hui, je n'ai meme pas repondu a la remarque desobligeante sur la pretendue absence de performance memoire des SoC ARM faite par Møgluglu
    T'as paumé tes couilles ?

    T'es en overdose de Xanax ?
    Mes propos n'engagent personne, même pas moi.

  15. #2655
    Citation Envoyé par Neo_13 Voir le message
    T'as paumé tes couilles ?

    T'es en overdose de Xanax ?
    L'est pas un peu grosse ta ficelle ?

  16. #2656
    Ben faut ce qu'il faut quand t'utilises un pied de biche comme hameçon...
    Mes propos n'engagent personne, même pas moi.

  17. #2657
    Bon le G200 a été avantageusement remplacé par une simple 8500GT, la moindre vidéo affichée laggue lamentablement (alors qu'un ES1000 le fait sans problème) Mogluglu semblerait avoir raison

    Par contre, avec ce Core i7, je fais les doigts dans le nez ce qu'un bi-xeon quad 2.66ghz n'arrivait pas à faire pour cause d'archi non adaptée (FSB comme goulot d'étranglement), mais bien un bi-quad AMD 2.2Ghz (HT et controleur mémoire on die powa).
    AMD a du soucis à ce faire les "bi-i7" vont tout casser !
    http://valid.x86-secret.com/cache/banner/313021.png

  18. #2658
    Citation Envoyé par DJ_DaMS Voir le message
    Bon le G200 a été avantageusement remplacé par une simple 8500GT, la moindre vidéo affichée laggue lamentablement (alors qu'un ES1000 le fait sans problème) Mogluglu semblerait avoir raison

    Par contre, avec ce Core i7, je fais les doigts dans le nez ce qu'un bi-xeon quad 2.66ghz n'arrivait pas à faire pour cause d'archi non adaptée (FSB comme goulot d'étranglement), mais bien un bi-quad AMD 2.2Ghz (HT et controleur mémoire on die powa).
    AMD a du soucis à ce faire les "bi-i7" vont tout casser !
    Peut-être que pour une fois, l'inertie courante chez les pros va jouer en leur faveur ?

  19. #2659
    Citation Envoyé par Lissyx Voir le message
    Peut-être que pour une fois, l'inertie courante chez les pros va jouer en leur faveur ?
    L'inertie c'est que cette annee tout le monde va garder ses vieux serveurs, mais je doute que ca rapporte quoi que ce soit a AMD que leurs vieux opterons continuent a tourner .
    fefe - Dillon Y'Bon

  20. #2660
    Citation Envoyé par fefe Voir le message
    L'inertie c'est que cette annee tout le monde va garder ses vieux serveurs, mais je doute que ca rapporte quoi que ce soit a AMD que leurs vieux opterons continuent a tourner .
    Je pensais plutôt à renouveller chez AMD en attendant de voir ce que donnent "pour de vrai" les Core i7 ...

  21. #2661
    Qui va lancer un cycle de renouvellement aujourd'hui ? Ceux qui ont du cash aujourd'hui preferent attendre a moins que ce soit critique a leur business d'upgrader.
    fefe - Dillon Y'Bon

  22. #2662
    Citation Envoyé par DJ_DaMS Voir le message
    Et la suite qui en découle, comme quoi le fofo de cpc peut être la source de pas mal de choses :
    http://www.pcworld.fr/actualite/le-g...-matrox/25451/
    http://www.3dnews.ru/tags/G200eW
    http://www.forumpcs.com.br/noticia.php?b=250066
    C'est pas pour faire le malin, mais ça me fait rire qu'un simple petit commentaire part en boule de neige (en russe) comme ça

    PS : Je vais demander des royalties à mon contact chez Supermicro pour la pub gratuite.
    http://valid.x86-secret.com/cache/banner/313021.png

  23. #2663
    Comment je me fais capter, moi !

    Mais comment c'est passé sur un site russe ?

  24. #2664
    Tiens, marrant aujourd;hui Google pretend que Wikipedia peut endommager mon PC
    fefe - Dillon Y'Bon

  25. #2665
    Citation Envoyé par dandu Voir le message
    Comment je me fais capter, moi !

    Mais comment c'est passé sur un site russe ?
    3dnews.ru scrute les sites FR et reprend pas mal de news. J'ai déjà été surpris de retrouver des photos exclusives sur leur site mais ils avaient enlevé mon logo...

  26. #2666
    Citation Envoyé par fefe Voir le message
    Tiens, marrant aujourd;hui Google pretend que Wikipedia peut endommager mon PC
    http://tof.canardpc.com/preview2/3b5...73cacf0acc.jpg
    C'est parce qu'il y a des photos de gamins nus sur une pochette de Scorpion, ça doit être une bande d'intégristes chrétiens (marrant en tapant ce mot j'avais oublié un 'e') qui doit faire le forcing

  27. #2667

  28. #2668

    We should treat all the trivial things of life seriously, and all the serious things of life with sincere and studied triviality.[Oscar wilde]

    There is no such thing as a moral or an immoral book. Books are well written, or badly written. That is all.[Oscar wilde]

    No artist is ever morbid. The artist can express everything.[Oscar wilde]

  29. #2669
    http://www.hardware.fr/news/10110/no...geforce-m.html

    Citation Envoyé par Damien
    Nvidia introduit ainsi les GeForce GTX 280M, GTX 260M, GTS 160M et GTS 150M. Une GeForce GTX 280 en version mobile ! Comment Nvidia a-t-il réussi ce tour de passe-passe compte tenu de la consommation élevée du GT200 qui est à sa base ? En mettant un G92 à sa place tout simplement !
    Ces derniers jours, on lit ça un peu partout. Pourtant, si je ne m'abuse :

    • la consommation d'un GPU donné croît quadratiquement avec la fréquence
    • la consommation d'un GPU donné croît à peu près linéairement avec le nombre de SP
    • les performances pratiques croissent à peu près linéairement avec la fréquence
    • les performances pratiques croissent à peu près linéairement avec le nombre de SP


    Donc logiquement, pour un niveau de performances donné, la solution la plus économe aurait énormément de SP à une fréquence très faible, non ? En d'autres termes, un GT200b sous-volté n'obtiendrait-il pas, pour la même consommation, de meilleures performances qu'un G92b ? Ou pour les mêmes performances, une consommation plus faible ?

    Ou alors c'est le bus 512 bits qui plombe la consommation du GT200b ?

  30. #2670
    Citation Envoyé par Alexko Voir le message
    http://www.hardware.fr/news/10110/no...geforce-m.html



    Ces derniers jours, on lit ça un peu partout. Pourtant, si je ne m'abuse :

    • la consommation d'un GPU donné croît quadratiquement avec la fréquence
    • la consommation d'un GPU donné croît à peu près linéairement avec le nombre de SP
    • les performances pratiques croissent à peu près linéairement avec la fréquence
    • les performances pratiques croissent à peu près linéairement avec le nombre de SP


    Donc logiquement, pour un niveau de performances donné, la solution la plus économe aurait énormément de SP à une fréquence très faible, non ? En d'autres termes, un GT200b sous-volté n'obtiendrait-il pas, pour la même consommation, de meilleures performances qu'un G92b ? Ou pour les mêmes performances, une consommation plus faible ?

    Ou alors c'est le bus 512 bits qui plombe la consommation du GT200b ?
    La consommation croit lineairement avec la frequence, ou cubiquement si tu augmentes le voltage pour monter la frequence, mais pas quadratiquement:

    P = PDyn+Pleak
    PDyn=A*C*V^2*F (A = activite, C = Capacitance totale)
    Pleak= proportionnel a la surface, au type de transistors et au type de process utilise (on va dire <1/5 PDyn pour des produits mobiles)

    Sinon pour le reste de ton analyse oui, un GPU sous volte est le meilleur moyen d'atteindre une haute performance a une conso donnee. Il y a des problemes par contre:
    1: c'est gros donc ca coute cher
    2: quand tu descends le voltage tu descends la fiabilite du die, donc en gros tu descend tes yields, ce qui est un probleme sur les gros dies, au final un GT200 tournant a bas voltage te coutera plus cher qu'un GT200 au voltage max
    3: pour les produits mobiles tu essaye de descendre le leakage (qui est generalement entre 1/4 et 1/3 pour les produits que tu mets dans tes desktops). Pour ca soit tu selectionnes tes dies a la main (il y en aura peu qui leake aussi peu) et ca coute encore moins cher, ou alors tu fais un die dans un process tune pour leaker moins mais qui est nettement plus lent au meme voltage. Tu peux aussi tuner et mettre plus de transistors qui leakent moins, mais ca descend encore ta frequence au meme voltage. Donc pour controler le leakage tu te retrouves a scaler ta perf de maniere lineaire (vers le bas) a die egal.

    Bien entendu la conso de tes I/O ne changent pas avec ca a moins de changer le voltage et la frequence de ta GDDR. Le voltage tu peux oublier, la GDDR a peu de marges a la base donc tu as peu de marge, donc tu peux descendre la frequence pour un effet (quasi) lineaire sur la conso de tes IO et un mauvais effet sur la perf (tu reussiras quand meme a descendre le voltage mais arrivera vites a des frequences comparables a de la DDR). C'est pareil pour chaque chip de GDDR que tu soudes a ton PCB et qui consomme ~5W. Vu qu'ils mettent un chip par channel, meme si la perf est la meme qu'en reduisant la frequence, autant reduire le nombre de channels, ca leur revient moins cher en IO sur le die et moins cher en chips de GDDR sur le PCB (et moins cher pour router tout ca).

    Conclusion si tu gardes le meme die pour mettre dans les portables (et le tune un peu et le change vers un process qui leake peu) il te coutera plus cher pour moins de performance aux memes frequences que le produit pour desktop (~20% de freq de moins a la base). Tu pourras ensuite reduire frequence et voltage pour avoir ton effet cubique sur la conso, mais ton die restera plus cher et tu auras perdu pas mal de perf. Donc au final demarrer avec un die plus petit permet de garder un prix beaucoup plus raisonable (et des performances moins bonnes, mais a moins de te vendre le GPU mobile pour 2x le GPU desktop ils sont obliges).
    Dernière modification par fefe ; 05/03/2009 à 06h55.
    fefe - Dillon Y'Bon

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •