PDA

Voir la version complète : Hardware Pour l’hiver, nVidia vous propose son chauffage d’appoint.



Super Menteur
16/12/2008, 22h21
Vous savez, même si je n’en ai pas l’air comme ça, je suis quelqu’un de très intègre et honnête. Et ce que je déteste le plus (enfin si on met à part les phacochères) ce sont les rumeurs infondées. Typiquement le genre de trucs à cause desquels votre mère apprend malencontreusement qu’on vous a retrouvé nu en train de dormir dans des toilettes après être tombé ivre mort la veille, alors que c’était complètement faux j’avais un slip… enfin vous avez compris quoi.

C’est d’ailleurs pour cette raison que j’ai préféré ne pas vous parler la semaine dernière des trois pauvres photos dégotées par VR-Zone (http://vr-zone.com/articles/geforce-gtx-295-card-exposed/6264.html?doc=6264) montrant ce que pourrait être la future carte bi-GPU de nVidia, la GTX 295. Seulement, grâce à la surpuissance combinée de Expreview (http://en.expreview.com/2008/12/16/geforce-gtx295-and-hd4870-x2-who-is-better.html#more-1646) et de leurs copains chinois de chez IT168 (http://www.it168.com/), on a dorénavant un peu plus d’infos sur ce qui s’annonce comme la riposte de nVidia à la Radeon HD 4870 X2.
La GTX 295 adopterait l’habituelle configuration « sandwich » de chez nVidia, configuration dans laquelle deux cartes sont réunies par un conséquent système de refroidissement central. Bonne nouvelle, alors que les premières rumeurs évoquaient l’utilisation de l’équivalent de deux GTX260+, nVidia a profité du passage au 55nm pour remonter le nombre de stream processors (240 par GPU) et d’unités de textures (80 par GPU) au niveau de la GTX280. Le reste des caractéristiques est comparable à celles de la GTX 260+, c'est-à-dire 2*896Mo de GDDR3 interfacée en 448bit, 28 unités de ROP par GPU, une cadence de 576Mhz pour le GPU, 1242 pour les shaders, 999 pour la mémoire, un café, l’addition, merci Gérard.
La consommation, grande interrogation étant donné le gouffre énergétique qu’est la GTX280, serait miraculeusement assez contenue avec un maximum à 290Watts. Bon c’est quand même l’équivalent de trois Core 2 Quad à pleine charge, ce qui devrait vous assurer un début d’année bien au chaud. Alors que les premiers prototypes étaient alimentés par 67 prises d’alimentation disquette, le modèle actuel semble être revenu à un classique branchement PCI-Express 6+8pin, à notre grand regret. Notez également qu’une GTX285, une nouvelle carte mono-GPU probablement basée sur la même puce, serait sur les rails.

Mis à part tous ces chiffres barbares, le plus intéressant reste à venir. En plus des photos déjà dévoilées, on retrouve quelques représentations 3D de ce que devrait être la carte qui confirment la présence d’un port SLI pour monter une configuration Quad-SLI. Ca devrait permettre enfin de jouer décemment à Quake 3. Une série de tests comparatifs a aussi été réalisée. Bien évidemment ces tests sont à prendre avec une pince monseigneur mais le gain par rapport à une 4870X2 sembleraient aller de quelques miettes à plus de 500% sous Mirror’s Edge ou sur Cryostasis en activant le PhysX.

Voyons voir, un benchmark d’une carte pas encore sortie sur deux jeux prévus pour l’année prochaine, tout va bien, c’est parfaitement représentatif. J’ai enfin trouvé de quoi réchauffer efficacement ces putains de toilettes.

Voir la news (5 images, 0 vidéo ) (http://www.canardpc.com/news-31764-pour_l___hiver__nvidia_vous_propose_son_chauffage_ d___appoint_.html)

john
17/12/2008, 00h20
Voyons voir, un benchmark d’une carte pas encore sortie sur deux jeux prévus pour l’année prochaine, tout va bien, c’est parfaitement représentatif. J’ai enfin trouvé de quoi réchauffer efficacement ces putains de toilettes.

^_^
J'adore ce super menteur, l'art de défoncer tout en douceur des pseudo-tests. (En même temps, avec un test pareil, faut dire qu'ils ont tendu le baton pour se faire taper).

El_Mariachi²
17/12/2008, 00h34
Pourquoi est-ce regrettable le branchement en 6 + 8 pins?

Super Menteur
17/12/2008, 00h36
Pourquoi est-ce regrettable le branchement en 6 + 8 pins?
:mellow:

Elle était si nulle que ça cette vanne ?

Raphyo
17/12/2008, 00h36
Merci pour ce grand moment =)

El_Mariachi²
17/12/2008, 00h38
:mellow:

Elle était si nulle que ça cette vanne ?

Mais nan j'en rajoutais ^_^
En tout cas bravo pour ton texte :)

Fenhryl
17/12/2008, 01h00
Voyons voir, un benchmark d’une carte pas encore sortie sur deux jeux prévus pour l’année prochaine, tout va bien, c’est parfaitement représentatif. J’ai enfin trouvé de quoi réchauffer efficacement ces putains de toilettes.

Rien de pire que de poser son cul sur une cuvette froide, cette carte arrive donc a point nommé avec les premieres gelées.

Angelina
17/12/2008, 01h00
Ouaip, ça valait le coup de retarder notre partie de Left 4 Dead et faire patienter 7 keupaings, pour finir ta niouze. C'est rare et rafraichissant d'oser défoncer Nvidia, alors que les 3/4 du forum ne jurent que par la Gforce "penis enlargement certified".

Pouic
17/12/2008, 01h36
cool des radiateurs avec lecteur de disque intégré... si on a encore un ptit P4, c'est suffisant pour cuisiner?

/HS
etude fort interessante
http://www.techno-science.net/?onglet=news&news=6110
(je savais pas ou la placer dsl...)
/HS fini (si si)

Nikch
17/12/2008, 02h30
Qu'est ce que j'ai ri en lisant cet article.
Cette future solution Quad rendue possible grâce à cette nouvelle carte, mettra t-elle KO tous les plus gros jeux benchmark?

En tout cas, ce serait vraiment "nul" que non.

Say hello
17/12/2008, 02h56
Je sais pas pourquoi, mais j'ai un gout de fake dans la bouche en voyant ce graph de bench. :rolleyes:

JCLB
17/12/2008, 04h14
cool des radiateurs avec lecteur de disque intégré... si on a encore un ptit P4, c'est suffisant pour cuisiner?

/HS
etude fort interessante
http://www.techno-science.net/?onglet=news&news=6110
(je savais pas ou la placer dsl...)
/HS fini (si si)

euh, autant quand je vois Albanelle je crie, parce que pour le gouvernement 1 truc téléchargé = 1 truc pas acheté qui aurait été payé sinon.
bien sur tout les gens qui ont Adobe XXX CS4 et qui l'ont téléchargé l'auraient acheté^_^

Mais là cette étude comme quoi plus on télécharge et plus on achète m'intrigue, surtout que là on ne parle que d'internaute en fait.
En général un internaute qui n'aime pas les daubasses musicales contemporaines n'ira ni DL en P2P, ni acheté à la DTCLaFNAC.
Et dans cette étude on mélange légal et illégal.


40% des individus qui vont au cinéma au moins une fois par mois (http://www.techno-science.net/?onglet=glossaire&definition=1514) (Le mois (Du lat. mensis «mois», et anciennement au plur. «menstrues») est une période de temps arbitraire.) regardent des vidéos sur l'internet contre 17% pour ceux qui ne vont jamais au cinéma

Mais la réciproque est fausse: les gens qui vont sur TonTube ne vont pas forcément au cinéma.

exemple
parton du principe que s'il pleut le sol est mouillé
réciproque: Si le sol est mouillé il pleut: FAUX
contraposée: Si le sol n'est pas mouillé il ne pleut pas: VRAI

De plus quand on va au cinéma c'est qu'il n'est pas très loin, donc qu'on est en ville, donc qu'on a un gros débit et qu'on peut buffer les vidéos à la vitesse de la lumière B)
De même
Les pratiques de consommation payantes des internautes utilisant le P2P se relèvent supérieures aux pratiques de consommation payantes du reste des internautes.
un P2Piste a un PC, un niveau de vie dont la moyenne est plus élevée que pour toute la population, donc il dépense de l'argent plus souvent dans des biens culturels.

Bon, moi je voudrais plutôt une étude sur le temps de chargement des BluRay sur les platines de salon, parceque ça pour le coup c'est du payant et ça met entre 1 et 3 min à load, moi je préfère mes .mkv, c'est aussi en 1080P, le son est aussi en DTS ou DD et ça load en...1 seconde.


Pour bien se chauffer avec la nouvelle nVidia faut ça:
http://blog.wired.com/gadgets/fan_pc_3.png

Sinon j'ai déjà vu des watercooling branché sur des radiateurs à 50€ de chez castorama, c'est encombrant mais c'est passif, et ça marche bien, faut juste une pompe plus puissante.

Et comme on dit, nVidia nous prouve que les caaméléons ça lutte contre le réchauffement...

zabuza
17/12/2008, 05h40
Le graphique est fort probable, mais bon qui va objectivement tester PhysX ( technologie Nvidia maintenant ) sur une carte graphique..c'est débile, il vaut mieux qu'Nvidia remporte.
Les autres tests sont plus intéressant par contre ;)

Super Menteur
17/12/2008, 12h33
Juste un mot pour nous excuser de la mise offline temporaire de la news ce matin que nous devons à Half, le webmaster qui est tellement fort en maintenance qu'il supprime des images en même temps :ninja:

Logan
17/12/2008, 12h39
Super Menteur, le seul gars qui rédige une new d'une main et qui joue à L4D de l'autre ;)

zeblob
17/12/2008, 13h20
On peut savoir quel est ton problème avec les phacochères?

Nono
17/12/2008, 13h51
Ouaip, ça valait le coup de retarder notre partie de Left 4 Dead et faire patienter 7 keupaings, pour finir ta niouze. C'est rare et rafraichissant d'oser défoncer Nvidia, alors que les 3/4 du forum ne jurent que par la Gforce "penis enlargement certified".

popopop. Y'a quand même eu un gros regain d'intérêt pour ATI depuis la série 4000. Et puis cette gtx295 me semble quand même assez peu intéressante (le mode sandvich ça ne m'emballe que dans TF2)

Dommage qu'ATI soit complètement à poil sur le plan des calculs physiques, parce que j'ai l'impression que cette lubie va les tuer à petit feu (à moins qu'Intel soit altruiste et ne réserve pas son Havok qu'à ses futurs GPU).

Angelina
17/12/2008, 13h57
A mon avis, Nvidia prend la problématique du calcul physique à l'envers: s'ils veulent vendre par palettes leur cg physix compatible, faut commencer par avoir un soft majeur et fédérateur qui l'exploite, quitte à faire dans un premier temps du bricolage via drivers, histoire que tout le monde y goûte et y prennent gôut, et ensuite mettre le paquet sur la génération suivante de GPU/PPU.


popopop. Y'a quand même eu un gros regain d'intérêt pour ATI depuis la série 4000.

T'as pas vu passer le nombre de pigeons qui disent: "je sais 48** c'est mieux et tout, mais je préfère quand même Nvidia, pasque ctou.". ;)

tenshu
17/12/2008, 14h09
A mon avis, Nvidia prend la problématique du calcul physique à l'envers: s'ils veulent vendre par palettes leur cg physix compatible, faut commencer par avoir un soft majeur et fédérateur qui l'exploite, quitte à faire dans un premier temps du bricolage via drivers, histoire que tout le monde y goûte et y prennent gôut, et ensuite mettre le paquet sur la génération suivante de GPU/PPU.

Sauf qu'ils ont chaud au cul en fait, l'OpenCL déposé par apple adopté par ATI et Intel sont en passe de damer le pion à leur PhysX qui n'a pas prouvé son utilité.

Angelina
17/12/2008, 14h16
Ca rejoint plutôt ce que je dis? Non? No comprendé. :rolleyes:

Dark Fread
17/12/2008, 14h16
A mon avis, Nvidia prend la problématique du calcul physique à l'envers: s'ils veulent vendre par palettes leur cg physix compatible, faut commencer par avoir un soft majeur et fédérateur qui l'exploite

Il faudrait un truc mieux foutu qu'un certain :
http://i.testfreaks.se/images/products/340x170/104/cellfactor-revolution.365672.jpg
par contre...

Angelina
17/12/2008, 14h20
Ah bah oui: je pensais en l'occurence à un GTA ou 3DSMAX, pas alexandra ledermann ou un obscure fps polonais, évidement. ;)

FreeliteSC
17/12/2008, 14h30
Quoique, si le futur alexandra Ledermann rendait le Physx obligatoire, Nvidia en vendrait par paquet ( des GPU hein)

Augusto Giovanni
17/12/2008, 15h45
Bof, je préfère Nvidia quand même :p

InkizitoR
19/12/2008, 01h39
Le Physx à part vendre des cartes nvidia à des gusses qui croient au père noël je vois pas à quoi ça sert, même si des jeux en tirent parti la différence passe totalement inaperçue.

Dans le même ordre d'idée rien ne vaut un bon Phénom pour jouer!

LeBabouin
20/12/2008, 01h31
Sinon c'est quoi les performances Phys X pour les ATI dans le comparo ?

Fracanus
22/12/2008, 01h53
Ma voodoo 5 chauffe plus. Parole.

Neo_13
23/12/2008, 10h34
Sinon c'est quoi les performances Phys X pour les ATI dans le comparo ?
Sinon, c'est quoi l'intérêt du PhysX ? Dans des vrais jeux, je veux dire, pas dans des démos fait par les dev outsourcés en inde d'nVidia.