PDA

Voir la version complète : Nouvelle génération de geforce nvidia



chtiprof
02/11/2009, 19h06
Kikou les canards.
Quelqu'un a-t-il pu lire récemment des nouvelles soncernant la nouvelle génération de CG nvidia ?
Personnellement, je n'ai pu lire que 2 nouvelles, pas très importantes d'ailleurs, à savoir que nvidia arrêtait la production des gtx 260, 275, 285 (seul restera la gtx295), ceci afin de vendre le surplu (ils n'ont qu'à les solder :p:p).
La deuxième nouvelle réside dans le fait que le boss de chez nvidia a déclaré que directx 11 était plus ou moins du flan ... ce qui se traduit par "on est pas près alors tant que notre CG n'est pas sorti, acheter nos cartes pour la physx ... bouh ATI". (ça devient même un peu usant de les voir se prendre la tête :tired:)

Tout ça pour dire que si quelqu'un a des nouvelles plus récentes sur la sortie des cartes 3**, je suis preneur car, faute de trouver de 5850 en stock, je pense acheter chez nvidia et revenir à mes origines :p

Raphyo
02/11/2009, 19h08
Pas avant fin décembre dans le meilleur des cas, et avec des cartes que je prédis très performantes, mais aussi très cher.

Thamior
02/11/2009, 19h09
Sinon y'a l'épinglé sur l'actualité hardware. Enfin juste sinon.

Raphyo
02/11/2009, 19h11
Sinon y'a l'épinglé sur l'actualité hardware.

J'allais faire la même réfléxion, mais je suis pas modo :o
Heuresement d'ailleurs :rolleyes:

Frypolar
02/11/2009, 19h20
Sinon y'a l'épinglé sur l'actualité hardware. Enfin juste sinon.

Et puis c'est pas la première fois :tired:.

Et les nVidia devrait aussi se faire rares.

Grosnours
02/11/2009, 20h09
Pas importante l'info sur l'arrêt de la prod des GTX2xx ? :wtf:
C'est une nouvelle capitale au contraire.

C'est la fin de Nvidia sur le marché moyen et haut de gamme.

Car si Fermi il y a, si les problèmes de yield désastreux sont surmontés, si les performances sont au rendez-vous (ce qui n'est pas du tout garanti, Fermi ressemblant plus à un GPGPU qu'à un GPU), s'il ne coute pas un rein et demi, s'il n'est pas spécialisé vers les pros et si les drivers sont au point, alors peut-etre ATI ne sera pas en monopole.

Cela fait beaucoup de si et je suis bien plus pessimiste que vous.
Le fait de ne plus avoir de CG en vente (ce qui arrivera forcément à plus ou moins brève échéance) est rarement un signe de bonne santé.

Bien sur, pour prendre un vieil exemple, Matrox survit très bien et de toutes façons NVidia a d'autres rentrées financières (la part du moyen/haut de gamme est somme toute faible), mais je trouve cela assez inquiétant pour nous joueurs. La concurrence nous est favorable.

Kecheu
02/11/2009, 20h17
Car si Fermi il y a, si les problèmes de yield désastreux sont surmontés

:O

Il me semblait que depuis le temps, il était clair que cette information est erronée!! C'est affirmation provenait en effet d'un anti-nVidiste ayant laissé Googletranslate s'occuper de la traduction d'un communiqué de presse japonais.:|

Raphyo
02/11/2009, 20h24
Certes, mais :
TSMC a d'assez grave problême de rendements. Et je cite presque mot pour mot un autre X86 : " une puce avec 3 milliards de transistors aura forcément des rendements désasteux"
Si quelqu'un pouvait retrouver la citation en question, ce serait bien :o

Thamior
02/11/2009, 20h25
Voui mais récemment les yields de TSMC en 40nm ont baissé (qui a dit avec l'arrivée de Fermi dans la chaîne de production), donc à mon avis, l'hypothèse n'est pas à jeter.

Edit : Ah, grillé.

Grosnours
02/11/2009, 20h31
:O

Il me semblait que depuis le temps, il était clair que cette information est erronée!! C'est affirmation provenait en effet d'un anti-nVidiste ayant laissé Googletranslate s'occuper de la traduction d'un communiqué de presse japonais.:|

Oui Charlie Demerjian, je sais.
Qui vient tout juste de montrer qu'il avait en partie raison au vu de l'arrêt de la prod des GTX2xx.

Vincent41100
02/11/2009, 20h47
http://www.cowcotland.com/images/news/2009/03/geforce_gtx_295_exploded_.jpg
http://www.comptoir-hardware.com/images/stories/_cg/gtx29x_gtx3xx/gtx295_monopcb_07.jpgJ'ai recemment acheter une carte graphique nvidia : la gtx295.
J'ai remarquer qu'il en exister deux version: la mono et la dual card.
La dual est formée de 2 cartes avec un radiateur entre les deux et un ventilo entre les deux alors que la mono est une seule carte qui possède 2 processeurs refroidis par des radiateurs et un ventilo entre les 2 processeur.
Mais cette "mono card" a apparrament étée étudier pour baisser les couts de productions de la GTX295 mais quelle est la meilleur version pour le refroidissement de la carte graphique ??? (sachant que l'une ou l'otre type de carte, c'est le meme prix)

Thamior
02/11/2009, 20h49
Mer il et fou?

En plus, tu l'as déjà achetée...

Raphyo
02/11/2009, 20h52
http://www.cowcotland.com/images/news/2009/03/geforce_gtx_295_exploded_.jpg
http://www.comptoir-hardware.com/images/stories/_cg/gtx29x_gtx3xx/gtx295_monopcb_07.jpgJ'ai recemment acheter une carte graphique nvidia : la gtx295.
J'ai remarquer qu'il en exister deux version: la mono et la dual card.
La dual est formée de 2 cartes avec un radiateur entre les deux et un ventilo entre les deux alors que la mono est une seule carte qui possède 2 processeurs refroidis par des radiateurs et un ventilo entre les 2 processeur.
Mais cette "mono card" a apparrament étée étudier pour baisser les couts de productions de la GTX295 mais quelle est la meilleur version pour le refroidissement de la carte graphique ??? (sachant que l'une ou l'otre type de carte, c'est le meme prix)

C'est complètement hors sujet :O

Gwenn
02/11/2009, 21h15
Bwahaha, vu la communication de Nvidia sur sa future carte et les infos qu'on a, il n'y a rien de bon à espérer chez eux.

Je m'explique: déjà sur les générations précédentes Nvidia se vantait que la carte top-moumoute à sortir serait plus puissante qu'un SLI de la carte top moumoute de la génération précédente, ce qui s'est souvent révélé assez vrai. Là Nvidia ne communique absolument pas sur les perfs de leur bouzin, ce qui vu leur grande gueule est plus un aveu d'échec qu'autre chose.

Pire, il parlent d'une carte dédiée au monde pro, en nous sortant un exemple bidon dont tout le monde se cogne car il ne représente même pas 0.01% de leurs ventes de chips moyen/haut de gamme, en accentuant les perfs liées aux drivers.... sachant qu'une carte pro est la même qu'une carte gamer mais avec des drivers optimisés pour les logiciels pro, on peut se poser des questions sur les perfs en jeu de leur carte.

Ensuite, les annonces générale d'ATI et TSMC sur le rendement du 40nm, utilisé pour les HD5xxx et les futur fermi, rendement qui est à chier d'ou la faible disponibilité des HD58xx et leur montée de prix. Fermi étant donc gravé en 40nm MAIS ayant beaucoup plus de transistors que le HD5xxx ET une architecture plus compliquée (car je crois que celle des GTX2xx est déjà plus compliquée que celle des HD5xxx), il est facile d'en déduire que le rendement sera inférieur à celui des HD5xxx (qui n'est déjà pas folichon).

Ensuite, le prix à prévoir de la chose, probablement prohibitif (là encore pas besoin d'une boule de cristal) dissuadera l'immense majorité des gens d'acheter du fermi.


Enfin bref, ça sent la stagnation du côté des CG, un peu comme lorsque le sieur Moore de chez intel déclarait que la puissance des CPU n'augmenterait plus exponentiellement à partir d'un certain moment (et je crois d'ailleurs qu'on y est).

Grosnours
02/11/2009, 21h33
Voilà, c'est exactement cela.
On vit un tournant majeur dans le petit monde des CG gamer, un peu comme à la mort de 3Dfx. Mais bon, wait and see....

Ouhlala
02/11/2009, 21h42
Voilà, c'est exactement cela.
On vit un tournant majeur dans le petit monde des CG gamer, un peu comme à la mort de 3Dfx. Mais bon, wait and see....


ou une simple strategie marketting.

Ati , avant la sortie de ses series 4000 était pas en grande forme. Ils ont crée la surprise avec un rapport prix/performance hallucinant .
La seule chose prévisible, c'est qu'ils ne semblent pas près , mais bon, Ati ne l'est pas non plus, avec la rupture de stock de ses 58XX .

Gwenn
02/11/2009, 21h50
Si on regard les HD4xxx par rapport au HD3xxx, l'écart de perfs n'est pas transcendant, tout comme l'écart de perfs entre les HD58xx et les HD48xx n'est pas non plus à sauter au plafond.
Et même si on prend la HD5870, elle est moins puissante que la GTX295 (ouais double carte et tout et tout, mais elle est quand même moins puissante) et à peine plus puissante qu'une GTX285 qui n'est pas non plus toute jeune.

Donc j'ai envie de dire que chez ATI ça stagne depuis un petit bout de temps, mais au final osef un peu tant que nous les joueurs pouvons avoir des cartes performantes pour des prix raisonnables, ce vers quoi semble s'être orienté ATI (volontairement ?), et qui lui réussit plutôt pas trop mal.

Thamior
02/11/2009, 22h02
Moins puissante que la GTX295? A peine plus puissante que la GTX285? On parle de la 5850 alors...

J'aimerais bien voir les tests que tu as lu quand même.

En plus, les drivers sont tout jeune, au contraire de ceux du GT200...Donc l'écart risque de s'agrandir.

Vincent41100
02/11/2009, 22h11
J'ai vu des videos avec des tests comme quoi il y avait 2 fois plus d'images par sec dans crysis avec la gtx 295 que hd5870.

Raphyo
02/11/2009, 22h12
jor §

Thamior
02/11/2009, 22h12
Moi j'ai vu des videos ou la GTX295 servait à autre chose que chauffer la maison de son propriétaire. True story.

Pour faire constructif, j'aimerais bien les voir tes vidéos.

Akajouman
02/11/2009, 22h47
J'ai vu des videos avec des tests comme quoi il y avait 2 fois plus d'images par sec dans crysis avec la gtx 295 que hd5870.

Exemple qui sert d'argument pour se rassurer d'un achat que tu regrettes au fond de toi même.


Écoute le grand sage Ling-Fu :ninja:

Vincent41100
02/11/2009, 23h12
Je ne suis pas daccor avec vous : la gtx295 est plus puissante que la HD5870
Déjà, la gtx295 est en 512bits, alor que la hd5870 est en 256bits. après ...
bande passante : environ 221go/sec pour la gtx295 et 143 pour la hd5870
C'est en voyant tous ses tests coérrents que je me suis décidé a acheter la gtx295.
Désolé d'en vexer quelques uns mais ses en quelques sort "mathématique": la gtx295 est plus puissante que la hd5870 !! =)

Thamior
02/11/2009, 23h17
La GTX295 a un bus 512 bits, certes, mais la 5870 a de la GDDR5, qui a une BP doublée par rapport à la GDDR3, ce qui équivaut donc à avoir un bus 512 bits avec de la GDDR3.
En plus ça réduit la complexité du GPU dans la mesure ou un bus 512 bits c'est bien galère.

En puissance de calcul brute, elle est aussi plus puissante, ~1.7Tflops vs ~2 Tflops.

Et la bande passante mémoire est plus élevée sur la Nvidia tout simplement car il y a deux GPU, deux fois le nombre de controleurs mémoires, et donc deux fois la BP d'une GTX275 (ou 260, je ne sais plus), mais ça ne l'avance pas à grand chose.

On ne parlera même pas du rapport performances par watts...Deux fois la consommation pour jamais deux fois les performances, enfin c'est inhérent au SLI et au Multi GPU en général.

Baser son achat sur les chiffres et les tests synthétiques plutôt que sur les tests pratiques, ce n'est pas exactement la bonne méthode, en informatique.

Grosnours
02/11/2009, 23h19
Gtx260.... :|

Vincent41100
02/11/2009, 23h23
la GTX295 est elle beaucoup plus puissante qu'une GTX280 OC ?

---------- Post ajouté à 23h23 ----------

La GTX295 est elle beaucoup plus puissante que la GTX280 OC ????

Blackstaff
02/11/2009, 23h24
Oui, la GTX 295 un peu plus puissante, mais il n'y a pas DirectX 11 (inutile en ce moment, certes), et tout les problèmes inhérents aux cartes bi-GPU. Donc pas plus puissant sur tout les jeux, et très (trop dépendant) des drivers pour la gestion du bi-GPU.

Enfin, mis à part cela, en lisant les articles de Demerjian comme l'a cité Grosnous, on a en effet des chances de vivre un tournant majeur...

Il n'y a aucun moyen de savoir ce que nVidia prépare...
Doit t'on s'attendre à une nouvelle architecture ratée comme les Geforce 5 ? Ou la descendante spirituelle de la 8800GTX, qui permettra de jouer tout à fond dans les deux prochaines années ?
Ou bien un GPU concurrentiel des HD58x0, mais en retard ?
Au vu de la dernière génération, avec des carte un poil plus puissante, mais trop chère, c'était loin d'être bien parti.

Tout le monde est dans le flou, et cela me donne bien envie de supposer que nVidia est loin de nous pondre la carte révolutionnaire pour les jeux.

Thamior
02/11/2009, 23h24
Ca dépend, quand le jeu supporte les deux GPU ou quand il en supporte qu'un seul?

Pour arrêter le troll, une GTX295 est plus puissante qu'une GTX280 ou 285, o/c ou pas, mais je ne vois pas à quoi ça nous avance vu que même la 5850 fait a peu près jeu égal avec une GTX285...

Sinon, Fermi à l'air d'être quelque chose qu'on ne verra pas spécialement dans nos tours, clairement orienté vers les professionnel...
On aurait dit que DX11, ils en parlaient juste pour DirectCompute, et pas du tout pour les joueurs. Je demande quand même à voir ce que ça va donner, en fait, c'est un gros coup de bluff :ninja:

Vincent41100
02/11/2009, 23h25
La GTX295 est elle beaucoup plus puissante que la GTX280oc ???

nesquik
02/11/2009, 23h29
http://forum.canardpc.com/showpost.php?p=2638582&postcount=26 :tired:

Vincent41100
02/11/2009, 23h29
Ma config : Core 2 Duo E8400 / P5E Deluxe / GTX295 Zotac / Corsair TX650W / Kingston HyperX 2x1G 1200Mhz DDR2

Je prévoit de refaire un pc pour mon couzin avec la meme config que j'ai moi mais en changeant la carte graphique.
Qu'elle est la carte graphique la plus puissante du marché ?? (en restant dans les prix raisonnable:500€) ??

Raphyo
02/11/2009, 23h32
Tu vas pas oser monter un dual core avec une gtx 295 quand même ? ôÔ

Vincent41100
02/11/2009, 23h33
Beinh pourquoi raphyo ??

Mouflon
02/11/2009, 23h35
Qu'elle est la carte graphique la plus puissante du marché ?? (en restant dans les prix raisonnable:500€) ??

Pour 500€ t'auras rien de valable...
Prends une Xbox 360 overclockée.

Vincent41100
02/11/2009, 23h37
Bahhhh Xbox Baaahhh !!! =)
Non merci, je préfère les pc

Tilt
02/11/2009, 23h38
ATI 1 -- NVidia 0


Je devrais peut être insérer ces balises dans tous mes messages ?

Raphyo
02/11/2009, 23h42
Beinh pourquoi raphyo ??

Bah faut équilibrer une config', c'est la base.
Une gtx 295 (dont le choix est très critiquable pour n (n tend vers + l'infini) raisons.
Et puis monter une ûber CG de la mort sur un petit éran c'est inutile, sur un 19 " une gts 250 fera tout marché à fond.
Un I5 750, 4 go de ram, une 5870 une corsair vx 550, un f3 go, une p55 ud3, une 5870, le tout monter dans un haf 922 constitue un exemple de config' top moumoute pour le jeu...

---------- Post ajouté à 23h42 ----------



ATI 1 -- NVidia 0


Je devrais peut être insérer ces balises dans tous mes messages ?

Non, en ce moment nvidia est dans les choux...

Tilt
02/11/2009, 23h44
Vite faut récolter des fonds pour JohnClaude, il va déprimer et devenir sdf :'(

Vincent41100
02/11/2009, 23h45
Non, en ce moment nvidia est dans les choux...

Et ati va finir a la morgue avec les gt300 :p

Grosnours
02/11/2009, 23h45
C'est dommage ce topic était intéressant, mais on a pas pu éviter le troll... :|

Sinon, je rappelle que ce n'est pas la puissance pure de la carte qui compte, mais la manière de s'en servir. :p
Bref, tout est driver-dépendant, comme d'habitude.

newbie06
02/11/2009, 23h55
Ha mince, j'ai raté un lynchage de nVidia ^_^

On s'en fout, ATI sous Linux ne vaut pas le jambon que lançait JP Coffe.

Quant aux ventes de carte profesionnelles, ça m'étonnerait que ça représente peu de chiffre d'affaire.

Et si la division graphique crève, je m'en fous, ils feront plein de Tegra pour emmerder Intel.

Raphyo
02/11/2009, 23h55
C'est dommage ce topic était intéressant, mais on a pas pu éviter le troll... :|


Ça va barder si Ezechiel voit tout ce bordel.

Vincent41100
02/11/2009, 23h57
Question con : Qui est Ezechiel ?

Grosnours
02/11/2009, 23h59
La marche des vertueux est semée d'obstacles qui sont les entreprises égoïstes que fait sans fin surgir l'œuvre du Malin. Béni soit-il l'homme de bonne volonté qui, au nom de la charité, se fait le berger des faibles qu'il guide dans la vallée d'ombre de la mort et des larmes... Car il est le gardien de son frère et la providence des enfants égarés. J'abattrai alors le bras d'une terrible colère, d'une vengeance furieuse et effrayante sur les hordes impies qui pourchassent et réduisent à néant les brebis de Dieu. Et tu connaîtras pourquoi mon nom est l'Éternel quand sur toi s'abattra la vengeance du Tout-Puissant !

Ezéchiel 25 - Verset 17

Et sinon c'est un modo sanguinaire qui va te faire exactement ce qui est décrit ci-dessus ! :o

Vincent41100
03/11/2009, 00h03
=S
C'est pas moi je le jure !! ^^

newbie06
03/11/2009, 00h04
C'est pas Ezéchiel, c'est dans Pulp Fiction :p

PS - Et c'est le verset 10...

Raphyo
03/11/2009, 00h13
La marche des vertueux est semée d'obstacles qui sont les entreprises égoïstes que fait sans fin surgir l'œuvre du Malin. Béni soit-il l'homme de bonne volonté qui, au nom de la charité, se fait le berger des faibles qu'il guide dans la vallée d'ombre de la mort et des larmes... Car il est le gardien de son frère et la providence des enfants égarés. J'abattrai alors le bras d'une terrible colère, d'une vengeance furieuse et effrayante sur les hordes impies qui pourchassent et réduisent à néant les brebis de Dieu. Et tu connaîtras pourquoi mon nom est l'Éternel quand sur toi s'abattra la vengeance du Tout-Puissant !


Y à pas à dire, on rigole bien ce soir :lol:

Thamior
03/11/2009, 00h18
Mais, abusay, c'est moi qui l'ait faite, celle là, je proteste formellement !

newbie06
03/11/2009, 00h22
Mais, abusay, c'est moi qui l'ait faite, celle là, je proteste formellement !
Jules Winnfield ? Dans mes bras ! Allez baisse ton pantalon, j'ai un truc à te raconter...

Raaaaaaaaaah ça m'a trop donné envie de revoir le film ^_^

Akajouman
03/11/2009, 00h28
Ouah c'est du grand n'importe quoi ce topic !!

Vincent41100, on dirait que c'est un de vous qui fait exprès de foutre le bordel avec son GTX295 de Nvidia c'est trop de la bombe youpi trop puissant yeah top moumoute de la mort qui tue le poney de barbie avec des couteaux de dinette de martine qu'elle utilisait pour jouer dans "martine à la campagne"

Bref prévenez-moi si c'est un topic de déconne ou pas! :tired:

Parce que moi, je vais plus avoir confiance en vous! :cry:

Thamior
03/11/2009, 00h42
/summon Ezechiel

newbie06
03/11/2009, 00h45
@Akajouman : ne t'en fais pas, c'est parti en sucette, même si la question originale était intéressante.
Quant à la GTX295, tu l'oublies, elle n'a aucun intérêt face à une 5870.

Akajouman
03/11/2009, 00h56
@Akajouman : ne t'en fais pas, c'est parti en sucette, même si la question originale était intéressante.


Oui, mais c'est de la "sucette comique" nan? :(



Quant à la GTX295, tu l'oublies, elle n'a aucun intérêt face à une 5870.

Je plussoie très fortement!

Kamicaz
03/11/2009, 01h14
Vincent41100, on dirait que c'est un de vous qui fait exprès de foutre le bordel avec son GTX295 de Nvidia c'est trop de la bombe youpi trop puissant yeah top moumoute de la mort qui tue le poney de barbie avec des couteaux de dinette de martine qu'elle utilisait pour jouer dans "martine à la campagne"


Merci, tu m'as fait rire. ^_^

charlie_the_warrior
03/11/2009, 02h51
Bahhhh Xbox Baaahhh !!! =)
Non merci, je préfère les pc
Prends 2 gtx295, en dessous c'est pour les n00b et les sales pauvres de l'informatique de la technologie du windows multimédia:ph34r:

(sur ce je retourne sur les forums de JV.com);)B)

Plus sérieusement considérer aujourd'hui que 500€ dans une cg est une somme raisonnable...c'est ridicule.:|
Pour 130€(et même un peu moins, je me base sur la 4870) on fait tourner 95% des jeux actuels à fond; et en réduisant très peu les détails pour les 5% restants.
Aussi, ta config ne justifiait en aucun cas l'acquisition d'une cg ultra haut de gamme; enfin surtout celle là : le bi-gpu cay que des emmer$§^* !

Enfin, j'espère que tu ne vas pas dire à ton cousin de s'acheter un e8400, une p5e et 2goDDR2 parce-que ce genre de config et tout simplement dépassé. Enfin ça marche très bien aujourd'hui, mais niveau rapport qualité/prix on peut avoir beaucoup mieux.

Kimuji
03/11/2009, 05h00
Sinon il peut essayer de monter une HD5870 avec une gtx295 en slycrossfire, il restera plus qu'a rajouter une alim de 2000 watts, mais la bonne nouvelle c'est qu'il aura pas besion de chauffage cet hiver.

Kass Kroute
03/11/2009, 07h32
Sinon il peut essayer de monter une HD5870 avec une gtx295 en slycrossfire, il restera plus qu'a rajouter une alim de 2000 watts, mais la bonne nouvelle c'est qu'il aura pas besion de chauffage cet hiver.
Bonne nouvelle... ou pas (http://www.latribune.fr/entreprises/industrie/energie-environnement/20091031trib000439042/risque-de-coupure-d-electricite-cet-hiver.html) :rolleyes:

Même si les derniers GPUs ne sont pas monstrueusement plus puissants, il reste que DX11 devrait permettre aux développeurs d'utiliser plus facilement les cores de nos processeurs de gamers.
Reste à voir ce que ça donnera vu que le marketing l'emporte souvent sur l'optimisation :|

J'ai l'impression qu'on est en pleine transition : plus de quad cores (deux Config' de canards sur trois), plus d'OS 64 bits (grâce au DVD fourni avec 7), l'arrivée de DX 11...

Par contre, c'est clair, j'aimerais pas être à la place du gamer qui doit acheter une carte graphique en cette fin d'année :sad:

chtiprof
03/11/2009, 09h05
Par contre, c'est clair, j'aimerais pas être à la place du gamer qui doit acheter une carte graphique en cette fin d'année :sad:

tu as bien cerné mon gros dilemne de ette fin d'année :tired:. J'avais commandé il y a 3 semaines une ATI 5850 pour ma nouvelle config (ainsi qu'un écran 22'' iiyama 2206ws-b1) .... et tout cela est en rupture de stock (pour le reste, le feebback est pour ce week-end).
Pour l'écran, je me suis rabattu sur un samsung 2233rz (le fameux écran 120hz, 3D.... si j'ai une geforce ). Ce changement a chamboulé mon choix de carte graphique car pourquoi pas se laisser tenter par une geforce pour pouvoir s'orienter vers la 3d. Or ils tardent à venir sur le marché du directx 11. Je me suis arrangé avec le magasin d'informatique qui va me preter une carte en attendant (une 9600gt (à 2 jours pres, il me proposait une 9800gtx+ qui aurait été un peu mieux)).
Je pense que la 9600gt me permettra de patienter et de voir ce que va produire nvidia et il sera alors temps d'aviser et d'ici là, dans le cas où les nouvelles géforces ne sont pas bien (soit pas au top, soit trop chere), il sera toujours temps de se rabattre sur la ati .

newbie06
03/11/2009, 10h27
Voila, c'est exactement ce que je t'aurais conseille : garde ta CG actuelle et patiente un peu :)

Pour le DX11 difficile de dire si c'est vital. J'ai vu une chouette demo l'utilisant (Unigine), mais les editeurs de jeu ne sont pas idiots, leurs jeux marcheront sur des cartes un peu plus anciennes.
Donc a toi de voir s'il vaut mieux avoir la 3D nVidia ou DX11 ATI (indice : y'en a un deux qui est actuellement exploite, pas l'autre :p).

chtiprof
03/11/2009, 10h32
Voila, c'est exactement ce que je t'aurais conseille : garde ta CG actuelle et patiente un peu :)


Ca ne va pas être folichon de tourner avec une gt9600 je crois ... mais ça restera bien mieux que ma 7400 actuelle sur mon portable :p

Raphyo
03/11/2009, 10h38
Ca ne va pas être folichon de tourner avec une gt9600 je crois ...

Une fois o/c ses perfs égalent presque une 8800 gt, et puis c'est pas si mal comme CG :o

chtiprof
03/11/2009, 10h42
Une fois o/c ses perfs égalent presque une 8800 gt, et puis c'est pas si mal comme CG :o

Merci raphyo, c'est rassurant. Par contre je ne compte pa o/c et je patienterai car comme la CG n'est pas à moi, je ne vais pas risquer de l'abimer :p

ps: pendant que j'y suis, pensez vous qu'ATI va mettre au point un driver pour les 58** pour qu'elle puisse faire de la 3D, avec un système de lunettre équivalent à nvidia ?

Raphyo
03/11/2009, 10h47
ps: pendant que j'y suis, pensez vous qu'ATI va mettre au point un driver pour les 58** pour qu'elle puisse faire de la 3D, avec un système de lunettre équivalent à nvidia ?

J'avais cru lire une news sur PCI à ce propos, je vais la chercher :o
Edit : http://www.pcinpact.com/actu/news/53551-amd-3d-stereo-radeon-vision.htm?vc=1
Rien de concert quoi :emo:

ATP
03/11/2009, 10h54
Rien de concert quoi :emo:fixed : concret (halala ces correcteurs automatique :p).

Raphyo
03/11/2009, 10h56
Non, ce n'est pas une faute :lol:
:mauvaise foi:

chtiprof
03/11/2009, 11h04
J'avais cru lire une news sur PCI à ce propos, je vais la chercher :o
Edit : http://www.pcinpact.com/actu/news/53551-amd-3d-stereo-radeon-vision.htm?vc=1
Rien de concret quoi :emo: :p:p

J'avais lu la même info et j'en ai tiré les mêmes conclusions (info ou intox... y a plus qu'à attendre).
Mais je peux d'ore et déjà dire que s'il s'agit d'une info et que d'ici peu cela devient offciel. Je repartirai à la recherche de la désirée 5850 qui sera (et je pense vraiment pas me tromper) bien plus abordable que les hypothétiques geforce nouvelle génération. ATI a tout intérêt à se pencher sur la question car je pense (mais je peux me tromper) que la 3d est plus attractive pour le consomateur lambda que le multi écran. S'ils se lance là dedans, ils auront tout à y gagner et ils récupéreraient des parts de marché.

Vincent41100
03/11/2009, 15h57
Bon bah je vais renvoyer ma GTX295 et je vais surement achetter une HD5870 qui prend en charge le DirectX11!

Kecheu
03/11/2009, 17h37
La brebis égarée est rentrée dans le droit chemin :)

Tilt
03/11/2009, 19h18
RIP nvidia, puis ATI va bientôt RIP aussi, coulé par la division des processeurs amd.
C'est pas terribles les cartes graphiques en ce moment.

johnclaude
03/11/2009, 19h21
Soyez à l'heure soirée suicide collectif chez Tilt ce soir.
Venez nombreux!

Gwenn
03/11/2009, 19h21
Heureusement qu'intel et son larrabee est là pour nous sauver la mise :)

Raphyo
03/11/2009, 19h29
T'oublis VIA :lol:
:cry:

Grosnours
03/11/2009, 19h29
Heureusement qu'intel et son larrabee est là pour nous sauver la mise

Bien sur, et tout en ray-tracing en plus ! :lol:
Sacré gwenn, toujours le mot pour rire !

Gwenn
03/11/2009, 19h44
Ben ouais quoi, larrabee c'est comme un bébé, là ils font tourner unreal tournament dessus (en 800x600 ? :ninja: ) mais quand ils sauront mieux maitriser la puissance de l'engin, crysis 4 tournera sans problème sur 16 écrans en simultané sans le moindre lag et à 200 img/s.

Non ?

Ek-ZutWar
03/11/2009, 19h53
Bon bah je vais renvoyer ma GTX295 et je vais surement achetter une HD5870 qui prend en charge le DirectX11!

Je te l'échange contre un sli de 8800 GT :ninja:.

Frypolar
03/11/2009, 23h18
Ben ouais quoi, larrabee c'est comme un bébé, là ils font tourner unreal tournament dessus (en 800x600 ? :ninja: ) mais quand ils sauront mieux maitriser la puissance de l'engin, crysis 4 tournera sans problème sur 16 écrans en simultané sans le moindre lag et à 200 img/s.

Non ?

MfTUaG3nI98

Ek-ZutWar
04/11/2009, 12h18
Pas importante l'info sur l'arrêt de la prod des GTX2xx ? :wtf:
C'est une nouvelle capitale au contraire.

C'est la fin de Nvidia sur le marché moyen et haut de gamme.

Tu classerais la GT240 dans le bas de gamme ? C'est vrai que ça n'a pas l'air fameux cette déclinaison cheapos du GT2XX : http://www.presence-pc.com/actualite/NVIDIA-GeForce-GT240-37031/#xtor=RSS-11

Grosnours
04/11/2009, 12h26
Tiens j'ignorais l'existence de cette carte. ;)
Oui, effectivement, je dirais entrée de gamme, là où les ventes se font somme toute.
Je note au passage qu'il s'agit d'un GPU gravé en 40nm, ce qui me fait dire que le GPU n'est sans doute pas basé sur les GT200, mais plutôt sur des G9x modifiés.

Frypolar
04/11/2009, 12h42
Si 2xx < 260 alors c'est une ancienne carte renommée.

Ezechiel
04/11/2009, 12h42
Mon Dieu j'avais pas vu ce topic :megafacepalm:

Ouais, c'était mieux en première page, là y a du vrai du bon débat. Après.... Je vais pas coller des points 48h après la guerre (putain mais que font mes gorges profondes, personne me prévient!) mais gaffe à l'orthographe et le multi post jusqu'à avoir une réponse ça énerve très vite. Après l'ambiance est restée globalement cordiale alors...


Sinon j'aimerais bien qu'on m'explique comme Nvidia sortirait des CG avant Noël, CG dont on ne sait rien ou presque... Ils sont aux fraises je crains. Et comme Grosnours (décidement), je ne crains pas la disparition de Nvidia sur le segment parce que j'aime Nvidia, mais parce que la concurence c'est le bien.

Ek-ZutWar
04/11/2009, 13h12
Si 2xx < 260 alors c'est une ancienne carte renommée.

Ouep, mais d'après ce que j'ai vu, certaines GT240 embarqueraient de la G-DDR5, mais même avec ça elles seraient à peine équivalente à une HD4850. Ça sent le plantage.

Apokteino
04/11/2009, 20h06
Le GT300 en décembre c'est clairement pas possible. Déjà qu'ATI a des problèmes quand à la disponibilité de ces cartes, nVidia est pas sorti de la galère dans laquel ils ont plongé. Premièrement on ne sait presque rien des prochaines cartes, deuxièmement le temps de finir la conception, de distribuer le modèle aux constructeurs, de produire la carte, et de faire en sorte qu'elle soit réellement disponible sur le marché, on ne peut qu'espérer voir du Fermi pour mars minimum.

Raphyo
04/11/2009, 20h09
Parait qu'une carte sera présenté à l'ECS :
http://www.comptoir-hardware.com/actus/cartes-graphiques/8769-les-dernieres-rumeurs-sur-fermi.html

. La première plutôt bonne serait que Nvidia serait capable de présenter un sample fonctionnel de Fermi lors du CES 2009 qui aura lieu du 7 au 10 novembre. Or d'autres rumeurs racontent que Fermi ne se trouverait en boutiques pas avant février, voire mars 2010.

Grosnours
04/11/2009, 20h10
Présentée cela ne veut rien dire, cf la dernière "présentation" du Fermi.... :p

Raphyo
04/11/2009, 20h22
Présentée cela ne veut rien dire, cf la dernière "présentation" du Fermi.... :p

Si il y a une vraie carte qui tourne, ce sera déjà une avancée (je pense à la carte faké ...).

Møgluglu
04/11/2009, 21h06
Je note au passage qu'il s'agit d'un GPU gravé en 40nm, ce qui me fait dire que le GPU n'est sans doute pas basé sur les GT200, mais plutôt sur des G9x modifiés.

La GT 240 sera bien à base de GT215, comme les GTS 260M et GTS 250M sorties en juin 2009 dans l'indifférence générale.

Ça fait suite à la sortie des GT 220 et G210, qui sont les équivalents desktop respectifs des GT 230M et G210M, basés sur le GT216 et GT218 (C'est pourtant simple non? :p)

Ces 3 GPU sont les dérivés du GT200 bas de gamme tant attendus (ou pas), en 40nm et qui supportent la GDDR5 et DirectX 10.1.

Pour ceux qui ont mal à la tête :
http://en.wikipedia.org/wiki/GeForce_200_Series

Grosnours
04/11/2009, 21h46
Non, c'est clair en plus... :p
Dommage que la page manque cruellement d'explications complémentaires et de liens à propos des GT216 et GT218, en particulier le classement du GT216 comme High-End qui m'intrigue.
Sans compter bien sur la finesse de gravure, enfin maitrisée ou est-ce que c'est elle qui impose la diminution drastique du nombre de transistors (et de la bp mémoire et des perfs) ?
Bref, c'est intéressant mais là, il faut que j'aille me coucher...

Møgluglu
04/11/2009, 22h14
Non, c'est clair en plus... :p
Dommage que la page manque cruellement d'explications complémentaires et de liens à propos des GT216 et GT218, en particulier le classement du GT216 comme High-End qui m'intrigue.


Tu as vu ça où? Le GT216 c'est clairement du low-end ("entry-level").

Comme lien, par exemple :
http://www.anandtech.com/video/showdoc.aspx?i=3657



Sans compter bien sur la finesse de gravure, enfin maitrisée ou est-ce que c'est elle qui impose la diminution drastique du nombre de transistors (et de la bp mémoire et des perfs) ?

Je dirais ça dans l'autre sens, le fait que ces GPU aient peu de transistors font qu'ils sont fabriquables dans un process récent avec un yield raisonnable. Et en volume. (NV prétendait occuper 80% de la production en 40nm de TSMC ou quelque chose comme ça...)

La gamme prévue depuis le départ, c'est GT200b > G92b > GT215 > GT216 > GT218.
Sauf que le GT200 est pas rentable et le G92 se fait un peu vieux, d'où un trou dans la gamme...
Peut-être en attendant un dérivé de Fermi, alors que ça n'aurait pas valu le coup de faire un "GT210" en 40nm d'une durée de vie de quelques mois...



Bref, c'est intéressant mais là, il faut que j'aille me coucher...

Ah, c'est vrai que les ours se couchent tôt de ce côté de la Méditerrannée.

Grosnours
05/11/2009, 07h52
Tu as vu ça où? Le GT216 c'est clairement du low-end ("entry-level").

Comme lien, par exemple :
http://www.anandtech.com/video/showdoc.aspx?i=3657

Sur le coté droit de la page wiki, ils indiquent :
High-end GPU GTX 260, GTX 260 Core 216, GTX 275, GTX 280, GTX 285, GTX 295

Alors certes c'est Core 216 et pas GTX 216 (pourquoi d'ailleurs ?) et c'est wiki ce qui indique une fiabilité à géométrie variable, mais je me posais la question, ayant bien compris qu'il s'agissait en effet d'entrée de gamme. ;)



Je dirais ça dans l'autre sens, le fait que ces GPU aient peu de transistors font qu'ils sont fabriquables dans un process récent avec un yield raisonnable. Et en volume. (NV prétendait occuper 80% de la production en 40nm de TSMC ou quelque chose comme ça...)

La gamme prévue depuis le départ, c'est GT200b > G92b > GT215 > GT216 > GT218.
Sauf que le GT200 est pas rentable et le G92 se fait un peu vieux, d'où un trou dans la gamme...
Peut-être en attendant un dérivé de Fermi, alors que ça n'aurait pas valu le coup de faire un "GT210" en 40nm d'une durée de vie de quelques mois...

Cela permet de mieux comprendre la stratégie NVidia, la sortie de ces GT216 et GT218 "assurant leur arrières" du point de vue entrée de gamme, au vu de la date de sortie toujours incertaine du Fermi et d'un éventuel dérivé bas de gamme.
Je n'irais pas jusqu'à dire que cela annonce un Fermi en retard, mais comme tu le dis ils doivent bien avoir des raisons pour le lacer quand même et en si grand volume ce GPU.... :)



Ah, c'est vrai que les ours se couchent tôt de ce côté de la Méditerrannée.
Encore plus quand ils ont de petites oursonnes turbulentes... :p

Thamior
05/11/2009, 13h47
Le GTX 260 Core 216 ne fait pas référence au GT216 mais au nombre d'unités de calculs dans le GT200b de la GTX260. Mais vu que ce que je viens d'écrire est incompréhensible, je recommence :

Quand la GTX260 est sortie, elle avait 192SP, et après (GT200b?) ils ont sorti une version plus performante avec 216SP, que certains constructeurs ont rebaptisé "Core 216", mais c'est purement une coïncidence.

Grosnours
05/11/2009, 14h03
Ah ok, tout s'explique (en particulier l'absence de virgule :)), mais alors dans ce cas là il manque le GT216 dans le tableau de droite sur la page wiki.

Møgluglu
05/11/2009, 16h44
dans ce cas là il manque le GT216 dans le tableau de droite sur la page wiki.

Si si, c'est le (GeForce) GT 220 dans Entry-level.
(Note l'espace entre GT et 220 : c'est un nom commercial de carte graphique. Le GPU correspondant a pour nom de code GT216 sans espace, le tableau en dessous fait la correspondance entre les deux.)

Pour simplifier les choses, les noms commerciaux sont classés par puissance relative, alors que les noms de codes sont classés par ordre chronologique, ce qui donne en général le classement exactement opposé...

Grosnours
05/11/2009, 17h32
:wacko:
La nomenclature NVidia me réussit mal... :p
Tiens d'ailleurs ta dernière remarque me fait songer qu'effectivement, la marque au caméléon a l'habitude de sortir la carte la plus haut de gamme tout de suite, puis de décliner la gamme en jouant sur l'archi revue à la baisse et sur d'éventuelles optimisations au fil du temps.
Ce qui n'est pas forcément le cas d'ATI, qui monte parfois en puissance plus progressivement.

EDIT : oui, ce post n' aucun intérêt comme la plupart des interventions aujourd'hui, mais bon on va dire que je suis fatigué et que de ne pas réussir à downloader DAO m'agace....

Frypolar
05/11/2009, 17h45
EDIT : oui, ce post n' aucun intérêt comme la plupart des interventions aujourd'hui, mais bon on va dire que je suis fatigué et que de ne pas réussir à downloader DAO m'agace....

J'allais justement te demander ce que tu en pensais ^_^.

JojoLeMerou
06/11/2009, 14h49
Yop !

J'ai une pitite question sur le PhysX.

J'explique : je possède une gentille 9600 GT qui me rend bien service.
Mais comme je vais gagner à l'Euromillions ce soir et que je suis un gros radin, je voulais me racheter une petite carte graphique et utiliser la 9600 GT en carte PhysX.

Donc, que puis-je acheter sachant que j'ai une CM Crossfire Radis ? Une ATI ? Une GeForce ? Aucune, change de PC feignasse ?

Blackstaff
06/11/2009, 15h39
Officiellement, il te faut une nouvelle GeForce en carte principale, et tu dédieras la 9600GT au PhysX dans les drivers.

Il y a justement eu une polémique récente sur le fait que nVidia ait désactivé les possibilités de mettre une carte secondaire dédiée à la PhysX (une nVidia ou même une AGEIA), si la carte principale est une ATI.
Mais un patch non officiel a déjà fait son apparition pour régler le problème, reste à savoir comment nVidia va réagir.
A noter que ce mélange ATI/nVidia ne serait possible que sur Win 7.

JojoLeMerou
06/11/2009, 15h54
Merki, de toutes façon je prendrais sûrement une GeForce, mais je voulais surtout savoir si ça posait un problème par rapport à ma CM ?
Il faut qu'elle soit forcément SLI radis ?

war-p
06/11/2009, 16h55
Bha, normalement, les Geforces milieu/ haut de gamme actuelles sont toutes compatible SLI...

johnclaude
06/11/2009, 17h16
Je pense qu'il parlait de la carte mère et là non plus pas besoin de compatibilité sli, puisque ce n'est finalement pas du sli.

JojoLeMerou
06/11/2009, 17h18
Merci John C. :)

Questions subsidiaires :
Quand sortent les prochaines nVidia ?
Dans la gamme actuelle, c'est quoi le bon milieu de gamme (genre environ 150 €) ?

johnclaude
06/11/2009, 17h21
une gtx275 (design de référence si possible, les gainward ont un ventilo un poil moins bon) ça tourne bien mais c'est un peu cher. ca ne craint pas grand chose en 1900x1200, sinon reste la gtx260 un cran en dessous mais pas non plus à la rue.

unpierrot
07/11/2009, 11h45
Questions subsidiaires :
Quand sortent les prochaines nVidia ?


Je ne suis même pas sur que nVidia le sache. :ninja:

Le Fermi était annoncé à la vente en décembre. Maintenant c'est une présentation en décembre et une disponibilité en février.

Perso, pas sûr que février regorge de carte nVidia.