Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Affichage des résultats 1 à 30 sur 30
  1. #1
    Au fond de nous, nous devons tous reconnaître que notre magnifique intérêt pour le Hardware est la manifestation d'une passion morbide pour le pugilat. Prenez les fabricants de cartes graphiques tiens, depuis plus de 10 ans le milieu ressemble à une saison trop longue de Dallas avec nVidia et ATi dans le rôle des Ewing et des Barnes. Et bien sur l'immonde JR est ici campé par Intel, leader incontesté des chips graphiques grâce à ses GMA intégrés dans les PC de toutes les mesdames Michu de France. D'ailleurs, tout comme le vrai JR, Intel fomente un plan diabolique destiné à faire tomber ses concurrents appelé Larrabee ; sauf que cette fois pas sur que notre JR perde inexorablement à la fin. Par contre quand c'est le client qui écope, on se dit que c'est dommage que la vie ne ressemble pas un peu plus à Happy Days.

    Avec la sortie de Windows 7, des Core i5 et à l'approche des fêtes de fin d'année, la période actuelle est stratégique pour les acteurs du marché. Cette fin d'année 2009 s'annonce comme le moment idéal pour vendre du PC dernier cri à la FNOC, et si possible avec du ATi ou du nVidia dedans. Manque de pot pour ce dernier, Fermi est en retard, ce qui est dommage pour l'image de marque, et les coûteuses GT2xx souffrent d'une concurrence féroce de AMD sur tout les segments de prix. Alors que faire quand on n'a pas d'offre attractive ? Créer le besoin avec des fonctions "exclusives" à la nouvelle gamme, et si ça ne suffit pas couper le support des anciens produits pour pousser à l'achat.

    Mais revenons a à l'origine notre problème. Au départ, tout cela provient d'une illumination de la section drivers qui décida d'oublier de verrouiller l'utilisation du PhysX au seules config nVidia pour le package Windows 7. Concrètement, cela signifiait qu'on pouvait utiliser une Geforce 8 ou supérieure comme carte PhysX, et ce y compris en utilisant une carte ATi en tant que carte principale. Il suffisait pour cela d'installer les deux drivers et de définir la carte ATi comme carte principale. Une manipulation enfantine qui permettait aux joueurs de recycler leur vieilles GeForce tout en profitant de leur carte ATi flambant neuve. Les premiers retours enthousiastes prouvèrent que la solution était tout à fait au point et que le PhysX était finalement capable de fonctionner parfaitement bien de manière indépendante à a carte principale. Bref, une situation sympathique et qui aurait même pu profiter à nVidia pour vendre des GeForce en tant que co-processeur physique.

    Seulement voilà, nVidia, fâché de ne plus avoir son argument marketing bidon pour vendre des Gtx2xx, décida qu'à partir de la branche 186 cette fonctionnalité serait supprimée. Fini de tergiverser, les joueurs étaient priés de ranger leur ATi pour acheter une GeForce flambant neuve si ils voulaient continuer à utiliser le PhysX. Moche. Mais apparemment la fonction avait été retirée à la serpe, à tel point que le nouveau driver Physx, en l'absence d'un GPU nVidia pour l'affichage, coupait non seulement le support des GeForce pour l'accélération physique, mais également celui de la carte Ageia PhysX. Un choix particulièrement douteux étant donné que le PPU était vendu à l'époque par un Ageia encore indépendant et qu'il était justement censé permettre une accélération sur n'importe quelle machine. Les pauvres pigeons qui avaient déboursés 200 euros à l'époque pour une carte particulièrement inutile apprécieront de s'être fait doublement rouler. Mais ce n'est pas fini...

    Les mêmes possesseurs d'Ageia PhysX auront en effet le plaisir d'apprendre quelques jours plus tard via une interview accordée à PhysXinfo.com que le support de leur carte avait tout simplement été abandonné pour Windows 7 et qu'ils était priés de rester sous Vista ou d'acheter des GeForce. La dite interview, un vrai modèle de langue de bois, nous apprenait également que la désactivation du PhysX en présence d'une carte étrangère pour l'affichage était "pour optimiser les performances" et que c'était parceque "Sans assurance qualité, il est risqué d'utiliser ce genre de configuration, donc nous avons retiré cette possibilité dans les dernières versions du driver". Bref, si on retire des fonctions c'est pour votre bien, circulez y'a rien à voir et merci d'acheter nVidia.
    Notez toutefois qu'un dénommé GenL du forum ngohq a développé un petit outil nommé PhysX Mod qui permet de rétablir le support du PhysX avec les drivers actuels. A priori ça marche pas mal.

    Normalement c'est maintenant que les fans d'ATi se gaussent en lustrant leur 5870 toute neuve. Manque de pot, les nouvelles ne sont pas plus réjouissantes de l'autre coté. Tout d'abord on a appris que les Radeon HD 5850 verront leur prix augmenter de 20 dollars d'ici peu. Oui oui, augmenter. Le prix officiel de la carte passe donc de 259$ à 279$. Un geste pas franchement honorable pour un AMD habitué à casser les prix, mais il faut croire que jouer à "qui à la plus petite" (marge, bien évidemment) est un jeu qui devient beaucoup moins amusant lorsque la concurrence est absente. Le consommateur appréciera.

    Enfin, la dernière nouvelle nous vient encore d'AMD via Fudzilla, qui a eu l'amabilité de réserver une petite surprise à ses clients venant télécharger les derniers drivers pour leur carte. AMD a donc annoncé dans une note de version qu'il allait stopper le support des cartes X19xx et tout modèles inférieurs sous Windows 7, soit tout les modèles non-DirectX 10. Une initiative là encore bien honteuse, qui touche au ridicule quand on se rend compte que cela inclus également une longue liste d'IGP intégrés dans pas mal d'ordinateurs portables, mais surtout la version de base du chipset de l'AMD Neo introduit seulement en début d'année. Heureusement AMD n'est pas chien et vous propose sans vergogne sur la page d'installer les drivers pour Windows Vista qui "devraient" marcher. Tout simplement classieux.


    Finalement, il était plutôt sympa quand on y repense ce JR non ?

    Voir la news (2 images, 0 vidéo )

  2. #2

    Putain, c'est pire que ce que je pensais toute cette histoire...
    Le coup d'ATI je l'ai bien dans le cul la... Et ma X1650Pro AGP alors !

  3. #3
    Ce qui est bien c'est qu'en Janvier Nvidia va sûrement recycler ses GT2XX en GT3MX ferme ( c'est à dire moins que fermi ) ta gueule et achète et on va se retrouver avec un Nvidia qui attaque le milieu de gamme où ils sont presque perdants depuis les HD4850 et HD4870, alors qu'ils seront bouffés sur le haut de gamme par les prix peut-être exorbitants des Fermis. On aura alors un complet retournement. Ou pas.
    Spoiler Alert!

    Sinon on dit "fomenter" et pas "formenter", oui je sais c'est chiant, moi aussi j'ai du mal. Y a deux ou trois autres fautes mais j'en fais des pires
    D3-D4 BattleTag : EkZutWar#21856

  4. #4
    De toutes façons je crois que l'accélération PhysX sur du hard spécifique va se casser la gueule assez vite. Sur une scène classique et même avec les effets PhysX accélérés activés de certains jeux, ça pourrait très bien tourner sur les différents cores d'un quadcore. Et ça PhysX non accéléré le fait déjà sans avoir à rien coder et même pour les pseudo-tissus ça peut fonctionner. Une génération de cpu et on fout du tissu partout sans soucis (style drapeaux, etc...).

  5. #5
    Citation Envoyé par MrPapillon Voir le message
    Une génération de cpu et on fout du tissu partout sans soucis (style drapeaux, etc...).

    Pardon c'était trop tentant !

  6. #6
    Citation Envoyé par MrPapillon Voir le message
    De toutes façons je crois que l'accélération PhysX sur du hard spécifique va se casser la gueule assez vite. Sur une scène classique et même avec les effets PhysX accélérés activés de certains jeux, ça pourrait très bien tourner sur les différents cores d'un quadcore. Et ça PhysX non accéléré le fait déjà sans avoir à rien coder et même pour les pseudo-tissus ça peut fonctionner. Une génération de cpu et on fout du tissu partout sans soucis (style drapeaux, etc...).

    Le moteur physique qui fait tourner à 15fps sur 3DMark Vantage c'est le Physx qui passe sur le processeur...


    Edit:
    Et c'est pour ça qu'à la sortie les mec qui activaient le physx de Vantage sur leur gpu explosaient les scores CPU, parce que c'était le GPU qui faisait le calcul, et que par la suite les mecs de future mark ont décidé de carrément virer les résultats de ceux ayant utilisé l'accélération GPU de la galerie de score et de ne plus les prendre en compte.

    Edit2:

    Sinon, 100 unité de calculs pas trop mal cadencé c'est vachement plus pratique pour calculer en simultané des particules que 2/4/6/8 coeurs bien cadencé.

    Les chutes de fps sur mirror's edge en émulation processeur de physx quand on pète une vitre.. voila quoi.
    Dernière modification par Say hello ; 30/10/2009 à 01h08.

  7. #7
    Je ne sais pas ce que fait le Vantage, mais la physique est sensée être calculée en même temps que le rendu graphique. si on bouffe du gpu, on a moins de temps pour du graphisme et c'est ce qui bouffe largement le plus sur une frame(si on met l'ia de côté qui est un cas à part). Ensuite c'est très possible que le vantage foute 50 000 objets actifs à la fois, mais sur un jeu il y a d'autres solutions comme ce que fait Crysis : n'activer les calculs physx que lorsqu'il y a une interaction qui empêche d'utiliser la physique précalculée (tir sur végétation, explosions qui touchent un perso, etc...) et désactiver la physique dès que possible.

    Le gros problème de la physique, c'est la gestion du niveau de détail (moins de détails quand on est loin par exemple) et tout un tas d'optimisations du style. Y a déjà quelques solutions chez havok et bientôt chez PhysX.

    Et dans quelques temps on aura sûrement beaucoup plus de cores et pour le moment ils ne sont utilisés que pour l'ia, les animes et les particules donc la physique a sa place.

    100 unité de calculs
    Pendant un tout petit bout de frame puisque le gpu est utilisé pour le rendu graphique de manière intensive d'autant qu'il y a beaucoup de contraintes qui n'existent pas sur un cpu.
    Sinon les cores du cpu restants à fond sur quasi toute une frame.

    Mais sinon je ne suis pas sûr non plus, c'est juste un pronostic. Pour le moment la physique de masse (débris de vitre, tissus, "fluides", ...) ça pêche un peu, mais justement les choses changeront peut-être avec les prochains cpu.
    Dernière modification par MrPapillon ; 30/10/2009 à 01h43.

  8. #8
    Au moins quand les deux larrons pipotaient leurs résultats de benchmarks, le consommateur ne trinquait pas trop...

  9. #9

  10. #10
    Déjà prendre crysis pour parler de ça c'est un peu à coté de la plaque.
    Crysis c'est loin de ce qu'on fait de mieux niveau optimisation, c'est un argument pour dire "hooo les joli néffet-neyske-gen" pas "un moteur physique optimisé ça marche comme ça".

    Déjà pour montré comment crysis est bien daubé niveau utilisation de processeur, c'est un bench comme ici :
    http://www.canardpc.com/xml/dossiers...ries=undefined
    (descendre un peu jusque crysis)
    Et voir que des processeur avec des performance bien différentes soit aussi bien tranché dans des fourchettes, de voir des Pentium E2200 avec les I7..hmm.. y'a un truc qui tourne pas rond.


    Après pour parler du physx, faut savoir comment il tourne sur la carte.
    Il exploite la puissance de la carte non exploité par le graphique.
    Si le graphique bouffe tout, le physx aura aucune ressource dispo, il tournera lentement, et baisse de fps pour cause de moteur physique ralenti.
    Pour le "calcul quand besoin", c'est pareil pour tous hein, physx va pas calculer des particule qui n'existe pas, de même que le moteur de GTA4, de même que le moteur de crysis.
    Si la particule doit être calculé, les 3 moteurs le feront, ils vont pas tourner dans le vide pour faire plaisir.
    Et c'est là qu'il calcule justement en utilisant les ressources accessibles.

    D'ailleurs pour montrer qu'il calcul "comme pour le moteur de crysis", on tombe dans le cas de mirror's edge:
    -en émulation par cpu, le jeux tourne bien, à 60fps tout ça.. tu casse une vitre, physx calcule les débris de vitre, paf tu passe à 3fps temps que ça tombe.
    -en support par le gpu, tu tourne à 60fps... tu casse une vitre, tu tombe peut être à 45-50fps pendant 1s, le temps que les débris tombent.

    Et encore, l'optimisation de mirror's edge (et la sobriété), qui est optimisé comparé à crysis (ouai t'a pas les même perf pour un Pentium Dual à 40€ et un Quad de dernière génération à 500€), permet peut être de tirer parti d'une quasi infime quantité d'unité du gpu.

    Après même chose pour Sacred 2 qui supporte physx (futilement bien sur) ça bouffe pas toute la carte même en étant en mono gpu avec une 8800.

    Et pour UT3, sur des map physx (même si tout n'est pas destructible, les maps sont conçu comme ça), la grêle qui tombe, la destruction de panneau et de vitre, ne provoquent pas de chute de fps visible pour le joueur.


    Pour les cores dans quelque temps, si tu parle de cpu, c'est 6 coeurs d'ici fin 2010, pas de quoi se taper le cul niveau évolution pour gérer des milliard de polygones d'un coup.
    Et ces solutions sont envisagé dans un contexte où:
    -de plus en plus de personnes mettent 2 carte graph par tour, ou possédent une carte bi-gpu.
    -on peut très bien avoir une gtx260 qui va bourriner les graphiques, et avoir une petite 8800 qui va même pas tourner au 1/2 pour la physique.

    Pour l'instant, ma simple 8800gt tourne sans problème quand je met physx.
    Alors je vois pas une gtx260 lagger sur ça.
    Encore moins une 275 ou une 285..
    Alors Fermi, qui est très orienté "calcul non graphique massivement parallèle" sera certainement foutu de gérer des graphisme de pointe et un moteur physique performant sur une seule puce.

    Pendant un tout petit bout de frame puisque le gpu est utilisé pour le rendu graphique de manière intensive d'autant qu'il y a beaucoup de contraintes qui n'existent pas sur un cpu.
    Sinon les cores du cpu restants à fond sur quasi toute une frame.

    Mais sinon je ne suis pas sûr non plus, c'est juste un pronostic. Pour le moment la physique de masse (débris de vitre, tissus, "fluides", ...) ça pêche un peu, mais justement les choses changeront peut-être avec les prochains cpu.
    Après faut pas foutre à bloc ses espoirs dans les cpu, ils ont leur limite à ce niveau, c'est un défaut conceptuel.

    On parle de calculs massivement parallèle, même monté à 3.5GHz, des cpu à 4 coeurs feront pitié face à une carte avec 240 unité de calcule à plus de 1GHz.

    L'archi d'un gpu est conçu pour calculer de nombreuse opération simples en simultané, idéal pour le calcul de particules par exemple.

    L'archi d'un cpu est conçu pour calculer des algo massif, des opération lourdes le plus vite possible, la fréquence élevée permet juste d'enchainer la séquence d'opération le plus vite possible vu que c'est limité à un traitement linéaire.
    Le système se démerde pour alterner les temps de calcul de processus, mais ça vaut pas une parallélisation, d'où la sortie des multi-coeurs, mais c'est pas la solution parfaite.
    Sinon Intel serait un dieu du monde du graphisme depuis un petit moment, et on galérerait pas avec le ray tracing en 640*480 à 15fps.

    C'est pas pour rien que beaucoup, beaucoup de monde attend beaucoup de choses des solution Direct Compute, Open CL, Dx11, de la tesselation dont a fait démonstration Ati, de la gestion de physx par nvidia...

    Pourquoi tant de monde se tourne vers le calcul par gpu si le cpu est si efficace?
    Dernière modification par Say hello ; 30/10/2009 à 04h27.

  11. #11
    Putain je viens de perdre du temps a lire une news dont je connaissais déjà tout.


  12. #12
    @Say Hello: analyse très intéressante

  13. #13
    Déjà prendre crysis pour parler de ça c'est un peu à coté de la plaque.
    Crysis c'est loin de ce qu'on fait de mieux niveau optimisation, c'est un argument pour dire "hooo les joli néffet-neyske-gen" pas "un moteur physique optimisé ça marche comme ça".
    Crysis dispose d'excellents algos d'optimisations qui sont reconnus : le lod du terrain est exceptionnel (ça gère carrément en fonction de l'occlusion des objets), les shaders d'ambient occlusion et j'en passe. Après que ça rame et qu'il manque de l'optimisation à droite à gauche peut-être, mais certains des algos utilisés sont bons et pris en référence en permanence par les équipes de devs. Ce que j'ai cité sur la physique n'est pas utilisé sur un autre jeu à ma connaissance et garantit des perfs énormes (pas en termes de fps, en terme tout simplement de ce que d'autres jeux ne sont pas capables de faire comme par exemple garantir toute une végétation avec de la physique et qui est assez difficile à organiser au niveau code). Pour faire une comparaison avec gta 4 : tous les objets qui bougent de manière physique sont calculés temps-réel. C'est pas le cas avec Crysis.

    Sinon pour Mirror's Edge, je sais pas trop, vaut mieux prendre l'exemple des gars d'Unreal. Eux sont pour le moment les meilleurs utilisateurs de la techno existante PhysX et les plus à la pointe sur les nouveautés. Je n'ai pas comparé cpu/gpu avec eux, et si t'as des infos là dessus ça m'intéresse.

    Si le graphique bouffe tout, le physx aura aucune ressource dispo, il tournera lentement, et baisse de fps pour cause de moteur physique ralenti.
    Le graphisme bouffe déjà tout en pratique sauf sur des jeux simples graphiquement. L'argument et le reste est aussi valable pour le cpu. Sauf que le multi-core c'est déjà le présent. Il faut pas oublier aussi que pour l'instant très peu de code d'un jeu peut passer sur les différents cores d'un cpu. Peut-être que ça va s'arranger, mais on a une limite à cause de toutes les dépendances. Les demandes cpu de l'ia, animation etc... ne vont pas forcément beaucoup augmenter dans les années à venir ce qui pourrait laisser la place pour le reste (la physique).

    pour gérer des milliard de polygones d'un coup
    On gère jamais des milliards de polys, il y a des algos de segmentation de l'espace et si les objets sont bien foutus, ils sont representés par des formes géoométriques pures ou des convexes qui sont très rapides. Et encore une fois il n'y a que les objets actifs qui sont calculés. Dès que ça bouge plus y a plus rien. Dans une scène normale d'un jeu, on va pas remplir l'écran de merde (sauf dans le cas des fluides, mais ça c'est un truc typique à accélérer hardware, ça je suis d'accord).

    Pour l'argument du multi gpu, je suis d'accord mais on verra si ça se démocratise ou si on va plutôt vers le cpu avec une forte vectorialisation (AVX qui remplacera le SSE et qui permet de gérer 8 opérations à la fois avec encore d'autres subtilités sans parler du pipelining des opérations qui je crois n'est déjà pas présent au sein des de chacune des unités du gpu). Faut pas oublier que mine de rien, le grand public de non joueurs en a rien à foutre de ce que propose le multi-gpu, alors que le multi-cpu apporte aussi des solutions à tout ce qui n'est pas jeu. Pour l'instant les infos sont assez soft à ce niveau, mais j'ai bien envie de connaître la suite.

    Après pourquoi les cpu et pas les gpu, parce qu'un gpu a quand même pas mal de contraintes et d'ailleurs pour l'instant tout n'est pas "hardwarizable" chez PhysX. Beaucoup du calcul physique est fait sur le cpu et ce qui est envoyé au hardware a certaines contraintes (et certaines sont fortes). D'ailleurs pour l'instant les objets qui sont accélérés dans les jeux ne sont là que pour faire joli et sont indépendants du reste de la scène physique ou gameplay(et aussi pour des raisons techniques pas uniquement game design). Pour l'instant les objets et les interactions gérés par les moteurs physiques sont simples, on verra par la suite quand on ajoutera d'autres types de simulations.

    Pourquoi tant de monde se tourne vers le calcul par gpu si le cpu est si efficace?
    Parce que pour l'instant le gpu devance de très loin. Mais dans les labos, des gens se sont tournés aussi vers le Cell qui est un cpu avec un core presque normal et plein de cores castrés qui font de la grosse vectorialisation. En fait le problème est de savoir est-ce qu'on vectorialise tout le code (gpu et ses différentes unités) ou est-ce qu'on vectorialise uniquement les calculs importants (cpu).

    (sinon la tesselation a toutes les raisons d'utiliser le gpu, ça s'intègre naturellement dans un pipeline graphique. D'ailleurs avant tout ça, vers la préhistoire, il y a eu le T&L et là non plus j'avais rien à redire)

    Mais encore une fois, je ne vais pas essayer de convaincre personne, c'est juste que la solution tout physique sur gpu, je le sens mal. Le cpu a de très gros désavantages sur le papier et des rustines sont collées au fil du temps, mais mine de rien ça reste plus simple à mettre en place. Après y a de très fortes chances pour que je me plante. C'est pas impossible aussi qu'on aille vers des solutions du style Cell malgré le fiasco, du multi-core mais avec certains qui sont très spécialisés. Et dans ce cas là on tend à mixer le cpu et gpu un peu en quelque sorte.
    Dernière modification par MrPapillon ; 30/10/2009 à 05h05.

  14. #14
    J'ai une Radeon 9800 pro qui marche très bien sous 7. Par contre il faut faire une manip' à la noix pour installer les drivers (que j'ai oubliée).

    Et je ne jette pas la pierre à AMD, parce que depuis 7 (ou même Vista ?), les drivers WHQL sont inclus dans Windows Update, et Microsoft doit pomper un tetrabrouzouf à AMD rien que pour ça. Je me souviens d'un vieux dossier sur la hausse du cout de développement et d'intégration des drivers à cause de Microsoft et sa nouvelle machine à mousse Vista, ça gueulait bien à l'époque.

    Par contre j'avoue que c'est super sympa d'avoir des drivers qui s'installent tout seul, sans demander à Windows de rebooter pour un oui ou pour un non.

    edit : Sympa votre analyse, mais d'un simple point de vue commercial, je pense que les éditeurs d'un jeu préfèreraient une solution qui ne les coupe pas de 30% du marché des joueurs (sans compter les gens qui ont des IGP Intel de chie). Du coup la main mise sur le PhysX, c'est pas super pour eux.
    Dernière modification par Nono ; 30/10/2009 à 12h22.

  15. #15
    Pour les milliards de polygones je sais, je suppose qu'à ce taux on cramerait son cpu .
    C'était plutôt une hyperbole pour revenir sur les limites des processeurs en terme de gestion.

    Je défend pas en particulier le physx, je trouve plutôt con de lancer une "innovation" (calcul physique par gpu) mais d'en bloquer les accès.

    Je défend plutôt la voie ouverte par nvidia, le physx sera surement jamais une solution universelle, ou répandu, pas avec la politique actuelle de nvidia du moins, mais on peut en attendre pas mal.
    C'est parce que nvidia fait chier Ati depuis plus d'un an que Ati a racheté des droit d'un moteur physique pour le faire supporter par ses gpu. (bullet physic je crois)
    C'est aussi de par le fait que nvidia fait beaucoup de blabla sur son CUDA qu'on s'intéresse bien plus au calcul par gpu.

    J'ai entendu parler des lames serveur avec 2 Cell dedans, ça doit être bourrin pour compiler ou calculer un algo pas trop threadé mais lourd, mais ça reléve de la solution professionnel. Ils manqueront pas de truc (genre les AS400 avec 30 Power PC5).

    Je pense que c'est plutôt intéressant de se rapporter à l'usage d'utilisateur lambda.
    Même sans faire la physique tout-au-gpu (bien que les cartes deviennent de plus en plus puissante à plus trop savoir quoi faire) on pourrait voir plus de répartition des calcul, le driver qui utiliserait une partie du processeur pour gérer la répartition des calcul sur le gpu, le gpu qui allégerait un bon pourcentage du processeur et laisser plus de puissance processeur pour des algorithme trop lourd pour le gpu et taillé pour le cpu.
    On pourrait faire une gestion vraiment optimisé des moteur physique selon ce qui est calculé, voir de l'IA.
    Faire passer le pathfiding sur le gpu pourrait peut être permettre la creation d'IA bien plus performante tout en gardant les gestion peu threadé sur le cpu qui aura une plus grande marge de libre et pourra gérer plus d'algo de brute d'un coup.

  16. #16
    J'ai arrêté de lire au troisième paragraphe. Relis ton texte avant de le publier super menteur c'est bourré de fautes...

  17. #17
    Citation Envoyé par Say hello Voir le message
    Même sans faire la physique tout-au-gpu (bien que les cartes deviennent de plus en plus puissante à plus trop savoir quoi faire) on pourrait voir plus de répartition des calcul, le driver qui utiliserait une partie du processeur pour gérer la répartition des calcul sur le gpu, le gpu qui allégerait un bon pourcentage du processeur et laisser plus de puissance processeur pour des algorithme trop lourd pour le gpu et taillé pour le cpu.
    On pourrait faire une gestion vraiment optimisé des moteur physique selon ce qui est calculé, voir de l'IA.
    Faire passer le pathfiding sur le gpu pourrait peut être permettre la creation d'IA bien plus performante tout en gardant les gestion peu threadé sur le cpu qui aura une plus grande marge de libre et pourra gérer plus d'algo de brute d'un coup.
    Ouaip, y a peut-être intel qui pourrait aussi se pencher sur cette solution vu l'archi de leur Nehalem. Mais pour ça faut uniformiser l'utilisation du gpu avec cpu et rajouter pas mal de fonctionnalités tout en enlevant les contraintes je pense, mais je suis pas expert. C'est pas impossible qu'aussi NVidia ou ATI décident de faire évoluer leurs gpu vers quelque chose qui booste cuda ou opencl. Y a peut-être aussi des chances pour qu'ils arrivent à faire grosso modo un truc aussi souple qu'un cpu sur les fonctionnalités de base. Reste à voir la vraie réponse d'intel à tout ça.
    Dernière modification par MrPapillon ; 30/10/2009 à 14h28.

  18. #18
    Mais... Mais je viens tout juste d'acheter un netbook sous AMD Neo !

  19. #19
    Aaah Daaallas, ton univers impitoyaaable!! lol

    Ca pourrait m'intéresser ce mod et combiner ma HD4870 et une nvidia 8500GT qui traine sur l'étagère comme processeur PhysX (marche bien apparemment, en bidouillant un peu avec le mod et sous Win7...)
    Mais en fait non : un seul port PCI-Express sur ma carte mère donc c'est réglé (je m'étais dit : le SLI/Crossfire ne passera pas par moi, mais pour une 2e carte dédiée PhysX c'est quand même utile).

    PhysX c'est mort de toute façon on est bien d'accords?
    (Vu la liste de jeux supportés!... lol + les efforts de Nvidia pour restraindre les usages et donc tuer tout espoir!)
    L'avenir sera le GPGPU/OpenCL et intégration de la physique directement dans un moteur comme Unreal (+compatible Ati/Nvidia au moins) !...

    PS: ils ont annoncé que la carte Fermi permettra de faire tourner Linux...
    => Economiser une puce Intel et faire un "PC"/console de jeu avec seulement une carte graphique... "Good luck with that!"...
    >Lian Li PC-K7< Asrock P67 + i5 2500K @ 4Ghz (Vcc offset -0,11V) + GTX 570 | Phenom II X6 1075T + HD4870 | Ãccents avec Alt-Gr pour claviers Qwerty | AtariST ЯuL3z'dA w0rLd ;-p

  20. #20
    PhysX c'est mort de toute façon on est bien d'accords?
    (Vu la liste de jeux supportés!... lol + les efforts de Nvidia pour restraindre les usages et donc tuer tout espoir!)
    L'avenir sera le GPGPU et intégration de la physique directement dans un moteur comme Unreal (+compatible Ati/Nvidia au moins) !...
    Il faut pas oublier que PhysX c'est avant tout un middleware de physique et que le hardware n'est là que pour booster tout ça. Faire soit-même de la physique c'est vraiment très casse-couilles et je crois que la plupart des studios l'ont intégré depuis un moment. Après Bullet est gratos mais est très loin d'avoir toutes les possibilités de PhysX ou de Havok. Donc PhysX en tant que middleware physique se répandra partout et ça constituera toujours une bonne base pour continuer à parler d'accélération hardware. Au passage, unreal utilise PhysX à 100% ou presque pour leur physique.

  21. #21
    Putain, le coup du "plus de suport pour les x19xx" ça fait bien chier !
    Autant nVidia est un coutumier de la chose, autant AMD m'avait habitué à mieux que ça, surtout que les x19xx sont encore capable de faire tourner tout les jeux actuels (pas à fond certes, mais ça reste parfaitemment jouable)

  22. #22
    Putain, une augmentation des HD58xx.

  23. #23
    Citation Envoyé par lortar Voir le message
    J'ai arrêté de lire au troisième paragraphe. Relis ton texte avant de le publier super menteur c'est bourré de fautes...
    Le truc c'est que je les relis en général, sauf que souvent comme je relis mon propre texte je passe à coté des fautes. C'est pour ça que j'essaye de faire relire mes papiers par quelqu'un d'autre, seulement on a pas toujours quelqu'un de dispo sous la main. Désolé pour tout ça, je sais bien que c'est pénible et j'essaye de corriger ce que je peux au fur et à mesure, mais ma boite à MP est grande ouverte à tout moment si certaines fautes vous sautent vraiment à la gueule.

    ---------- Post ajouté à 01h03 ----------

    Citation Envoyé par Jerom Voir le message
    PhysX c'est mort de toute façon on est bien d'accords?
    (Vu la liste de jeux supportés!... lol + les efforts de Nvidia pour restraindre les usages et donc tuer tout espoir!)
    L'avenir sera le GPGPU/OpenCL et intégration de la physique directement dans un moteur comme Unreal (+compatible Ati/Nvidia au moins) !...
    Depuis le début de l'année, faut quand même reconnaître que les gros titres utilisant PhysX commencent à arriver en nombre, merci au programme nVidia pour développeurs d'ailleurs. Et les tests montrent bien que c'est efficace et plutôt réussi donc dans l'absolu la solution est intéréssante. Maintenant c'est vrai que passer par une solution fermée comme le PhysX est pas vraiment engageant et j'espère bien que l'OpenCL sera efficace et vite adopté pour finir avec les mesquineries de nVidia.
    Dernière modification par Super Menteur ; 31/10/2009 à 01h09.


  24. #24
    Citation Envoyé par Carpette Voir le message
    Putain, le coup du "plus de suport pour les x19xx" ça fait bien chier !
    Autant nVidia est un coutumier de la chose, autant AMD m'avait habitué à mieux que ça, surtout que les x19xx sont encore capable de faire tourner tout les jeux actuels (pas à fond certes, mais ça reste parfaitemment jouable)
    Dois y avoir des driver Vista, et peut être surement Seven, pour ma 6200 AGP qui traine.

  25. #25
    En tous cas merci pour ce débat qui vole quand même bien plus haut que ce qu'on peut tristement supporter sur clubic ou tomshardware...

    edit: d'ailleurs dans les trois premiers paragraphes que je viens de relire, il ne manque qu'un x à un "au" donc bon, c'est franchement agréable à lire, faut pas être trop tatillon non plus hein...

  26. #26
    T'as pensé au coupe-circuit? Avatar de Jeckhyl
    Ville
    Crétin des Alpes
    Super Menteur serait-il un reroll d'Arthur Rabot ?

    Citation Envoyé par perverpepere Voir le message
    je préfère être dans les ruisseaux des petits geste inutiles que dans le torrent du je m'en foutisme.

  27. #27
    Je ne crois pas qu'AMD arrête le support pour les X1900 et compagnie, leur site Web indique qu'elles sont passées en legacy, ce que l'on sait depuis longtemps et que Fudzilla nous ressort comme un scoop.

    Donc mise à jour des drivers trimestrielle plutôt que mensuelle, mais a priori pas d'abandon.

  28. #28
    Faut voir...

    Note: AMD’s DirectX 9 ATI Radeon graphics accelerators are not officially supported under Windows 7. If the user chooses to, they can install the ATI Catalyst Windows Vista graphics driver under Windows 7.
    ok..

    Please be aware that none of the new Windows 7 graphics driver (WDDM 1.1) features are supported (as the Windows Vista level graphics driver is limited to WDDM 1.0 level support).
    ça rajoute une couche..

    Using the ATI Catalyst Windows Vista driver under Windows 7 is not officially supported by AMD
    ça se répète un peu d'une certaine manière.

    Mais apparemment il pourra toujours, peut être, selon l'alignement astral et les rapport de bug, y avoir d'éventuelle mise à jour, uniquement si critique sous xp et vista (donc pas corrigées si critique sous Seven vu que pas supporté officiellement ? ça on verra un jour)

    Mais bon le "trimestriel plutôt que mensuel" sans être coutumier d'AMD, ça me parait carrément optimiste:

    AMD may periodically provide Windows XP and Windows Vista driver updates (for the products listed above) for critical fixes only. No new features will be provided in future driver updates. The Linux ATI Catalyst™ driver will only be supported in Linux distributions prior to February 2009 for the legacy products listed above.
    En fait les seules mise à jour de driver Legacy c'est quand ils y ajoutent de "nouvelles" cartes? (et les MaJ critiques)

    (J'avoue y'a un "periodically", même si le mot reste ambigu)

    source : http://support.amd.com/us/gpudownloa....3.12?=English

  29. #29
    http://www.touslesdrivers.com/index....=3&v_code=3553

    Comme vous le savez, les anciennes cartes graphiques Ati ne supportant que l'API DirectX 9 ne sont plus supportées par les drivers Catalyst mensuels mais par un pack dit Legacy qui est mis à jour bien moins souvent, environ une fois tous les trois mois.
    Bref, rien de neuf sous le soleil : les vieilles cartes sont passées en legacy à l'époque Vista et le restent aujourd'hui. AMD finira peut-être par pondre un driver Win7... ou pas, mais y'a pas d'abandon récent malgré le "scoop" de Fudzilla, simplement des cartes passées en legacy il y a quelques mois et qui le restent.

  30. #30
    Tout d'abord on a appris que les Radeon HD 5850 verront leur prix augmenter de 20 dollars d'ici peu. Oui oui, augmenter. Le prix officiel de la carte passe donc de 259$ à 279$.

    Je profite de cette news pour me moquer de ceux qui m'ont déconseillé
    d'acheter une 5850 à sa sortie Voila c'est fait

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •