Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 3 sur 3 PremièrePremière 123
Affichage des résultats 61 à 80 sur 80

Discussion: PhysX

  1. #61

  2. #62
    Impressionnant, mais dans l'absolu, je me demande si ca servirait vraiment à quelque chose, je pense que mon bureau serait encore plus en bordel s'il était 3d que 2d...

  3. #63
    Un bureau en 3D tel qu'on peut le faire actuellement, je ne pense pas qu'on ait besoin de PhysX. Une carte 3D de type GeForce 6600GT suffit amplement à la besogne, non ?

  4. #64
    En même temps, un bureau accéléré par le GPU ça existe : Vista et Mac OS X l'utilisent.

    Et Mac OS X est accéléré 3D depuis le début (ou presque) tant que la carte supporte OpenGL.

    J'ai toujours bien aimé les interfaces futuristes comme ça, mais en même temps c'est souvent inutilisable.

    Le problème des interfaces en général :
    -on est conditionné par Microsoft et l'interface de 95 (les principes de base restent les même) et plus anciennement celle des MacOS depuis la V1 (et encore avant les travaux de Xerox)
    -la majorité des interfaces visionnaires sont basées sur une modification des interfaces actuelles.

    les interfaces tactiles tombent toujours dans les mêmes travers, par exemple : adaptation d'une interface classique à une utilisation stylet.
    Pour ça, PalmOS avait l'avantage d'être pensé pour le stylet, contrairement à Windows. Et pourtant, c'est les machines Windows (avec une interface exécrable, basée sur du desktop adapté) qui se vendent réellement (pour les machines elle même).
    Les TabletPC souffrent du même problème : c'est bien, pratique, mais ca reste du windows avec ses problèmes. UMPC/Origami, c'est encore pire : c'est du tactil sur petite résolution, donc pas franchement efficace.

    L'utilisation d'autres choses que les stylet/mains et le couple claviers/souris sont une évolution. Ce que les gens ont fait avec le détecteur des portables Apple (changement de truc via un "choc") est pas mal, mais reste gagdget et c'est un détournement d'un truc pas prévu pour ça à la base.

    J'attends vraiment un interface efficace et mieux pensées, mais je me fait pas trop d'idées, ça risque pas d'arriver, vu la lenteur des évolutions en info et la sacro-sainte rétro-compatibilité.

    Pour l'utilisation du PhysX, honnetement, vu les test, je suis sur que c'est faisable sans.

    En voyant ça, ça m'a fait penser a une démo de la Kyro (PowerVR) avec des cartes qui tombaient et s'empilaient, et de la différence de framerate entre la kyro et ma Geforce2 GTS. Et je me dis que le système PowerVR pourrait être pratique avec les interfaces "3D" actuelles de Apple et Microsoft (notamment au niveau de l'occupation en mémoire vidéo).

  5. #65
    Sauf que les effets de transparences annulent en partie l'efficacité des archi PowerVR, au niveau du fillrate notamment.

    Sinon pour le bureau présenté, je ne vois pas en quoi un simple cpu ne pourait pas gerer ça...

    Vous avez des news des perfs du PhysX d'ailleurs ? Y'a eu des nouveaux drivers améliorant les perfs ? J'attends aussi de voir ces perfs sous DirectX10, étant donné que sous DirectX9, les drawcalls génèrent beaucoup d'overhead, sur le cpu, donc ca tue un peu les perfs... c'est bien beau une puce qui peut faire exploser un mur en 1000 morceaux, mais si le système graphique ne suit pas derrière...

  6. #66
    Me semble que la physique pour DirectX doit attendre le 10.1
    "si tout le monde s'etait dit "pour quoi faire ?" je pense qu'on tournerait encore sur 8086. Si tant est qu'on ait l'electricite ... " Franck@X86
    If all goes well will Dell sell Cells?
    <°)))><

  7. #67
    Xgl et ses copains, aussi.

  8. #68
    Des projets bureau 3D y'en a depuis longtemps et c'est fonctionnel
    http://www.sun.com/software/looking_glass/details.xml
    http://insitu.lri.fr/metisse/
    http://ventana3d.chileforge.cl/
    http://www.linuxfrench.net/article.php3?id_article=1007

    et n'importe quelle carte graphique suffit (faut suffisamment de mémoire vidéo c'est tout)
    Keyboard error or no keyboard present
    Press F1 to continue, or DEL to enter setup

  9. #69
    Ca y est.
    Voila le premier jeu qui necessitera une carte physX
    http://www.nofrag.com/2006/aou/04/22460/

  10. #70
    sachant que CellFactor peut se passer de PhysX (en bidouillant), il me semble, c'est marrant comme news :D

  11. #71
    Dans leur dernière version, il y a une vrai différence entre avec / sans PhysX, surtout concernant les fluides et la gestion du "vent". Bon après, je ne sais pas si c'est volontaire, ou alors si la PhysX est vraiment indispensable pour gerer ces effets...

  12. #72
    J'en doute que ce soit indispensable, cf Crysis

  13. #73
    Petit interview chez PPC d'un "haut responsable" de chez AGEIA... Grand moment de rien en perspective.
    PPC : Combien de cores sont présents dans le PhysX
    Michael Steele : Nous ne divulguons pas le nombre exact de core. Je pense qu’à un moment, on sera plus libre et l’on pourra donner plus de détails.
    Bien... question suivante

    PPC : Quelle est la largeur de vos unités de calculs en virgule flottante ?
    MS : Ca reste une question similaire et nous de divulguons pas les puissances théoriques en Gflops. [...]
    Joie!... on continue un peu plus loin

    PPC : Est-ce que vous pensez que le marché juge le P1 à sa juste valeur ?
    MS : Vous devez d’abord regarder qui fait réellement le marché. Si vous regardez les passionnés d’informatique achetant du haut de gamme, ils savent ce qu’est le PhysX et ce qu’il pourra être à l’avenir. Si vous prenez le point de vue du marché de masse qui n’est pas forcément familier avec son aspect technique, cela prend un peu plus de temps. La réponse est donc que les consommateurs comprennent ce qu’est le PhysX, mais ils ont peut-être besoin d’un peu plus d’évangélisation et d’éducation concernant les tenants et les aboutissants de la technologie.
    C'est il pas beau? On doit comprendre ce qu'est le PhysX sans qu'ils ne donnent la moindre info un tant soit peu technique. Mieux, ceux qui n'achètent pas le PhysX ont rien compris du tout ou sont tout simplement ramolis du bulbe.

    PPC :Comment voyez-vous les affirmations d’Intel qui parle de faire de la physique avec les cores non utilisés des processeurs, le Stream Computing d’ATI et le Quantun de NVIDIA ?
    MS : Cela revient à avoir la bonne architecture pour le bon job. Avec les GPGPU vous pouvez faire pratiquement tout et n’importe quoi. La question est de savoir si vous pouvez le faire bien. Lorsque vous parlez d’utiliser plusieurs cœurs, vous parlez de jeux multithreadés, ce qui ne va pas arriver avant un bon bout de temps. Ceux qui ont fait la démonstration de jeux multithreadés ont montré que ce n’était pas une mince affaire. Je pense que si vous mettez votre cœur à l’ouvrage et que vous vous investissez à fond, vous pouvez faire de belles démonstrations, mais de là à devenir une réalité, c’est une autre histoire.
    Pour le GPGPU il a pas tord. On peut faire tout et n'importe quoi sur GPU. De là à ce que ce soit propre :nuts:... Tout ne s'y prête malheureusement pas. Pour le multi-thread par contre la mauvaise foie est de mise

    "C'est jolie, c'est beau, c'est mignon et élégant mais personne ne le fera parce que c'est trop compliqué."

    Le mutli-core s'impose sur le marché grand public et de ce fait la programmation parallèle s'impose aussi. Les développeurs s'adapteront, comme ils se sont adaptés à l'époque de l'objet... Il serait bien naïf de croire le contraire. Sans parler qu'il est évident qu'un développeur préfèrera programmer une carte que peu de gens ont achetée alors que les CPU mutli-core deviennent un standard... :???:

    Oui, Michael Steele fait du marketing... même qu'il est Vice Président Marketing

  14. #74
    Ben c'est marketing.

    Pour le mukti-core, je suis assez d'accord avec lui, au final.

    Parce que ça fait un moment qu'on prévoit du multi-core, et on a rien de concret en jeux, au final.
    De plus, autant la programmation objet, on s'est adapté, autant passer en multi-thread, c'est différent : les contraintes d'un moteur 3D, par exemple, sont pas spécialement adaptée au multi-thread.

    Le fait qu'on parle de plus en plus de la physique, des trucs plus "secondaires" auparavant, c'est un signe : on a deux cores, et faut bien les occuper avec quelque chose, vu que la 3D le fera pas (c'est limite un aveux d'impuissance).

    Parce que pour le moment, les seules grosses optimisations 3D que j'ai vu en jeux, c'est multi-threader les drivers.

  15. #75
    C'est vrai que le mutli-thread ça peut être douloureux à programmer mais il est faux de dire que les contraintes d'un moteur 3D ne sont pas adaptées à un développement multi-thread.

    Sans parler de la parallélisation à très gros niveau style moteur physique/son/rendu chacune dans un thread, tu peux très bien paralléliser un moteur de rendu... Un algorithme type shadow-volume de base, tu peux paralléliser l'étape de détection et d'extrusion de le silhouette par objet, groupe d'object ou par maillage (si le maillage est suffisement lourd). Pour le calclul d'un éclairage indirect à l'aide d'une irradiance-map, tu peux imaginer capturer ton environment à chaque frame et préfiltrer cette map en multi-thread pour obtenir une irradiance map par frame et non pas prè-calculée (même si dans ce cas, l'algorithme se prète bien a une implentation GPGPU)...etc Bref il y a de quoi faire.

    Pour le moment effectivement il y a peu de retombées visibles... Mais un Carmack par exemple, annonce du lourd dans ce domaine.

    EDIT: c'est dingue que tout le monde croit que le multi-thread... ben c'est la bête noire des développeurs. Lors de graphics hardware Matt Pharr déclarait que la programmation sur GPU avait eu autant de succès, parce que personne ne se rendait vraiment compte qu'ils programmaient en parallèle... Cette phrase n'a jamais été aussi vraie

  16. #76
    pour la physique/son/rendu dans un thread, c'est ce que je dis, oui, c'est ce qu'ils essayent de faire actuellement.

    pour le reste, je te crois, j'ai pas assez de connaissances en 3D pour comprendre tout à fait.

    Carmack est très fort, de fait, mais j'ai aussi été étonné que le moteur de Quake3 intégrait des optimisations SMP (pas super efficaces, mais présentes et donnant quand même des gains) et pas le moteur de Doom3, plus récent.

  17. #77
    Je pense qu'a l'époque de Doom3 le cadenaçage des rendus 3D par les fonctions fixes du GPU et le manque de puissance générale ne permettaient pas vraiment de faire du bon parallélisme. Pour Doom3 il doit y avoir de quoi paralléliser le moteur. d'ailleur si mes souvenirs sont exact QuakeIV supporte le SMP. Bref, a mon avis le manque de parallélisme dans les moteurs 3D c'est plus un problème de temps, de moyen ou d'envie qu'un vrai problème de compétence.

    Attention tout ne se parallélise pas facilement. Mais paralléliser du code ce n'est pas non plus insurmontable...

  18. #78
    Vous parlez de 3D, mais concernant l'affichage pur, le GPU s'occupe et va s'occuper de plus en plus de chose.
    Si les devs cherchent à paralléliser, c'est avant tout pour les parties oubliés des moteurs, c'est à dire l'IA, la physique, compression/décompression des données, etc...

  19. #79
    Citation Envoyé par RootSayen
    Vous parlez de 3D, mais concernant l'affichage pur, le GPU s'occupe et va s'occuper de plus en plus de chose.
    Si les devs cherchent à paralléliser, c'est avant tout pour les parties oubliés des moteurs, c'est à dire l'IA, la physique, compression/décompression des données, etc...
    Le problème c'est que dans l'IA comme la Physique, y'a forcément des parties ayant des contraintes telles que je vois mal comment on pourrait les paralléliser... Cf. l'exemple du piano fourni par Tridam. Et pour ce qui est des effets physiques à but purement visuel, bon OK ça fait un moment que j'ai pas lancé un jeu vidéo mais aux dernières nouvelles ça pesait pas lourd, et c'était pas spécialement près de changer.

  20. #80
    On dérive un peu du sujet initial au sujet du PhysX mais bon... Pour ceux qui n'ont pas vue Valve se lécher le corps devant toute la presse en s'auto-congratulant de leur prouesse technique en programmation multithread arstechnica et anandtech récapitulent.

    C'est marrant de voir Gabe se dire que finalement ce qu'il a raconté un an plus tôt c'était un peu "n'importe quoi" et beaucoup de "j'ai la flemme de m'y mettre" :P.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •