Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 4 sur 19 PremièrePremière 12345678910111214 ... DernièreDernière
Affichage des résultats 91 à 120 sur 567

Discussion: Intel et Larrabee

  1. #91
    Citation Envoyé par Alice Voir le message
    En fait dans Doom3 il n'y avais pas de mega-texture. l'ID-tech4 et le mega-texturing c'est uniquement à partir de ET Quake Wars
    Je blaguais !
    La technologie mega-texture devait être prête pour Doom3 mais elle a été repoussé à ET QW.

    Mes Lego - Tof : Canon EOS 40D + Tamron 17-50mm F/2.8 + Canon Seepdlite 430 EX II | VDS MadCatz Arcade Fight Stick TE

  2. #92
    Hop un peu de mouvement ici ici avec notamment

    Citation Envoyé par Paul Otellini
    Larrabee first silicon should be late this year in terms of samples and we’ll start playing with it and sampling it to developers and I still think we are on track for a product in late ’09, 2010 timeframe.
    Intel est déjà en train de parler partenariat avec (entre autre) des universités. Leur but est d'arriver à montrer un Larrabee fonctionnel pour SIGGRAPH 2009 avec une base logicielle déjà intéressante (librairie etc.). Tout ça semble assez tendu vu ces dernières déclarations.

  3. #93
    Pour les CPUs traditionnels, il y a en general 1 an entre le premier silicone fonctionnel et le produit commercialise. Je suppose que la stack software qui va avec Larrabee est deja en developpement, donc en theorie a partir de fin 2008 il devrait y avoir des demos possibles (a supposer que le premier silicone boote assez rapidement).

    A mon avis le produit bootera vite (Intel a quand meme une certaine experience en x86) mais il faudra pas mal de temps avant d'avoir des perfs decentes, ce qui n'empeche pas forcement une demo assez precoce...
    fefe - Dillon Y'Bon

  4. #94
    Citation Envoyé par fefe
    la stack software qui va avec Larrabee est deja en developpement, donc en theorie a partir de fin 2008 il devrait y avoir des demos possibles
    C'est juste. Il est vrai qu'Intel a ses propres équipes pour pondre de la démo graphique (QuakeIV RT) et/ou des applications plus générale et qu'ils n'ont pas besoin de dev externe pour exhiber leur beau matos.

  5. #95
    Et puis c'est beaucoup plus facile d'avoir du hard qui marche juste pour une demo ou tu controles tout par rapport a fonctionner sur toutes les applis du marche.
    fefe - Dillon Y'Bon

  6. #96
    On the other hand, if their first real product is expected to come out in 'late 2009', an important point becomes what process Intel will manufacture it on. If it's 45nm, they'll actually be at a density and power disadvantage against GPUs produced at TSMC, based on our understanding of both companies ' processes and roadmaps.

    But if Intel is really aggressive and that chip is actually on 32nm, then they would be at a real process advantage. That seems less likely to us since it'd imply it would tape-out and release at about the same time as Intel's CPUs on a new process. Either way, it is a very important question.
    Pas d'accord pour le 1er gras, d'accord pour le second.
    - La finesse de gravure ne fait pas tout, je ne pense pas que le 45nm TSMC soit équivalent à celui d'Intel, même si on les compare dans 1 an.
    - Si l'on s'en tient à la politique du tic-tac tock truc qui réussit jusqu'ici si bien à Intel, Larabee devrait sortir en 45nm. Est-il envisageable de changer de process entre les 1ers samples et la sortie commerciale ?

  7. #97
    Citation Envoyé par Yasko Voir le message
    bien à Intel, Larabee devrait sortir en 45nm. Est-il envisageable de changer de process entre les 1ers samples et la sortie commerciale ?
    Non, a peu pres 1 an pour valider le silicone apres le premier tapeout. Donc si ils sortent un premier en 45, puis un second en 32 6 mois plus tard, le produit en 32 arrivera 1an et demie plus tard.

    La validation de circuits integres generes avec des outils de synthese prend moins de temps que les circuits contenant bcp de design custom (comme les x86). Et la validation d'un CPU avec un jeu d'instruction aussi "complexe" que le x86 prend aussi beaucoup plus de temps que la plupart des circuits traditionnels qui peuvent etre confrontes a moins de types d'applications.

    Je suppose que cette derniere condition peut eventuellement s'appliquer a Larrabee et reduire le temps de validation mais j'ai comme un doute.

    Le tic toc model a bien marche pour Intel en permettant de ne aps essuyer les platres d'un nouveau process et d'une nouvelle architecture en meme temps (cf Prescott). Je doute que Larrabee s'aventure a prendre le risque d'utiliser un process trop jeune.
    fefe - Dillon Y'Bon

  8. #98
    Paf, intel rachète Offset Software. Comme le souligne Beyond3D on imagine que ça doit être pour faire la promotion du Larabee dans un moteur de rendu assez classique (raster). Ca va être chaud d'aller attaquer NVidia/ AMD sur leur propre terrain. A moins qu'Intel pousse Offset à écrire un renderer parallèle qui démontrera toute la supèriorité visuelle du lance de rayon vis à vis du raster?

  9. #99
    Citation Envoyé par Alice Voir le message
    Paf, intel rachète Offset Software. Comme le souligne Beyond3D on imagine que ça doit être pour faire la promotion du Larabee dans un moteur de rendu assez classique (raster). Ca va être chaud d'aller attaquer NVidia/ AMD sur leur propre terrain. A moins qu'Intel pousse Offset à écrire un renderer parallèle qui démontrera toute la supèriorité visuelle du lance de rayon vis à vis du raster?
    C'est vrai que ca parait bizarre a premiere vue.

    Mais j'ai discute avec des developpeurs de jeux il y a quelques mois a ce propos ; la conclusion est simple : aucun ne croit au ray tracing. L'important n'est pas de savoir s'ils ont tort ou raison, c'est leur point de vue.

    Donc si Intel veut pousser le Larabee comme GPU, il va falloir en passer par la rasterization a la d3d/OpenGL, sinon les developpeurs ne suivront pas.

  10. #100
    Sauf si une équipe de couillus pond un moteur à base de RT qui remet en cause la prédominance du Raster. Mais j'ai comme un sèrieux doute .

    Ce ne sont pas 3 réflexions, 2 ombres franches et 1 caustique qui vont remettre en cause la suprématie du Raster. Il va falloir de l'illumination globale sur un environnement totalement dynamique... Même en faisant pas mal de simplification il est encore plus que difficile (impossible?) d'arriver à un résultat correct en temps réel.

  11. #101
    Disons que si Intel ne se focalise que sur le RT pour Larrabee, ce sera un hardware avec 0 applis qui tourne dessus hors les 3 demos technologiques qu'ils auront pondu (meme si ca marche bien). Donc ils sont forces d'etre bons (voire meme tres bon si ils comptent faire autre chose que perdre de l'argent dessus) en raster. Vu qu'ils nont pas beaucoup d'historique dans le domaine, ils rachetent des gens competents pour apporter cette experience. Jusque la il n'y a rien de surprenant.
    fefe - Dillon Y'Bon

  12. #102
    Citation Envoyé par fefe
    Disons que si Intel ne se focalise que sur le RT pour Larrabee, ce sera un hardware avec 0 applis qui tourne dessus hors les 3 demos technologiques qu'ils auront pondu (meme si ca marche bien). Donc ils sont forces d'etre bons (voire meme tres bon si ils comptent faire autre chose que perdre de l'argent dessus) en raster.
    On est d'accord. Ceci dit se baser sur une archie différente pour proposer un GPU raster compétent est plus que risqué. Faire du RT sur un GPU classique est nul à chier comparé à un approche purement soft. Le tout est de savoir si faire un GPU orienté ray-tracing est quant à lui efficace (voire très efficace) pour faire du raster.

  13. #103
    Et c'est quand même intéressant un truc comme Larrabee (archi Tera-scale, tout ça) pour faire la même chose qu'un GPU classique (raster en autre) ? Ca se transforme doucement en GPU programmé en ISA x86, ou c'est bien prévu comme ça depuis le début ?

    Edit :
    Un peu grillé par Alice, le temps de retrouver ce qu'était Larrabee déja...

  14. #104
    Citation Envoyé par newbie06 Voir le message
    C'est vrai que ca parait bizarre a premiere vue.

    Mais j'ai discute avec des developpeurs de jeux il y a quelques mois a ce propos ; la conclusion est simple : aucun ne croit au ray tracing. L'important n'est pas de savoir s'ils ont tort ou raison, c'est leur point de vue.

    Donc si Intel veut pousser le Larabee comme GPU, il va falloir en passer par la rasterization a la d3d/OpenGL, sinon les developpeurs ne suivront pas.
    Mon collègue qui s'occupe du raytracer dans notre boîte (surtout pour précalculer des BRDF et pour la physique) y croit pas mal lui.
    Pour moi le problème de la géométrie dynamique est pas vraiment encore résolu, même si y'a des papiers pour rebâtir des kd-tree à la vitesse de la lumière (sombre ).
    En plus il faut laisser du temps CPU pour le jeu lui-même.
    A mon avis il faudrait vraiment une architecture démesurément puissante en RT pour que tout le monde lâche le paradigme raster. J'ai du mal à y croire dans un futur proche.

    Edit: allez voir mon topic ici, je l'ai mis au bon endroit rétrospectivement, mais en fait ça a plus de chance d'intéresser des x8adv... qui risquent de passer à côté d'une bonne tranche de rigolade.
    Dernière modification par Tramb ; 21/02/2008 à 13h25.
    Sleeping all day, sitting up all night
    Poncing fags that's all right
    We're on the dole and we're proud of it
    We're ready for 5 More Years

  15. #105
    Ca a reveille de vieux souvenirs en moi ce topic sur la Jaguar.
    fefe - Dillon Y'Bon

  16. #106
    Citation Envoyé par fefe Voir le message
    Ca a reveille de vieux souvenirs en moi ce topic sur la Jaguar.
    Oui moi aussi... Mon projet avait ete accepte pour le Falcon. J'avais recu les tarifs et tout, sauf que l'extension 16 Mo n'etait plus dispo et il fallait attendre. Dans l'intervalle, mon universite a commande des dizaines de Sun IPC a un prix tres interessant dont les etudiants pouvaient profiter. Exit le Falcon. Retrospectivement, je n'ai etrangement aucun regret

    Quant a la question RT/rasterization, IBM avait initialement developpe un renderer sur le CELL pour se passer de GPU. Il semblerait que les perf etaient bonnes (mais pas assez pour Sony de toute evidence).

  17. #107
    Citation Envoyé par newbie06
    Quant a la question RT/rasterization, IBM avait initialement developpe un renderer sur le CELL pour se passer de GPU. Il semblerait que les perf etaient bonnes (mais pas assez pour Sony de toute evidence).
    Il est plus que probable que ce soit un raster qu'IBM ai développé. Un raster en soft s'adapte assez bien sur le CELL mais de là à ce qu'il surpasse un GPU dédié à cette tache... Carmack avait d'ailleurs souligné (dans un excès de mauvaise foi?) que de ne pas laisser le rendu 3D à la charge du CELL était le seul bon choix technique fait par Sony.

  18. #108
    Citation Envoyé par Alice Voir le message
    Un raster en soft s'adapte assez bien sur le CELL mais de là à ce qu'il surpasse un GPU dédié à cette tache...
    On verra bien ce que l'equipe de MESA arrive a faire. La ils en sont a la partie difficile du streaming

    Carmack avait d'ailleurs souligné (dans un excès de mauvaise foi?) que de ne pas laisser le rendu 3D à la charge du CELL était le seul bon choix technique fait par Sony.
    Ouai ben Carmack c'est comme Torvalds ou Stallman, il dit des trucs bien, mais aussi des conneries, ou vice versa Enfin sur ce coup-la, il a bien raison...

  19. #109
    Rien de transcendant ici mais au moins ça confirme à quel point Intel est nul à chier pour la com autour du Larabee...

  20. #110
    J'eviterai de quote mon post #32 de ce thread .
    fefe - Dillon Y'Bon

  21. #111
    C'est un peu rassurant d'un certain cote, Intel veut assurer un succes assez rapide, ce que le RT n'aurait pas permis.

    D'un autre cote, je serais tres decu qu'Intel ne mene pas au bout les recherches sur le RTRT sur le Larrabee et ne sorte pas quelque chose dans le public...

  22. #112
    Fefe, non pas besoin de quote ton post ... Tout le monde était de toute façon d'accord: GPU haut de gamme en 2009 = raster. On peut se branler la nouille sur le RTRT mais pour le jeu ce n'est pas pour desuite.

    Newbie06, pas d'inquiétude pour le RTRT. Intel a débauché du beau monde et ça bosse sec. A terme, leur objectif est d'offrir un pipeline compétitif en RTRT ça c'est quasi sur (Intel n'est d'ailleurs pas le seul). Pat s'est juste trop emballé lors de l'IDF. Tom vient juste recadrer la communication autour de tout ce bazard afin que les développeurs (autre que les chercheurs et 3/4 développeurs indépendant) s'intéressent au Larabee.

    Dans tous les cas, je pense toujours qu'Intel va se ramasser un pavet dans la tronche avec leur Larabee raster_RT_GPGPU_kipoutre premier du nom. Il me tarde de voir que je me trompe

  23. #113
    Citation Envoyé par Alice Voir le message
    Dans tous les cas, je pense toujours qu'Intel va se ramasser un pavet dans la tronche avec leur Larabee raster_RT_GPGPU_kipoutre premier du nom. Il me tarde de voir que je me trompe
    Si tu ne te trompes pas, je doute que tu ne voies le moindre produit, si tu te trompes il y aura un produit a voir . Donc tu ne pourras que voir que tu te trompes, sinon tu ne verras rien .

    OK je sors.
    fefe - Dillon Y'Bon

  24. #114
    Larabee première génération sortira donc je verrais si je me trompe ou si je ne me trompe pas parce que si je ne me trompe pas Larabee ne trompera plus personne.

    Ok je suis fefe vers la sortie...

  25. #115
    Intel n'aurait pas intérêt à lancer son produit, même s'il était médiocre ? Ne serait-ce que pour familiariser les développeurs et consommateurs avec la marque, se faire la main sur les drivers, etc. ; en promettant un Larabee 2 nettement mieux, évidemment.

  26. #116
    S'il le sorte et que c'est moyen/nul, Intel se fera descendre sur les perfs mais fera parler de lui niveau architecture.
    S'il attende d'avoir une version performante, on risque de ne plus y croire...

    L'idéal serait une version performante dès le début.

    Pour conclure, rien ne faut le traditionnel "Wait and see".

    Mes Lego - Tof : Canon EOS 40D + Tamron 17-50mm F/2.8 + Canon Seepdlite 430 EX II | VDS MadCatz Arcade Fight Stick TE

  27. #117
    Citation Envoyé par Alexko Voir le message
    Intel n'aurait pas intérêt à lancer son produit, même s'il était médiocre ? Ne serait-ce que pour familiariser les développeurs et consommateurs avec la marque, se faire la main sur les drivers, etc. ; en promettant un Larabee 2 nettement mieux, évidemment.
    A supposer que Intel target des performances tres elevees, ils feront probablement un chip de la taille maximale du reticule des machines de prod. De cette maniere tu es quasiment sur d'etre imbattable a condition que ton chip marche et que ton archi soit efficace bien sur. Intel ayant un avantage en terme de process d'1/2 a 1 generation ca fait un facteur 1.4 a 2 en terme de transistors par rapport a ce que peuvent faire les competiteurs, et pour l'instant les plus gros chips des competiteurs ont occupe au max la moitie de la surface dispo, donc cela fait un facteur 4 de transistors au final. Ca laisse pas mal de marge pour faire un chip "mauvais" en terme d'archi/drivers qui est plus que probable pour une premiere generation. Le probleme est que ca coute tres cher de produire ce genre de chip. Donc si les performances sont mediocres, ils en distribueront probablement aux devs en NDA pour qu'ils se familiarisent, mais ils n'iront pas vendre au rabais des chips qui coutent une fortune a produire histoire de ruiner a l'avance la reputation de la ligne de produit.
    fefe - Dillon Y'Bon

  28. #118
    Je vois. Cette taille maximale tourne autour de combien, environ ?

  29. #119
    ~3x2cm

    cf les dies de Montecito: http://en.wikipedia.org/wiki/Montecito_(processor)
    Dernière modification par fefe ; 24/04/2008 à 18h10.
    fefe - Dillon Y'Bon

  30. #120
    Citation Envoyé par fefe Voir le message
    Ca laisse pas mal de marge pour faire un chip "mauvais" en terme d'archi/drivers qui est plus que probable pour une premiere generation.
    Oui, enfin, on parle d'une architecture multicore et du language X86. Deux éléments parfaitement maitrisés par Intel...
    Oui, je suis optimiste. Mais ça manque de concurrence en ce moment dans les GPU.

    Mes Lego - Tof : Canon EOS 40D + Tamron 17-50mm F/2.8 + Canon Seepdlite 430 EX II | VDS MadCatz Arcade Fight Stick TE

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •