Mes Lego - Tof : Canon EOS 40D + Tamron 17-50mm F/2.8 + Canon Seepdlite 430 EX II | VDS MadCatz Arcade Fight Stick TE
Hop un peu de mouvement ici ici avec notamment
Intel est déjà en train de parler partenariat avec (entre autre) des universités. Leur but est d'arriver à montrer un Larrabee fonctionnel pour SIGGRAPH 2009 avec une base logicielle déjà intéressante (librairie etc.). Tout ça semble assez tendu vu ces dernières déclarations.Envoyé par Paul Otellini
Pour les CPUs traditionnels, il y a en general 1 an entre le premier silicone fonctionnel et le produit commercialise. Je suppose que la stack software qui va avec Larrabee est deja en developpement, donc en theorie a partir de fin 2008 il devrait y avoir des demos possibles (a supposer que le premier silicone boote assez rapidement).
A mon avis le produit bootera vite (Intel a quand meme une certaine experience en x86) mais il faudra pas mal de temps avant d'avoir des perfs decentes, ce qui n'empeche pas forcement une demo assez precoce...
fefe - Dillon Y'Bon
C'est juste. Il est vrai qu'Intel a ses propres équipes pour pondre de la démo graphique (QuakeIV RT) et/ou des applications plus générale et qu'ils n'ont pas besoin de dev externe pour exhiber leur beau matos.Envoyé par fefe
Et puis c'est beaucoup plus facile d'avoir du hard qui marche juste pour une demo ou tu controles tout par rapport a fonctionner sur toutes les applis du marche.
fefe - Dillon Y'Bon
Pas d'accord pour le 1er gras, d'accord pour le second.On the other hand, if their first real product is expected to come out in 'late 2009', an important point becomes what process Intel will manufacture it on. If it's 45nm, they'll actually be at a density and power disadvantage against GPUs produced at TSMC, based on our understanding of both companies ' processes and roadmaps.
But if Intel is really aggressive and that chip is actually on 32nm, then they would be at a real process advantage. That seems less likely to us since it'd imply it would tape-out and release at about the same time as Intel's CPUs on a new process. Either way, it is a very important question.
- La finesse de gravure ne fait pas tout, je ne pense pas que le 45nm TSMC soit équivalent à celui d'Intel, même si on les compare dans 1 an.
- Si l'on s'en tient à la politique du tic-tac tock truc qui réussit jusqu'ici si bien à Intel, Larabee devrait sortir en 45nm. Est-il envisageable de changer de process entre les 1ers samples et la sortie commerciale ?
Non, a peu pres 1 an pour valider le silicone apres le premier tapeout. Donc si ils sortent un premier en 45, puis un second en 32 6 mois plus tard, le produit en 32 arrivera 1an et demie plus tard.
La validation de circuits integres generes avec des outils de synthese prend moins de temps que les circuits contenant bcp de design custom (comme les x86). Et la validation d'un CPU avec un jeu d'instruction aussi "complexe" que le x86 prend aussi beaucoup plus de temps que la plupart des circuits traditionnels qui peuvent etre confrontes a moins de types d'applications.
Je suppose que cette derniere condition peut eventuellement s'appliquer a Larrabee et reduire le temps de validation mais j'ai comme un doute.
Le tic toc model a bien marche pour Intel en permettant de ne aps essuyer les platres d'un nouveau process et d'une nouvelle architecture en meme temps (cf Prescott). Je doute que Larrabee s'aventure a prendre le risque d'utiliser un process trop jeune.
fefe - Dillon Y'Bon
Paf, intel rachète Offset Software. Comme le souligne Beyond3D on imagine que ça doit être pour faire la promotion du Larabee dans un moteur de rendu assez classique (raster). Ca va être chaud d'aller attaquer NVidia/ AMD sur leur propre terrain. A moins qu'Intel pousse Offset à écrire un renderer parallèle qui démontrera toute la supèriorité visuelle du lance de rayon vis à vis du raster?
C'est vrai que ca parait bizarre a premiere vue.
Mais j'ai discute avec des developpeurs de jeux il y a quelques mois a ce propos ; la conclusion est simple : aucun ne croit au ray tracing. L'important n'est pas de savoir s'ils ont tort ou raison, c'est leur point de vue.
Donc si Intel veut pousser le Larabee comme GPU, il va falloir en passer par la rasterization a la d3d/OpenGL, sinon les developpeurs ne suivront pas.
Sauf si une équipe de couillus pond un moteur à base de RT qui remet en cause la prédominance du Raster. Mais j'ai comme un sèrieux doute .
Ce ne sont pas 3 réflexions, 2 ombres franches et 1 caustique qui vont remettre en cause la suprématie du Raster. Il va falloir de l'illumination globale sur un environnement totalement dynamique... Même en faisant pas mal de simplification il est encore plus que difficile (impossible?) d'arriver à un résultat correct en temps réel.
Disons que si Intel ne se focalise que sur le RT pour Larrabee, ce sera un hardware avec 0 applis qui tourne dessus hors les 3 demos technologiques qu'ils auront pondu (meme si ca marche bien). Donc ils sont forces d'etre bons (voire meme tres bon si ils comptent faire autre chose que perdre de l'argent dessus) en raster. Vu qu'ils nont pas beaucoup d'historique dans le domaine, ils rachetent des gens competents pour apporter cette experience. Jusque la il n'y a rien de surprenant.
fefe - Dillon Y'Bon
On est d'accord. Ceci dit se baser sur une archie différente pour proposer un GPU raster compétent est plus que risqué. Faire du RT sur un GPU classique est nul à chier comparé à un approche purement soft. Le tout est de savoir si faire un GPU orienté ray-tracing est quant à lui efficace (voire très efficace) pour faire du raster.Envoyé par fefe
Et c'est quand même intéressant un truc comme Larrabee (archi Tera-scale, tout ça) pour faire la même chose qu'un GPU classique (raster en autre) ? Ca se transforme doucement en GPU programmé en ISA x86, ou c'est bien prévu comme ça depuis le début ?
Edit :
Un peu grillé par Alice, le temps de retrouver ce qu'était Larrabee déja...
Mon collègue qui s'occupe du raytracer dans notre boîte (surtout pour précalculer des BRDF et pour la physique) y croit pas mal lui.
Pour moi le problème de la géométrie dynamique est pas vraiment encore résolu, même si y'a des papiers pour rebâtir des kd-tree à la vitesse de la lumière (sombre ).
En plus il faut laisser du temps CPU pour le jeu lui-même.
A mon avis il faudrait vraiment une architecture démesurément puissante en RT pour que tout le monde lâche le paradigme raster. J'ai du mal à y croire dans un futur proche.
Edit: allez voir mon topic ici, je l'ai mis au bon endroit rétrospectivement, mais en fait ça a plus de chance d'intéresser des x8adv... qui risquent de passer à côté d'une bonne tranche de rigolade.
Dernière modification par Tramb ; 21/02/2008 à 12h25.
Sleeping all day, sitting up all night
Poncing fags that's all right
We're on the dole and we're proud of it
We're ready for 5 More Years
Ca a reveille de vieux souvenirs en moi ce topic sur la Jaguar.
fefe - Dillon Y'Bon
Oui moi aussi... Mon projet avait ete accepte pour le Falcon. J'avais recu les tarifs et tout, sauf que l'extension 16 Mo n'etait plus dispo et il fallait attendre. Dans l'intervalle, mon universite a commande des dizaines de Sun IPC a un prix tres interessant dont les etudiants pouvaient profiter. Exit le Falcon. Retrospectivement, je n'ai etrangement aucun regret
Quant a la question RT/rasterization, IBM avait initialement developpe un renderer sur le CELL pour se passer de GPU. Il semblerait que les perf etaient bonnes (mais pas assez pour Sony de toute evidence).
Il est plus que probable que ce soit un raster qu'IBM ai développé. Un raster en soft s'adapte assez bien sur le CELL mais de là à ce qu'il surpasse un GPU dédié à cette tache... Carmack avait d'ailleurs souligné (dans un excès de mauvaise foi?) que de ne pas laisser le rendu 3D à la charge du CELL était le seul bon choix technique fait par Sony.Envoyé par newbie06
On verra bien ce que l'equipe de MESA arrive a faire. La ils en sont a la partie difficile du streaming
Ouai ben Carmack c'est comme Torvalds ou Stallman, il dit des trucs bien, mais aussi des conneries, ou vice versa Enfin sur ce coup-la, il a bien raison...Carmack avait d'ailleurs souligné (dans un excès de mauvaise foi?) que de ne pas laisser le rendu 3D à la charge du CELL était le seul bon choix technique fait par Sony.
Rien de transcendant ici mais au moins ça confirme à quel point Intel est nul à chier pour la com autour du Larabee...
J'eviterai de quote mon post #32 de ce thread .
fefe - Dillon Y'Bon
C'est un peu rassurant d'un certain cote, Intel veut assurer un succes assez rapide, ce que le RT n'aurait pas permis.
D'un autre cote, je serais tres decu qu'Intel ne mene pas au bout les recherches sur le RTRT sur le Larrabee et ne sorte pas quelque chose dans le public...
Fefe, non pas besoin de quote ton post ... Tout le monde était de toute façon d'accord: GPU haut de gamme en 2009 = raster. On peut se branler la nouille sur le RTRT mais pour le jeu ce n'est pas pour desuite.
Newbie06, pas d'inquiétude pour le RTRT. Intel a débauché du beau monde et ça bosse sec. A terme, leur objectif est d'offrir un pipeline compétitif en RTRT ça c'est quasi sur (Intel n'est d'ailleurs pas le seul). Pat s'est juste trop emballé lors de l'IDF. Tom vient juste recadrer la communication autour de tout ce bazard afin que les développeurs (autre que les chercheurs et 3/4 développeurs indépendant) s'intéressent au Larabee.
Dans tous les cas, je pense toujours qu'Intel va se ramasser un pavet dans la tronche avec leur Larabee raster_RT_GPGPU_kipoutre premier du nom. Il me tarde de voir que je me trompe
Larabee première génération sortira donc je verrais si je me trompe ou si je ne me trompe pas parce que si je ne me trompe pas Larabee ne trompera plus personne.
Ok je suis fefe vers la sortie...
Intel n'aurait pas intérêt à lancer son produit, même s'il était médiocre ? Ne serait-ce que pour familiariser les développeurs et consommateurs avec la marque, se faire la main sur les drivers, etc. ; en promettant un Larabee 2 nettement mieux, évidemment.
S'il le sorte et que c'est moyen/nul, Intel se fera descendre sur les perfs mais fera parler de lui niveau architecture.
S'il attende d'avoir une version performante, on risque de ne plus y croire...
L'idéal serait une version performante dès le début.
Pour conclure, rien ne faut le traditionnel "Wait and see".
Mes Lego - Tof : Canon EOS 40D + Tamron 17-50mm F/2.8 + Canon Seepdlite 430 EX II | VDS MadCatz Arcade Fight Stick TE
A supposer que Intel target des performances tres elevees, ils feront probablement un chip de la taille maximale du reticule des machines de prod. De cette maniere tu es quasiment sur d'etre imbattable a condition que ton chip marche et que ton archi soit efficace bien sur. Intel ayant un avantage en terme de process d'1/2 a 1 generation ca fait un facteur 1.4 a 2 en terme de transistors par rapport a ce que peuvent faire les competiteurs, et pour l'instant les plus gros chips des competiteurs ont occupe au max la moitie de la surface dispo, donc cela fait un facteur 4 de transistors au final. Ca laisse pas mal de marge pour faire un chip "mauvais" en terme d'archi/drivers qui est plus que probable pour une premiere generation. Le probleme est que ca coute tres cher de produire ce genre de chip. Donc si les performances sont mediocres, ils en distribueront probablement aux devs en NDA pour qu'ils se familiarisent, mais ils n'iront pas vendre au rabais des chips qui coutent une fortune a produire histoire de ruiner a l'avance la reputation de la ligne de produit.
fefe - Dillon Y'Bon
~3x2cm
cf les dies de Montecito: http://en.wikipedia.org/wiki/Montecito_(processor)
Dernière modification par fefe ; 24/04/2008 à 17h10.
fefe - Dillon Y'Bon
Mes Lego - Tof : Canon EOS 40D + Tamron 17-50mm F/2.8 + Canon Seepdlite 430 EX II | VDS MadCatz Arcade Fight Stick TE