Citation:
Envoyé par
newbie06
Oui surtout les programmes x87 ^_^ Et ça va aller en s'arrangeant avec l'AVX.
Ben oui sur du code ecrit pour une machine a pile trouve une archi aussi efficace
Citation:
D'un autre côté tu présentes les choses comme si Intel & Co avait tout inventé, les autres n'étant que des suiveurs. Je pense qu'il y a eu toute une époque où d'un point de vue micro-architectural Intel n'était qu'un suiveur sur le x86. Je me souviens avoir beaucoup ri lorsqu'ils ont présenté leur concept révolutionnaire de moteur RISC interne. Ha ouai ils devaient parler de micro-op :p
Je ne crois pas avoir dit qu'il n'y avait jamais rien eu d'autre que du x86. L'alpha 21264 a ete pendant un long moment la meilleure machine a executer du code mal compile ou mal ecrit, precede par ... mmm le P6 ... Avant le P6 n'importe quelle archi RISC s'en sortait mieux sur du code pourri que les x86 (et en face du P6 le PPC604, meme s'il s'en sortait pas mal, restait assez sensible tres dependant des optims).
Citation:
Maintenant les choses ont changé car Intel a le meilleur process du monde (et l'a peut-être toujours eu, c'est un domaine que je ne connais pas) et l'architecture la plus utilisée.
L'avantage de process s'est accentue avec le temps, vu que les investissements necessaires pour progresser sont exponentiels et ne laissent plus la place a des petits acteurs avec de bonnes idees.
Citation:
N'empêche que leurs avancées ne me font toujours pas rêver, empiler des nouvelles instructions et élargir les chemins de data, mouai ça sert, est-ce nouveau ? Chais pas, faut que je ressorte mes bouquins sur les archis vectorielles d'il y a 30 ans. J'imagine assez que beaucoup de choses ne sont pas expliquées qui seraient amusantes, mais comme je ne les connais pas...
Je suis d'accord avec toi que depuis P4 il n'y a pas eu grand chose de vraiment excitant dans le monde du x86. Beaucoup de bonnes idees realistes et pas tres sexy en font de bons produits mais c'est tout. Pour le reve et les innovations majeures, regarder cote GPU ou Niagara...
Il y a beaucoup a faire dans le SIMD: la plupart des problemes de SIMD modernes peuvent trouver des reponses dans les machines vectorielles, mais en pratique c'est nettement plus complique que ca, les contraintes sont finalement assez differentes, et les codes aussi.
Citation:
De là à croire que les autres ne peuvent innover et baffer Intel temporairement, que seul Intel a besoin d'un tel niveau de performances, non. Toutes les archis se tapent des JIT JVM, du dispatch dynamique, du pointer chasing, des programmes d'incompétents qui ne savent pas ce qu'un cache est obligeant à faire du prefetch, des optimisations sur les TLB de niveau 1, de la compatibilité avec des aberrations d'une autre époque, etc.
Ce n'est pas ce que je disais. Je voulais juste dire que pour browser le web regarder des videos de poneyz et ecrire des mails il y a probablement 50 boites dans le monde qui peuvent faire des cpus suffisants.
Apres il y aura toujours des codes pourris, des languages de trop haut niveau etc... Et pour ca AMD et Intel dominent et effectivement les autres peuvent aller se coucher, les dernieres startups qui ont essaye se sont oriente vers du low cost (en fin de projet parce qu'ils n'arrivaient pas a de bonnes perfs) et ont fait faillite, cf au hasard Transmeta, Montalvo et ce malgre des investissements assez enormes (>100aines millions de $ au mini par projet en R&D). Meme VIA/Centaur qui a pourtant une experience tres importante sort son Isaiah qui du point de vue features ressemble a un Phenom/C2D (single core) mais en a la moitie des performances. Comme processeur hautes performances il reste quoi d'autre ? IBM avec la serie Power qui ne me donne pas l'impression de vouloir re-investir dans des CPUs client.
Mais le monde du software a pris de trop mauvaises habitudes avec les augmentations de performances regulieres et garanties sans n'avoir rien a faire.
Citation:
Mais si leurs efforts étaient suffisants, ils n'ajouteraient pas des dizaines d'instructions tous les deux ans (argument à moitié fallacieux, mais pas 100% faux). Leurs nouvelles instructions vectorielles n'amélioreront pas les perfs de l'existant, mais je suis sûr qu'on verra plein de reviewers se caresser devant les vitesses d'encodage des programmes les utilisant.
Bof, il y a des gens de marketing qui se sont rendus compte que ca faisait plein de pub d ajouter des instructions regulierement plutot que de tout ajouter d'un coup. Donc l'argument tombe un peu a l'eau. La methode est de faire un jeu d'instruction a trous, avec des torus connus et d'ajouter petit a petit le reste (j'exagere un peu, les instructions ajoutees sur le tard sont essentiellement des instructions ayant un rendement cout/perf faible cf SSE3 et SSE4.2 par ex). En plus a chaque nouvelle release d'un jeu d'instruction ca fait une feature de plus a mettre sur la boite que le concurrent ne supporte pas (c'est mesquin mais ca marche).