Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Affichage des résultats 1 à 6 sur 6

Discussion: Sujet de dossier

  1. #1
    Bonjour les canards,
    comme idée de sujet, je me demandais si nous n'assistions pas cette année à la fin de la loi de Moore, puisque Haswell ne semble qu'une évolution mineure, même si l'intégration de l'iGPU peut biaiser (j'ai bien dit "biaiser") les chiffres.

    Merci à la rédac
    Le fervent lecteur depuis le le numéro 1

  2. #2
    Coin,
    Moore a été rangé dans le placard depuis belle lurette . Enfin... si l'on regarde Intel. Côté AMD, les procos évoluent plutôt bien, même si cela peut s'expliquer par le retard à rattraper sur Intel.
    Hélas.

  3. #3
    Houla, dicussion de spécialistes, je n'y comprends pas grand chose^^

  4. #4
    Nan, c'est accessible
    La loi de Moore, votée par le sénat durant l'été 1789, parle de l'évolution de la puissance des ordinateurs et de leur complexité.
    Le truc, c'est que s'ils sont toujours de plus en plus sophistiqués, leur puissance augmente de moins en moins vite (les fréquences stagnent, le nombre de cœurs aussi). Aujourd'hui Intel préfère faire dans le processeur économe en énergie, ce qui est compréhensible étant donné l'époque (le confort lié à la faible conso et l'absence de bruit, l'idée de la conso électrique, la compacité). Il faut aussi prendre en compte les difficultés de la programmation parallèle : par exemple, si tirer partie de 8 cœurs est facile pour du transcodage vidéo, c'est une autre paire de manches dans d'autres domaines. Un processeur 32 cœurs n'aurait absolument aucune utilité sur un ordinateur grand public.
    Y'a bien que les cartes graphiques qui concilient faible conso (au repos, évidemment) et puissance de calcul de plus en plus démentielle. Mais c'est normal : les traitement effectués par les GPU sont parallélisables, et on leur en demande toujours plus. Les GPU peuvent devenir plus puissants, et on le leur demande (les jeux vidéos sont de plus en plus beaux). Ce qui n'est plus le cas avec les CPU : Word reste Word, et il tourne aussi bien avec un Core i3 Somalie-Edition qu'avec un Core i7 CAC40-Edition.
    Donc sur les CPU, Moore n'est plus d'actualité. Concernant les GPU, c'est encore assez valable.
    Dernière modification par gros_bidule ; 15/04/2013 à 16h55.

  5. #5
    Dans ce cas-là, à quand une fusion du GPU et DU CPU en un seul composant?

    Peut-être aussi que ça peut changer si on créer des jeux où on développera des aspects encore délaissés aujourd'hui: par exemple une IA complexe, beaucoup plus performante, ou bien capable d'éprouver des sentiments. Dans les années 2000 on parlait beaucoup de cette idée, de l'image de l'ordinateur ayant des sentiments, je suppose que si on veut coder une personnalité ça relèver aplus du CPU que du GPU.

    D'un côté, si les processeurs stagnent, tant mieux pour nos porte-monnaies, ça nous évite de changer de cpu tous les 36 du mois

    C'est aussi pour ça que beaucoup de gens disent qu'acheter un I7 pour jouer n'a presque aucun intérêt par rapport à un i5?

  6. #6
    Yes, en général un i5 suffit (ou même un i3). Il y a longtemps, on disait déjà qu'un CPU performant n'était pas si important : alors que le GPU était sollicité à fond, le processeur ne grimpait que rarement dans les tours (à l'époque de SimCity 2000 et 3000 par exemple, un Pentium 2 à 350MHz + un GPU TNT2 le faisait tourner sans soucis. Le CPU ne bronchait pas, le GPU tournait à donf mais bien). Aussi, la différence entre un i5 et un i7 se situe au niveau du nombre de cœurs, or très peu de jeux tirent partie des cœurs supplémentaires offerts par l'i7. Les simulations, de par leur nature, sont souvent capables de tirer partie d'un grand nombre de cœurs, quand c'est bien codé. Mais un FPS, un jeu de caisses, etc... c'est difficile.

    Des IA ultra-poussées ? Surement, mais il faut voir ce qu'on nous annonce (le dernier SimCity d'EA devait avoir une IA super top-moumoute à vous décoller le cerveau) et ce qu'on a (bullshit). Les CPU actuels ont encore une belle marge avant de n'être pas assez puissants pour les algos d'IA.

    La fusion CPU&GPU ? On est justement en plein dedans. Tu as déjà des CPU embarquant une partie graphique capable de faire tourner TF2 sans soucis. Et les nouvelles générations promettent. A terme, il est tout à fait possible de ne plus avoir à acheter un GPU séparément du CPU. D'ailleurs il y a une petite note à ce sujet dans le dernier CPC Hardware, à propos des nouveaux CPU Intel embarquant une partie graphique, dont la puissance sera telle qu'Apple pense (peut être, this iz a supposition only, c'tout) proposer ces CPUs sur ses PCs et ne plus leur adjoindre de GPU NVidia.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •