Et non : réservé aux Xeons Yorkfield . Mais on peut toujours espérer sur desktop.Envoyé par fefe
Et non : réservé aux Xeons Yorkfield . Mais on peut toujours espérer sur desktop.Envoyé par fefe
putain, au lieu de mettre les Xeon en 1600, du 1066 sur portable serait bien aussi.
parce que le 800, ça fait un peu cheap quand même (et le 667 ou 533 sur les modèles OEM encore plus)
Le 1600 sur des Xeons, c'est un plus non négligeable : déjà qu'il y a 4 cores par xeon, avec deux xeons, le débit mémoire par core finit tout petit lors de calculs lourdement SMP. Je crois que chez Intel, c'est une priorité plus importante que de monter le bus des CPU mobiles. Et puis il y aura le Barcelona en face. Alors que les Turions ponpon, heu ....:DEnvoyé par dandu
Dès que des versions Quad et Extreme seront à l'ordre du jourEnvoyé par dandu
De plus, un haut FSB limite la marge de manoeuvre du multiplicateur avec l'EIST.
Mon 1700/400 peut varier de 600 à 1700 MHz. (6-17)
Le 1866/533 de mon père varie de 800 à 1866 MHz (6-14)
Un 2000/667 (que j'ai pas sous la main) doit varier de 1000 à 2000 MHz (6-12)
En passant au FSB 800, la fréquence minimale passe à 1200 MHz. Intel a dû ajouter un mécanisme pour baisser le FSB à 533 MHz pour avoir une fréquence basse à 800 MHz. Un 2200/800 peut faire varier son multiplicateur de 6 à 11 pour atteindre des fréquences entre 1200 et 2200 MHz en mode FSB 800 et 800 MHz en mode FSB 533.
S'ils passent à un FSB de 1066 MHz, le nombre de processeur de la gamme va diminuer (sauts de 266 MHz, car multiplicateur entier) et un processeur 2400/1066 aurait un multiplicateur de 9 et une fréquence basse à 1600 MHz.
la vitesse passe à FSB 400 MHz en fait, en Santa Rosa : le FSB est divisé par deux, avec un multiplicateur de 8.
Donc même en FSB 1066, on pourrait avoir du 800 MHz quand même : 1066/2 * 6
je pense d'ailleurs pouvoir passer à 600 MHz avec le mien, faut que j'essaye avec NHC un de ces jours.
puis bon, c'est pas compliqué de rajouter des multiplicateurs, et le Penryn devrait apporter des multiplicateurs 1/2
De toute façon, la fréquence minimale n'auras plus forcement besoin d'être aussi basse, plus on avance dans le temps, plus on avance dans la gravure, moin le rapport fréquence/consommation est élevé.
Mon P!!! 600 MHz (250 nm) était donné pour 25 W et mon Pentium M (90 nm) aussi .Envoyé par Alexko
Tu as donc raison. :D
par contre, mon Core 2 il est donné à 35 W (65 nm)
Et mon Core 2 E2180 (65 nm) est donné pour moins de 30 W. Mais là, on parle de dual core.
http://www.digit-life.com/articles2/...2140-2160.html
Par contre, 1200 MHz, il y a 5 ans, ça consommait 30 W avec un PIII en pleine charge, alors qu'aujourd'hui, les mêmes 1200 MHz consomment 12-15 W avec un Core 2 économique au repos (et 5 W avec un Pentium M ULV en charge).
Dans l'absolu, ca devrait effectivement augmenter, mais grâce au process de fabrication de mieux en mieux maitrisé, (enfin, ca prend un certain temps, cf haut de gamme qui peut rester un moment dans le process n-1) et autres technologies comme le strained Si, SOI, semi-conducteurs ou alliages exotiques, low/high K, ..., au final ca baisse ou ca se maintient. Jusqu'ici.Envoyé par Alexko
Edit : ajout du low/high K, mais il y encore d'autres certainement (et l/h K entre dans la catégorie des semi-conducteurs)
Ils ont pas introduit les demi coeff recemment ? (ou les reintroduire sur les futures proc)Envoyé par johnnyholzeisen
A poil
http://www.matbe.com/actualites/18931/intel-x48/
"Intel Skull Trail"
La je croit que çà soulève completement le doute :rofl:
Sinon ce que Alexko voulait dire je pense c'est que ma formulation était foireuse, pas l'idée derrière.
Oui, ils ont bien des délires macabres :DEnvoyé par PeGGaaSuSS
Oui :jap:Envoyé par PeGGaaSuSS
Petit remontage de topic.
Je me suis (enfin) décidé à tester personnellement le G33 avec un jeu DX8 (RTCW).
Bon ben c'est pas ça du tout. Même si j'ai mis qualité maximale et en 1280X1024, j'obtiens 15 fps de moyenne : pour un jeu sorti en 2001, ça la fout un peu mal quand même :whistle:. Je faisais aussi bien avec une GF2 MX, avec les mêmes réglages.
Après, c'est peut-être l'option "détail géométrique élevé" qui plombe les performances, et vu que le GMA3100 ne dispose pas d'unités de vertex, il a du mal à cause de ça, si je ne me trompe pas.
Je n'ose même pas tester HL² :eek?:.
Ca sent une 8400GS, voire une 8500GT prochainement ^^.
1. Il n'a pas le fill rate pour tenir 1280x1024 avec a peu pres tout ce que je connais
2. Les transformations geometriques sont faite en soft donc, tu passes probablement ton temps a attendre le cpu si tu as mis une geometrie complexe.
fefe - Dillon Y'Bon
perso, j'ai testé des jeux avec un MacBook, c'est absolument pitoyable (GMA 950)
genre certains jeux me disqnet que ma carte graphique est obsolète direct
Pour le 2, entièrement d'accord.Envoyé par fefe
Pour le 1, le fillrate est quand même au dessus d'une GF4 Ti (1,6 Gpixels contre 1,2 Gpixels pour la GF4 Ti 4600). Je ne crois pas que ça soit ça qui doit limiter, même en 1280X1024. J'avais une GF4 Ti 4200, et ça passait parfaitement avec les réglages ultra hauts (genre 60 à 80 fps).
Ta Ti4600 avait combien de bande passante memoire ?.
fefe - Dillon Y'Bon
Autant que ma DRAM video partagée actuelle (~ 10 Go/s) :P
Edit : et c'était une Ti 4200, pas une 4600 (vu le prix que cette dernière coûtait aussi :eek?
Remontage de topic.
Il faut vraiement qu'Intel fasse de gros efforts sur les drivers de ses GMA .
La prise en charge des téléviseurs HD en mode DVI (PC) ---> HDMI (TV), c'est pas encore ça du tout.
Problème d'overscan forcé par le téléviseur : les pilotes GMA ne peuvent rien faire.
Problème de lisibilité des polices d'écran et de la netteté.
Problème de contraste : même avec un réglage le plus optimal possible, je suis loin du rendu en mode VGA.
La résolution maximale proposée est de 1280X720 sur une télé qui est nativement en 1366X768 : les derniers forceware de nVidia permettent de régler pile-poil la résolution native du téléviseur. Chez Intel, on va sans doute attendre 1 ou 2 ans, comme ce fut le cas avec le support DX10 des GMA X3x00.
Et enfin pour couronner le tout, le Clear Video (équivalent du Pure Video et de l'Avivo) sert presque à rien, car en h.264, l'accélération hardware est chétive, et aucune accélération VC-1.
Bref, je viens de commander une 8400GS G98 : pas envie d'attendre comme un con qu'Intel fasse un petit effort là-dessus .