Le plus choquant c'est la mémoire ; 8GB de mémoire partagée c'est bien, mais de la DDR3 c'est quand même lent pour le GPU. Quand on voit la différence de perf entre GDDR5 et DDR3 sur les cartes graphiques (facile 25-30%), je trouve le (présumé) choix de Sony plus pertinent, à savoir 4GB de GDDR5 partagés pour CPU et GPU.
Ce qui veut dire que même s'il y a autant de puissance que sur un GPU Southern Islands (HD78x0), ils vont se retrouver avec des perfs plus proche des Cap Verde (HD77x0) à cause de la mémoire...
Et les 8 coeurs Jaguar c'est bien, mais à 1,6Ghz et sachant que pas mal de jeux sont difficilement multithreadables, ça risque de pas être simple pour les développeurs sur des jeux multijoueurs ou open-world notamment.
Apparemment Jaguar n'est pas basé sur Bulldozer/Piledriver en tout cas vu leur descriptif (pas de partage d'unités entre les coeurs).
Sauf que le manque de ram était un des principaux défauts de conception de la PS3 qui handicape fortement la partie graphique et oblige les développeurs à ruser pour contourner les limitations. Du coup, sur la plupart des jeux multiplateforme (et en particulier au lancement de la console, ça s'est amélioré sur la fin), la xbox360 s'est toujours mieux débrouillée que la PS3 alors que sur le papier cette dernière était sensé être beaucoup plus puissante.
À savoir que c'est un problème récurrent chez Sony depuis la PS2 sortie avec une partie graphique surpuissante pour l'époque, mais deux fois moins de mémoire vidéo que la N64 avec expansion pack ou la Dreamcast.
Mouais, mémoire rapide vs. plus grande quantité de mémoire quoi... C'est vrai que 4GB partagés, c'est peu même aujourd'hui.
En tout cas il est loin le temps où les consoles mettaient les PC à l'amende à leur sortie. Grâce à l'optimisation elles risquent d'offrir des perfs similaires à des PC de joueurs moyens de 2012 pour un prix plus abordable, mais si c'est le cas il ne faudra pas attendre longtemps pour qu'elles soient de nouveau larguées. Et pour le 4K ça manquera cruellement de puissance de calcul graphique tout ça...
Ne pas oublier qu'à spécifications égales, une console est plus efficace qu'un PC. Ceci est dû à l'optimisation. Pour une console donnée, on code pour une configuration unique bien déterminée, ou prou, alors que sur PC, il faut coder pour supporter un nombre colossal de configurations possibles. D'ailleurs, Doc TB en avait causé au sujet de Skyrim.
Une console n'est pas plus efficace.
Les dev code mieux sur console.
Ce qui n'est clairement pas la meme chose.
J'avais cru comprendre (info que j'avais vue je ne sais plus ou !) que justement l'architecture PC et xbox, étaient très proche en terme de développement du fait que la xbox est une machine Microsoft ça n'est pas le cas en fait ?
Je croyais que c'était parce que sur console les dev pouvaient "parler directement" au hardware sans passer par des drivers et des API et des trucmuches qui plombent nos PC de bourgeois?
Panem et circenses.
L'optimisation sur console c'est de mettre par exemple sur PS3 Grand Theft Auto IV en 1152x640 avec un peu d'anti-aliasing et je parle même pas des 20fps quand il y a un peu d'action à l'écran, j'appelle pas ça de l'optimisation, ou alors j'en fais tous les jours quand je change les filtres ou la résolution en fonction de mes jeux sur PC.
La Xbox était un PC déguisé dans un boitier très très très laid. La 360 est basée sur un PowerPC couplé à une Radeon faite spécialement pour et probablement assez similaire à une X18xx.
On dirait bien que la seule différence entre les prochaines consoles de MS et de Sony, ça va être le logo du fabricant dessus et le truc qui servira d'OS. Du coup, le PC gagnerait la guerre des consoles par absorption.
Il y a forcément des API et des trucs comme ça de nos jours. Les développeurs ne peuvent pas parler à du matériel aussi complexe uniquement en assembleur et en C et faire tout le travail eux-mêmes. Le truc avec une console, c'est que sa configuration étant fixée dans le marbre pendant quelques années, les développeurs ont largement le temps de travailler au corps ses spécificités pour en tirer le maximum. Sur PC, le seul truc qui soit fixe, c'est l'OS et les API qui servent à lui parler. Après la machine et sa configuration est terriblement variée, les architectures de GPU changent régulièrement, les CPU ajoutent chaque année une paire d'instructions ou deux, tout bouge et je suppose qu'en conséquence, il est largement plus difficile et économiquement non rentable de prendre du temps pour optimiser pour telle ou telle configuration.
T'es sur ?
J'ai toujours lu que sur console les mecs attaquaient directement le HW Quelques mois apres la sortie de la PS3, je discutais avec un dev qui bossait chez IO sur Hitman (une brute d'ailleurs, non seulement niveau code, mais aussi niveau theorie du graphisme avec plusieurs articles publies dans des revues scientifiques) et deja ils parlaient en directement au RSX en court-circuitant les lib Sony (un subset d'OpenGL si je me souviens bien). Donc meme tres tot dans le cycle de vie d'une console ces malades font du bas niveau
Sinon on peut limiter le débat à "une console c'est avec une manette" je crois qu'on sera tous content.
Pas étonnant mais toujours très
http://www.comptoir-hardware.com/act...a-kepler-.html
Fallait pas faire des cartes à 256 bites. A mon avis!
C'était un des points forts des GTX 5xx le computing, il me semble qu'effectivement les choix d'nVidia sur la génération 6 ont porté sur une grosse amélioration des perfs en jeux 3D plutôt qu'en computing où ils régressent.
Si mes souvenirs sont bons les AMD sont HD7xxx sont bonnes en computing - si tant est bien sûr qu'un logiciel sache les exploiter.
Fallait surtout ne pas acheter des GeForce pour faire tourner du calcul double précision.
La double tourne 24 fois moins vite que la simple précision sur GK104 (GTX 680), alors qu'elle est seulement bridée à 1/8 sur les GTX 480 / 580.
Une vieille Tesla C2075 mettra une raclée à tout ça de toute façon, sans parler des K20.
Peut-être qu'ils auraient du brider davantage les GTX 480 et 580 pour éviter les "OMG Kepler çaynul" ?
De toute façon dans une grille de calcul on met pas des GTX680/670.
Les pro n'ont qu'à acheter des cartes dédiées au monde pros.
Ah, la bonne vieille question de la fréquence mémoire système...
Tom's Hardware s'y attaque, en jeux, sur une plateforme ultra-bourgeoise (i7 Extreme + CFX de HD7970). Le résultat est pourtant bien décevant, avec des écarts allant du faible à l'inexistant malgré un passage du dual au quad-channel (supporté par la LGA2011).
Dommage de pas avoir testé sur une config plus normale (i5 + GTX660Ti ou HD7870).
Et hop un petit dossier pour confirmer que la fréquence mémoire et le CAS on s'en tamponne les rouflaquettes ! http://www.tomshardware.com/reviews/...ming,3409.html
Je n'ai pas vraiment compris leur conclusion... :/
En gros, ils disent qu'une plus grande fréquence ne sert à rien ?... Sauf dans un jeu où ils ont "entre aperçu" une amélioration au niveau des frames, avec une plus grande fréquence ?
Mais que dans le reste ça reste invisible pour l'oeil humain... c'est ça ? Ou j'ai rien compris ? xD
C'est pas de tout ça mais on s'approche de la limite des 10 000 messages sur ce topic
Le moment venu, au choix :
- je ferme et j'ouvre le Volume II
- un volontaire crée et manage le V. II (màj premier message tout ça...)
- Goldorak déboule et 'cule un poney
On me souffle dans l'oreillette que pour des raisons techniques et légales, la N°3 n'est hélas pas envisageable. Reste donc à savoir si un ce volontaire existe.
C'est pas d'une urgence absolue, la base de donnée n'implose pas pile-poil à dix mille messages hein ?
On a donc le temps d'en discuter
Bonjour M le modo :lecheurdebottes:,
En quoi consisterait le "management" du topic en fait?
Est ce plutôt un rôle d'animation du topic ou de surveillance/vérification des infos? (ou les deux)