Y'a trop de nouvelles archis qui sortent.
Dans 10 ans, les gens nous regarderont en se moquant de nous, vu que pas plus d'une seule aura probablement survécu.
L'Amiga, bien sûr
Y'a trop de nouvelles archis qui sortent.
Dans 10 ans, les gens nous regarderont en se moquant de nous, vu que pas plus d'une seule aura probablement survécu.
L'Amiga, bien sûr
Dans les années 90, il y avait une cinquantaine de startups quifaisaientlevaient des fonds pour faire des cartes d'accélération 3D. Et aujourd'hui il en reste encore au moins 2. (En plus de l'Atari, bien sûr.)
On est dans la même situation aujourd'hui avec les accélérateurs neuroréseautiques : on a déjà des bibliothèques qui permettent de programmer en haut niveau comme Caffe ou TensorFlow (comme OpenGL ou Direct3D), et pour lesquelles le fabriquant d'accélérateur doit juste écrire un back-end pour son architecture.
Le coût d'entrée pour le programmeur est très faible : idéalement tu branches, tu installes le driver et ça marche, comme une ATI Rage Pro 128 euh... non j'ai rien dit. En tout cas pas besoin de réécrire son code pour le porter sur la nouvelle archi.
Sinon faut arrêter avec l'antigermanisme primaire, c'est très bien le little endian. Cette atrocité de big endian, c'est juste parce que les Européens ont pas capté dans quel sens ça s'écrivait quand ils ont piqué leur système de numération aux Arabes.
C'est vrai, les drivers de la Rage Pro ils marchaient pas si mal.
Avec la toute dernière version beta définitive, on pouvait même faire tourner Half-Life en OpenGL :
avec des textures :
avec les bonnes textures à l'endianness près :
Et bien sûr, la 2D avec sa gestion native de l'entrelacement vertical :
Comme je disais la 3D cette pov carte ne l'a jamais vue. En revanche, jamais de probleme en 2D. Pas comme les soucis en 2D avec une Fire Pro que j'ai du faire remplacer par une NVIDIA. ATI cetromoche
Mon blog (absolument pas à jour) : Teχlog
CUDA: on remballe tout?
http://www.hardware.fr/news/13472/de...-phi-2015.html
Mogluglu en avait parlé, mais j'avais pas bien capté sur le moment. Le successeur du Xeon Phi actuel, qui est un coprocesseur au même titre qu'un GPU, sera un CPU tout court. Il disposera ainsi d'un accès direct à la mémoire central par le bus DDR, certes merdique, mais beaucoup moins que le PCI express. Et surtout, il y aura de la grosse mémoire embarquée on-chip: je ne sais pas de quelle techno il s'agit, mais c'est du 500 Go/s, soit l'équivalent en BP d'un très bon GPU.
En gros, ça ferait comme que si c'était un GPU, mais qu'en fait il serait dans le CPU, et qu'il se programmerio en AVX
C'est loin d'être con sur le principe. Loin d'être gratuit non plus j'imagine.
En tous cas, je préfère voir un vrai GPU dans mon CPU plutôt qu'un FPGA. Faudrait pas non plus que je me forme en FPGA, nanmého
C'est pas encore sorti, mais toujours d'actualité je crois.
Si ça sort, on peut rentrer chez mémé par contre
Edit: la mémoire embarquée à 500 Go/s, c'est de la HMC, soit encore une mémoire 3-D développée conjointement entre Micron et Intel.
Mogluglu en avait parlé sur le topic des mémoires.
Dernière modification par vectra ; 10/05/2016 à 21h09.
La precedente generation de Phi n'a pas fait disparaitre CUDA. Y'a pas de magie : ce n'est pas parce que c'est de l'AVX et du x86 que soudainement ca devient facile d'obtenir du code tres rapide et tirant bien partie du materiel a disposition.
Mais si tu veux tu preux prec-commander une workstation a base de Xeon Phi : http://dap.xeonphi.com/index.html. $5000 c'est tres raisonnable.
Comment ils font pour faire des sites toujours plus abominables
On dirait que c'est hébergé par 1&1
5000 $ c'est vraiment pas cher pour une station complète, mes abrutis de chefs ont payé deux stations à plus de 6000 boules avec des bi-xéons à faible fréquence qui font tourner de l'excel et qui se font doser en mono-thread (voire même à 3, 4 threads). Avec les Tesla + Quadra qu'ils ont ajouté sans savoir s'en servir, je crois que les factures étaient au final entre 8 et 11k, même.
Je les appelle "victimes de la mode", mais je sais pas si ça a un rapport avec le fait qu'ils veulent me virer
Troll à part, leur mémoire 3-D sur processeur, si c'est pas mille fois trop compliqué à programmer, ça résoud énormément de problèmes pour le traitement de gros volumes de données.
De ce point de vue spécifique, c'est quand-même très bien pensé. Les données acquises arrivent forcément par les lignes PCIe vers la mémoire centrale. Elles sont lues depuis le contrôleur mémoire vers le CPU et traitées "sur place" dans leur gros cache très rapide. On peut ensuite les écrire en mémoire, voire, s'ils y pensent, les afficher directement à partir de leur mémoire 3-D vu qu'il y a normalement un contrôleur graphique embarqué sur le CPU (avec CUDA, si t'as une sortie graphique, tu peux copier de la mémoire de calcul vers la "mémoire vidéo").
Avec du 6-channel, je pense que c'est pas impossible d'espérer du 50 Go/s exploitable via le bus mémoire DDR4. Si le PCIe pouvait en dire autant...
Par contre, j'en déduis que tout est spécifique comme matériel, à commencer par la carte-mère qui doit être d'un socket spécifique. C'est bien dommage pour un usage plus "léger", vu que c'est quand-même pratique de pouvoir insérer une carte/un CPU de calcul pour booster un PC lambda.
Dernière modification par vectra ; 11/05/2016 à 10h27.
Bah chez moi, j'ai une Tesla domestiquée qui cohabite avec une GTX 660 sur une alim 430W.
Je pense pas qu'elle parte d'ici avant un moment...
Dernière modification par vectra ; 19/05/2016 à 18h31.
Sinon, c'est bien ici qu'on peut poster du code CUDA, ou tu préfères qu'on ouvre un autre topic?