Crunchez vos adresses URL
|
Calculez la conso électrique de votre PC
|
Hébergez vos photos
Page 3 sur 3 PremièrePremière 123
Affichage des résultats 61 à 78 sur 78
  1. #61
    Y'a trop de nouvelles archis qui sortent.
    Dans 10 ans, les gens nous regarderont en se moquant de nous, vu que pas plus d'une seule aura probablement survécu.

    L'Amiga, bien sûr

  2. #62
    Je n'ai plus d'espoir pour ce monde de brutes depuis fort longtemps. Tant qu'il existera du Little Endian en ce monde, il n'y aura aucun espoir.
    Sombrero d'or since 2015/12/03
    Citation Envoyé par Darkath Voir le message
    Mais enfin c'est toi l'expert, trouve des solutions bordel.

  3. #63
    Dans les années 90, il y avait une cinquantaine de startups qui faisaient levaient des fonds pour faire des cartes d'accélération 3D. Et aujourd'hui il en reste encore au moins 2. (En plus de l'Atari, bien sûr.)

    On est dans la même situation aujourd'hui avec les accélérateurs neuroréseautiques : on a déjà des bibliothèques qui permettent de programmer en haut niveau comme Caffe ou TensorFlow (comme OpenGL ou Direct3D), et pour lesquelles le fabriquant d'accélérateur doit juste écrire un back-end pour son architecture.

    Le coût d'entrée pour le programmeur est très faible : idéalement tu branches, tu installes le driver et ça marche, comme une ATI Rage Pro 128 euh... non j'ai rien dit. En tout cas pas besoin de réécrire son code pour le porter sur la nouvelle archi.

    Sinon faut arrêter avec l'antigermanisme primaire, c'est très bien le little endian. Cette atrocité de big endian, c'est juste parce que les Européens ont pas capté dans quel sens ça s'écrivait quand ils ont piqué leur système de numération aux Arabes.

  4. #64
    Citation Envoyé par Møgluglu Voir le message
    Sinon faut arrêter avec l'antigermanisme primaire, c'est très bien le little endian. Cette atrocité de big endian, c'est juste parce que les Européens ont pas capté dans quel sens ça s'écrivait quand ils ont piqué leur système de numération aux Arabes.
    Et on dit que les x86 c'est du sérieux
    Sombrero d'or since 2015/12/03
    Citation Envoyé par Darkath Voir le message
    Mais enfin c'est toi l'expert, trouve des solutions bordel.

  5. #65
    Citation Envoyé par Møgluglu Voir le message
    idéalement tu branches, tu installes le driver et ça marche, comme une ATI Rage Pro 128:
    Pire achat toujours

  6. #66
    Citation Envoyé par vectra Voir le message
    Pire achat toujours
    J'ai pas souvenir avoir eu des soucis particuliers avec, que ce soit sous Linux ou Windows. Mais elle ne faisait que de la 2D, pour le reste, elle avait une Voodoo branchee au cul

    EDIT: a bien reflechir c'etait plutot une Rage Pro.

  7. #67
    C'est vrai, les drivers de la Rage Pro ils marchaient pas si mal.
    Avec la toute dernière version beta définitive, on pouvait même faire tourner Half-Life en OpenGL :


    avec des textures :


    avec les bonnes textures à l'endianness près :


    Et bien sûr, la 2D avec sa gestion native de l'entrelacement vertical :



  8. #68
    Comme je disais la 3D cette pov carte ne l'a jamais vue. En revanche, jamais de probleme en 2D. Pas comme les soucis en 2D avec une Fire Pro que j'ai du faire remplacer par une NVIDIA. ATI cetromoche

  9. #69
    Citation Envoyé par Møgluglu Voir le message
    Sinon faut arrêter avec l'antigermanisme primaire, c'est très bien le little endian. Cette atrocité de big endian, c'est juste parce que les Européens ont pas capté dans quel sens ça s'écrivait quand ils ont piqué leur système de numération aux Arabes.
    Je crois que même dans un texte en arabe, les nombres sont généralement en big-endian. C'est logique vu que les Arabes ont piqué leur système de numération aux Indiens, qui écrivent de gauche à droite.
    Mon blog (absolument pas à jour) : Teχlog

  10. #70
    CUDA: on remballe tout?

    http://www.hardware.fr/news/13472/de...-phi-2015.html



    Mogluglu en avait parlé, mais j'avais pas bien capté sur le moment. Le successeur du Xeon Phi actuel, qui est un coprocesseur au même titre qu'un GPU, sera un CPU tout court. Il disposera ainsi d'un accès direct à la mémoire central par le bus DDR, certes merdique, mais beaucoup moins que le PCI express. Et surtout, il y aura de la grosse mémoire embarquée on-chip: je ne sais pas de quelle techno il s'agit, mais c'est du 500 Go/s, soit l'équivalent en BP d'un très bon GPU.

    En gros, ça ferait comme que si c'était un GPU, mais qu'en fait il serait dans le CPU, et qu'il se programmerio en AVX
    C'est loin d'être con sur le principe. Loin d'être gratuit non plus j'imagine.


    En tous cas, je préfère voir un vrai GPU dans mon CPU plutôt qu'un FPGA. Faudrait pas non plus que je me forme en FPGA, nanmého

  11. #71
    Ta news date de 2013 non ?
    Sombrero d'or since 2015/12/03
    Citation Envoyé par Darkath Voir le message
    Mais enfin c'est toi l'expert, trouve des solutions bordel.

  12. #72
    C'est pas encore sorti, mais toujours d'actualité je crois.
    Si ça sort, on peut rentrer chez mémé par contre

    Edit: la mémoire embarquée à 500 Go/s, c'est de la HMC, soit encore une mémoire 3-D développée conjointement entre Micron et Intel.
    Mogluglu en avait parlé sur le topic des mémoires.
    Dernière modification par vectra ; 10/05/2016 à 22h09.

  13. #73
    Citation Envoyé par vectra Voir le message
    C'est pas encore sorti, mais toujours d'actualité je crois.
    Si ça sort, on peut rentrer chez mémé par contre
    La precedente generation de Phi n'a pas fait disparaitre CUDA. Y'a pas de magie : ce n'est pas parce que c'est de l'AVX et du x86 que soudainement ca devient facile d'obtenir du code tres rapide et tirant bien partie du materiel a disposition.

    Mais si tu veux tu preux prec-commander une workstation a base de Xeon Phi : http://dap.xeonphi.com/index.html. $5000 c'est tres raisonnable.

  14. #74
    Comment ils font pour faire des sites toujours plus abominables
    On dirait que c'est hébergé par 1&1

    5000 $ c'est vraiment pas cher pour une station complète, mes abrutis de chefs ont payé deux stations à plus de 6000 boules avec des bi-xéons à faible fréquence qui font tourner de l'excel et qui se font doser en mono-thread (voire même à 3, 4 threads). Avec les Tesla + Quadra qu'ils ont ajouté sans savoir s'en servir, je crois que les factures étaient au final entre 8 et 11k, même.
    Je les appelle "victimes de la mode", mais je sais pas si ça a un rapport avec le fait qu'ils veulent me virer



    Troll à part, leur mémoire 3-D sur processeur, si c'est pas mille fois trop compliqué à programmer, ça résoud énormément de problèmes pour le traitement de gros volumes de données.

    De ce point de vue spécifique, c'est quand-même très bien pensé. Les données acquises arrivent forcément par les lignes PCIe vers la mémoire centrale. Elles sont lues depuis le contrôleur mémoire vers le CPU et traitées "sur place" dans leur gros cache très rapide. On peut ensuite les écrire en mémoire, voire, s'ils y pensent, les afficher directement à partir de leur mémoire 3-D vu qu'il y a normalement un contrôleur graphique embarqué sur le CPU (avec CUDA, si t'as une sortie graphique, tu peux copier de la mémoire de calcul vers la "mémoire vidéo").

    Avec du 6-channel, je pense que c'est pas impossible d'espérer du 50 Go/s exploitable via le bus mémoire DDR4. Si le PCIe pouvait en dire autant...


    Par contre, j'en déduis que tout est spécifique comme matériel, à commencer par la carte-mère qui doit être d'un socket spécifique. C'est bien dommage pour un usage plus "léger", vu que c'est quand-même pratique de pouvoir insérer une carte/un CPU de calcul pour booster un PC lambda.
    Dernière modification par vectra ; 11/05/2016 à 11h27.

  15. #75
    Citation Envoyé par vectra Voir le message
    Avec du 6-channel, je pense que c'est pas impossible d'espérer du 50 Go/s exploitable via le bus mémoire. Si le PCIe pouvait en dire autant...
    Vas-y là, tu dénigres le PCI-Express là ? Vas-y, tu veux te battre ?

    Citation Envoyé par vectra Voir le message
    Par contre, j'en déduis que tout est spécifique comme matériel, à commencer par la carte-mère qui doit être d'un socket spécifique. C'est bien dommage pour un usage plus "léger", vu que c'est quand-même pratique de pouvoir insérer une carte/un CPU de calcul pour booster un PC lambda.
    Eh ouais. GPUs forever. CUDA forever.
    Sombrero d'or since 2015/12/03
    Citation Envoyé par Darkath Voir le message
    Mais enfin c'est toi l'expert, trouve des solutions bordel.

  16. #76
    Bah chez moi, j'ai une Tesla domestiquée qui cohabite avec une GTX 660 sur une alim 430W.
    Je pense pas qu'elle parte d'ici avant un moment...
    Dernière modification par vectra ; 19/05/2016 à 19h31.

  17. #77
    Sinon, c'est bien ici qu'on peut poster du code CUDA, ou tu préfères qu'on ouvre un autre topic?

  18. #78
    Ça me va très bien si c'est ici ?
    Sombrero d'or since 2015/12/03
    Citation Envoyé par Darkath Voir le message
    Mais enfin c'est toi l'expert, trouve des solutions bordel.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •