Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 2 sur 182 PremièrePremière 123456789101252102 ... DernièreDernière
Affichage des résultats 31 à 60 sur 5433
  1. #31
    Citation Envoyé par taronyu26 Voir le message
    Ah, les smart pointers

    Les vrais n'utilisent pas ce mécanisme de faible

    Sinon je me suis commandé deux bouquins qui ont l'air vraiment bien. Un sur le développement C/Asm pour ARM (récent et introuvable en France, du coup go UK), un autre sur le reverse engineering et entres autres la couche kernel de Windows.
    Il y a ça, et toutes les fonctionnalités qui faisaient de C++ un langage moderne

  2. #32
    Ah merde. T'as perdu quoi du coup, C++ 14, C++ 11 ?

  3. #33
    c++2a
    "Dieu est mort" · "Si le téléchargement c’est du vol, Linux c’est de la prostitution."

  4. #34
    Adieu délégations de constructeurs, initialisateurs d'attributs, foreach...?

    Je compatis.

  5. #35
    Citation Envoyé par taronyu26 Voir le message
    Ah merde. T'as perdu quoi du coup, C++ 14, C++ 11 ?
    Ouais en gros c'est ça
    Faut que j'envoie un mail au prof, je crois que la machine qu'il utilise pour compiler tourne sous redhat, si ça se trouve il peut upgrade g++ facilement !

  6. #36
    C'est moche ça...

    Il va falloir s'ARMer de patience

  7. #37
    Citation Envoyé par taronyu26 Voir le message
    C'est moche ça...

    Il va falloir s'ARMer de patience
    Par ici les royalties, merci
    Citation Envoyé par François
    L'ordinateur cantique, c'est l'avenir.

  8. #38
    Citation Envoyé par Lazyjoe Voir le message
    Viens on est bien.
    Par contre c'est vraiment parallélisme 101, le public habituel c'est les thésards en CFD qui veulent un peu comprendre comment marche le parallélisme des codes qu'ils vont utiliser.

    Perso, j'ai jamais fait de MPI et ça m'a coûté un entretien d'embauche déjà.
    Pour OpenMP, je pense qu'on peut faire un peu plus que paralléliser des boucles for comme dans mon code. Si la formation couvre un peu tout cela, ça peut valoir le coup comme-même.

  9. #39
    Et pourquoi ne pas gérer toi-même tes propres threads explicites ?

    Avec ce petit sentiment de puissance ?

  10. #40
    Citation Envoyé par vectra Voir le message
    Perso, j'ai jamais fait de MPI et ça m'a coûté un entretien d'embauche déjà.
    Pour OpenMP, je pense qu'on peut faire un peu plus que paralléliser des boucles for comme dans mon code. Si la formation couvre un peu tout cela, ça peut valoir le coup comme-même.
    Ah bah ça bosser dans le HPC et ne jamais avoir touché MPI c'est quand même surprenant.
    Pas sûr que tu apprennes grand-chose dans la partie OpenMP, mais bon le plus gros de la formation est sur MPI de toutes façons.

    - - - Mise à jour - - -

    Citation Envoyé par taronyu26 Voir le message
    Et pourquoi ne pas gérer toi-même tes propres threads explicites ?

    Avec ce petit sentiment de puissance ?
    Ouais, quand je pense à tous ces gens qui font du GPGPU en cuda au lieu de détourner des shaders et des textures... Le monde est devenu fainéant faut croire.
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  11. #41
    Citation Envoyé par vectra Voir le message
    Perso, j'ai jamais fait de MPI et ça m'a coûté un entretien d'embauche déjà.
    Pour OpenMP, je pense qu'on peut faire un peu plus que paralléliser des boucles for comme dans mon code. Si la formation couvre un peu tout cela, ça peut valoir le coup comme-même.
    Je ne sais pas si quelqu'un a déjà passe ces liens ou si tu les connais déjà mais l'idris avait des cours dispo en pdf avec tp et exo corriges sur MPI et OpenMP :http://www.idris.fr/formations/mpi/ http://www.idris.fr/formations/openmp/ http://www.idris.fr/formations/hybride/

    Concernant la programmation via les threads et autres,Paul E. McKenney (un inge IBM qui bosse/ a bosse sur le noyau Linux) a écrit (et il ajoute toujours des trucs) 1 bouquin accessible via git (il faut juste le compiler c'est du tex http://git.kernel.org/pub/scm/linux/...k/perfbook.git

    Je l'avais lu un peu en diagonale mais il y avait beaucoup de choses très intéressantes (mais pas mal sont linux-centriques.)
    We all know Linux is great... it does infinite loops in 5 seconds.
    Linus Torvalds

  12. #42
    Citation Envoyé par Lazyjoe Voir le message
    Ouais, quand je pense à tous ces gens qui font du GPGPU en cuda au lieu de détourner des shaders et des textures... Le monde est devenu fainéant faut croire.
    Joli !

  13. #43
    Non mais depuis qu'il y a les Frame Buffer Objects en OpenGL le GPGPU c'est trop facile. Quand ont avait les pbuffers avec des bugs différents à contourner pour chaque driver graphique, c'était le bon temps.

  14. #44
    So much memories....

    Mon projet de master 1 pas fini car à la maison j'avais une ATI limitée à quelquechose comme 96 instructions par shader alors que les geforce de l'époque en permettaient 512. Et le shader principal en demandait une centaine.
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  15. #45
    Citation Envoyé par Lazyjoe Voir le message
    So much memories....

    Mon projet de master 1 pas fini car à la maison j'avais une ATI limitée à quelquechose comme 96 instructions par shader alors que les geforce de l'époque en permettaient 512. Et le shader principal en demandait une centaine.
    ATI...

    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  16. #46
    D'ailleurs les excellents tutos de Dominik Göddeke sont toujours en ligne.
    Avec les tables de compatibilité qui tuent :
    http://www.mathematik.uni-dortmund.d...l.html#arrays3

  17. #47
    Citation Envoyé par taronyu26 Voir le message
    Joli !
    La base quoi!

  18. #48
    Les float32 implémentés sur 24 bits en interne.
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  19. #49
    Faut pas se moquer, quand ATI a introduit les flottants 24 bits sur le R300, Nvidia en était encore au 16 bits.

    Quand les deux sont passés au format 32 bits, c'est devenu encore plus drôle : le format de représentation suit à peu près IEEE 754, mais les opérations genre additions et multiplications pas du tout. Et chacune dévie à sa propre façon, entre le nombre de bits de garde, les biais d'arrondi, sans parler du traitement des infinis et des NaN....

    Le plus classe étant les pixel shaders du NV40 qui avaient chacun deux unités de calcul différentes. Tu peux faire deux fois la même addition dans ton shader, si les deux ne s'exécutent pas dans le même additionneur elle peuvent renvoyer un résultat différent.

  20. #50
    Bizarrement, je ne suis pas du tout triste d'avoir changé d'orientation et évité tout ça par la suite.

    Là je me remets à la programmation GPU avec OpenACC, c'est quand même beaucoup plus souple.
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  21. #51
    Bizarrement... C'est vraiment étrange...

  22. #52
    Citation Envoyé par brundleti Voir le message
    Je ne sais pas si quelqu'un a déjà passe ces liens ou si tu les connais déjà mais l'idris avait des cours dispo en pdf avec tp et exo corriges sur MPI et OpenMP :http://www.idris.fr/formations/mpi/ http://www.idris.fr/formations/openmp/ http://www.idris.fr/formations/hybride/

    Concernant la programmation via les threads et autres,Paul E. McKenney (un inge IBM qui bosse/ a bosse sur le noyau Linux) a écrit (et il ajoute toujours des trucs) 1 bouquin accessible via git (il faut juste le compiler c'est du tex http://git.kernel.org/pub/scm/linux/...k/perfbook.git

    Je l'avais lu un peu en diagonale mais il y avait beaucoup de choses très intéressantes (mais pas mal sont linux-centriques.)
    Merci pour l'info.
    En tous cas, bravo les gars, vous vous êtes surpassés. Je cherche l'inspiration pour un nouveau titre qui va bien là...


    Citation Envoyé par Lazyjoe Voir le message
    Ah bah ça bosser dans le HPC et ne jamais avoir touché MPI c'est quand même surprenant.
    Pas sûr que tu apprennes grand-chose dans la partie OpenMP, mais bon le plus gros de la formation est sur MPI de toutes façons.
    Comme tu dis, y'a certainement eu un malentendu sur la définition du HPC. Personnellement, je me serais vu dans de l'optimisation CPU ou du portage GPU, mais à l'échelle d'une seule machine. Ce genre de cas de figure devient mainstream pour l'informatique scientifique à petite échelle (imagerie médicale, pilotage d'instruments: j'ai vu ça dans plein de villes sauf Toulouse). Par contre, sur Toulouse, j'ai l'impression que le calcul "massivement" distribué genre MPI ou Spark, AWS (pastaper, je n'y connais rien) constitue le gros des postes, et qu'ils n'embauchent que des gens très bien formés pour ça.
    Dernière modification par vectra ; 05/09/2017 à 22h11.

  23. #53
    Chais pas où le mettre alors... Au revoir Solaris : http://dtrace.org/blogs/bmc/2017/09/...fe-of-solaris/
    Attention, un Max_well peut en cacher un autre
    Equipe Highlander La Rache

  24. #54
    J'étais pas spécialement fan mais j'ai fait quelques années avec les stations et terminaux/serveurs de chez Sun
    Spéciale dédicace au gars qui a volé un terminal Sun en salle de TP matméca, ça va devenir un collector.

  25. #55
    J'aimais bien Solaris. mais bon, c'est parce que j'ai bossé un an chez Sun en... putain, 2004 ? 2005 ? A l'aide, je suis vieux...
    Ce qu'il faut savoir, c'est qu'on ment beaucoup aux minmatars, surtout lorsqu'ils posent des questions du style: "t'es sûr que ça vole, ce truc ?" Cooking Momo, le 30/08/09

  26. #56
    Citation Envoyé par vectra Voir le message
    Merci pour l'info.
    En tous cas, bravo les gars, vous vous êtes surpassés. Je cherche l'inspiration pour un nouveau titre qui va bien là...
    Moi je trouve que programmer en assembleur c'est trop facile, du coup je fais l'inverse en ce moment.
    "Dieu est mort" · "Si le téléchargement c’est du vol, Linux c’est de la prostitution."

  27. #57
    Citation Envoyé par rOut Voir le message
    Moi je trouve que programmer en assembleur c'est trop facile, du coup je fais l'inverse en ce moment.
    Je suis surpris que tu ne tapes pas directement ton programme en langage machine et que tu passes encore par l'étape de l'assembleur...

    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  28. #58
    Citation Envoyé par vectra Voir le message
    J'étais pas spécialement fan mais j'ai fait quelques années avec les stations et terminaux/serveurs de chez Sun
    Spéciale dédicace au gars qui a volé un terminal Sun en salle de TP matméca, ça va devenir un collector.
    Citation Envoyé par Teocali Voir le message
    J'aimais bien Solaris. mais bon, c'est parce que j'ai bossé un an chez Sun en... putain, 2004 ? 2005 ? A l'aide, je suis vieux...
    Moi je suis certifié Admin Solaris 8, avec le diplôme et le pin's
    Attention, un Max_well peut en cacher un autre
    Equipe Highlander La Rache

  29. #59
    Citation Envoyé par vectra Voir le message
    Comme tu dis, y'a certainement eu un malentendu sur la définition du HPC. Personnellement, je me serais vu dans de l'optimisation CPU ou du portage GPU, mais à l'échelle d'une seule machine. Ce genre de cas de figure devient mainstream pour l'informatique scientifique à petite échelle (imagerie médicale, pilotage d'instruments: j'ai vu ça dans plein de villes sauf Toulouse). Par contre, sur Toulouse, j'ai l'impression que le calcul "massivement" distribué genre MPI ou Spark, AWS (pastaper, je n'y connais rien) constitue le gros des postes, et qu'ils n'embauchent que des gens très bien formés pour ça.
    Question d'échelle je pense. Tu as des grooooosses boîtes qui font des grooooos calculs.
    Ou plus pragmatiquement : "oui ce serait bien si on tournait 3 fois plus vite sur la même machine, mais là en fait on a accès à un cluster avec 1000 processeurs donc je préfère qu'on puisse tourner là-dessus même si ça ne va que 100 fois plus vite"
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  30. #60
    Citation Envoyé par FB74 Voir le message
    Je suis surpris que tu ne tapes pas directement ton programme en langage machine et que tu passes encore par l'étape de l'assembleur...

    Ben non, là c'est plutôt décompiler des trucs... mais j'arrive pas encore à lire l'hexa.
    "Dieu est mort" · "Si le téléchargement c’est du vol, Linux c’est de la prostitution."

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •