c++2a
"Dieu est mort" · "Si le téléchargement c’est du vol, Linux c’est de la prostitution."
Ah bah ça bosser dans le HPC et ne jamais avoir touché MPI c'est quand même surprenant.
Pas sûr que tu apprennes grand-chose dans la partie OpenMP, mais bon le plus gros de la formation est sur MPI de toutes façons.
- - - Mise à jour - - -
Ouais, quand je pense à tous ces gens qui font du GPGPU en cuda au lieu de détourner des shaders et des textures... Le monde est devenu fainéant faut croire.
Je ne sais pas si quelqu'un a déjà passe ces liens ou si tu les connais déjà mais l'idris avait des cours dispo en pdf avec tp et exo corriges sur MPI et OpenMP :http://www.idris.fr/formations/mpi/ http://www.idris.fr/formations/openmp/ http://www.idris.fr/formations/hybride/
Concernant la programmation via les threads et autres,Paul E. McKenney (un inge IBM qui bosse/ a bosse sur le noyau Linux) a écrit (et il ajoute toujours des trucs) 1 bouquin accessible via git (il faut juste le compiler c'est du tex http://git.kernel.org/pub/scm/linux/...k/perfbook.git
Je l'avais lu un peu en diagonale mais il y avait beaucoup de choses très intéressantes (mais pas mal sont linux-centriques.)
We all know Linux is great... it does infinite loops in 5 seconds.
Linus Torvalds
Non mais depuis qu'il y a les Frame Buffer Objects en OpenGL le GPGPU c'est trop facile. Quand ont avait les pbuffers avec des bugs différents à contourner pour chaque driver graphique, c'était le bon temps.
So much memories....
Mon projet de master 1 pas fini car à la maison j'avais une ATI limitée à quelquechose comme 96 instructions par shader alors que les geforce de l'époque en permettaient 512. Et le shader principal en demandait une centaine.
D'ailleurs les excellents tutos de Dominik Göddeke sont toujours en ligne.
Avec les tables de compatibilité qui tuent :
http://www.mathematik.uni-dortmund.d...l.html#arrays3
Faut pas se moquer, quand ATI a introduit les flottants 24 bits sur le R300, Nvidia en était encore au 16 bits.
Quand les deux sont passés au format 32 bits, c'est devenu encore plus drôle : le format de représentation suit à peu près IEEE 754, mais les opérations genre additions et multiplications pas du tout. Et chacune dévie à sa propre façon, entre le nombre de bits de garde, les biais d'arrondi, sans parler du traitement des infinis et des NaN....
Le plus classe étant les pixel shaders du NV40 qui avaient chacun deux unités de calcul différentes. Tu peux faire deux fois la même addition dans ton shader, si les deux ne s'exécutent pas dans le même additionneur elle peuvent renvoyer un résultat différent.
Merci pour l'info.
En tous cas, bravo les gars, vous vous êtes surpassés. Je cherche l'inspiration pour un nouveau titre qui va bien là...
Comme tu dis, y'a certainement eu un malentendu sur la définition du HPC. Personnellement, je me serais vu dans de l'optimisation CPU ou du portage GPU, mais à l'échelle d'une seule machine. Ce genre de cas de figure devient mainstream pour l'informatique scientifique à petite échelle (imagerie médicale, pilotage d'instruments: j'ai vu ça dans plein de villes sauf Toulouse). Par contre, sur Toulouse, j'ai l'impression que le calcul "massivement" distribué genre MPI ou Spark, AWS (pastaper, je n'y connais rien) constitue le gros des postes, et qu'ils n'embauchent que des gens très bien formés pour ça.
Dernière modification par vectra ; 05/09/2017 à 21h11.
Chais pas où le mettre alors... Au revoir Solaris : http://dtrace.org/blogs/bmc/2017/09/...fe-of-solaris/
Attention, un Max_well peut en cacher un autre
Equipe Highlander La Rache
J'étais pas spécialement fan mais j'ai fait quelques années avec les stations et terminaux/serveurs de chez Sun
Spéciale dédicace au gars qui a volé un terminal Sun en salle de TP matméca, ça va devenir un collector.
J'aimais bien Solaris. mais bon, c'est parce que j'ai bossé un an chez Sun en... putain, 2004 ? 2005 ? A l'aide, je suis vieux...
Ce qu'il faut savoir, c'est qu'on ment beaucoup aux minmatars, surtout lorsqu'ils posent des questions du style: "t'es sûr que ça vole, ce truc ?" Cooking Momo, le 30/08/09
Attention, un Max_well peut en cacher un autre
Equipe Highlander La Rache
Question d'échelle je pense. Tu as des grooooosses boîtes qui font des grooooos calculs.
Ou plus pragmatiquement : "oui ce serait bien si on tournait 3 fois plus vite sur la même machine, mais là en fait on a accès à un cluster avec 1000 processeurs donc je préfère qu'on puisse tourner là-dessus même si ça ne va que 100 fois plus vite"