Il y a ça, et toutes les fonctionnalités qui faisaient de C++ un langage moderne :(
Version imprimable
Ah merde. T'as perdu quoi du coup, C++ 14, C++ 11 ?
c++2a :bave:
Adieu délégations de constructeurs, initialisateurs d'attributs, foreach...? :emo:
Je compatis.
C'est moche ça... :sad:
Il va falloir s'ARMer de patience :ninja:
Et pourquoi ne pas gérer toi-même tes propres threads explicites ? :)
Avec ce petit sentiment de puissance ? :ninja:
Ah bah ça bosser dans le HPC et ne jamais avoir touché MPI c'est quand même surprenant. :p
Pas sûr que tu apprennes grand-chose dans la partie OpenMP, mais bon le plus gros de la formation est sur MPI de toutes façons.
- - - Mise à jour - - -
Ouais, quand je pense à tous ces gens qui font du GPGPU en cuda au lieu de détourner des shaders et des textures... Le monde est devenu fainéant faut croire. :siffle:
Je ne sais pas si quelqu'un a déjà passe ces liens ou si tu les connais déjà mais l'idris avait des cours dispo en pdf avec tp et exo corriges sur MPI et OpenMP :http://www.idris.fr/formations/mpi/ http://www.idris.fr/formations/openmp/ http://www.idris.fr/formations/hybride/
Concernant la programmation via les threads et autres,Paul E. McKenney (un inge IBM qui bosse/ a bosse sur le noyau Linux) a écrit (et il ajoute toujours des trucs) 1 bouquin accessible via git (il faut juste le compiler c'est du tex :wub: http://git.kernel.org/pub/scm/linux/...k/perfbook.git
Je l'avais lu un peu en diagonale mais il y avait beaucoup de choses très intéressantes (mais pas mal sont linux-centriques.)
Non mais depuis qu'il y a les Frame Buffer Objects en OpenGL le GPGPU c'est trop facile. Quand ont avait les pbuffers avec des bugs différents à contourner pour chaque driver graphique, c'était le bon temps.
So much memories.... :emo:
Mon projet de master 1 pas fini car à la maison j'avais une ATI limitée à quelquechose comme 96 instructions par shader alors que les geforce de l'époque en permettaient 512. Et le shader principal en demandait une centaine. :emo:
D'ailleurs les excellents tutos de Dominik Göddeke sont toujours en ligne. :)
Avec les tables de compatibilité qui tuent :lol: :
http://www.mathematik.uni-dortmund.d...l.html#arrays3
Les float32 implémentés sur 24 bits en interne. :bave:
Faut pas se moquer, quand ATI a introduit les flottants 24 bits sur le R300, Nvidia en était encore au 16 bits. :)
Quand les deux sont passés au format 32 bits, c'est devenu encore plus drôle : le format de représentation suit à peu près IEEE 754, mais les opérations genre additions et multiplications pas du tout. Et chacune dévie à sa propre façon, entre le nombre de bits de garde, les biais d'arrondi, sans parler du traitement des infinis et des NaN....
Le plus classe étant les pixel shaders du NV40 qui avaient chacun deux unités de calcul différentes. Tu peux faire deux fois la même addition dans ton shader, si les deux ne s'exécutent pas dans le même additionneur elle peuvent renvoyer un résultat différent. :)
Bizarrement, je ne suis pas du tout triste d'avoir changé d'orientation et évité tout ça par la suite.
Là je me remets à la programmation GPU avec OpenACC, c'est quand même beaucoup plus souple. :siffle:
Bizarrement... C'est vraiment étrange...
Merci pour l'info.
En tous cas, bravo les gars, vous vous êtes surpassés. Je cherche l'inspiration pour un nouveau titre qui va bien là...
Comme tu dis, y'a certainement eu un malentendu sur la définition du HPC. Personnellement, je me serais vu dans de l'optimisation CPU ou du portage GPU, mais à l'échelle d'une seule machine. Ce genre de cas de figure devient mainstream pour l'informatique scientifique à petite échelle (imagerie médicale, pilotage d'instruments: j'ai vu ça dans plein de villes sauf Toulouse). Par contre, sur Toulouse, j'ai l'impression que le calcul "massivement" distribué genre MPI ou Spark, AWS (pastaper, je n'y connais rien) constitue le gros des postes, et qu'ils n'embauchent que des gens très bien formés pour ça.
Chais pas où le mettre alors... Au revoir Solaris : http://dtrace.org/blogs/bmc/2017/09/...fe-of-solaris/
J'étais pas spécialement fan mais j'ai fait quelques années avec les stations et terminaux/serveurs de chez Sun :emo:
Spéciale dédicace au gars qui a volé un terminal Sun en salle de TP matméca, ça va devenir un collector.
J'aimais bien Solaris. mais bon, c'est parce que j'ai bossé un an chez Sun en... putain, 2004 ? 2005 ? A l'aide, je suis vieux...
Question d'échelle je pense. Tu as des grooooosses boîtes qui font des grooooos calculs.
Ou plus pragmatiquement : "oui ce serait bien si on tournait 3 fois plus vite sur la même machine, mais là en fait on a accès à un cluster avec 1000 processeurs donc je préfère qu'on puisse tourner là-dessus même si ça ne va que 100 fois plus vite" :p