Bande d'élitistes, on a toujours un problème de chômage massif des gens pas qualifiés en France, c'est sympa de leur part de chercher un compilateur humain
Bande d'élitistes, on a toujours un problème de chômage massif des gens pas qualifiés en France, c'est sympa de leur part de chercher un compilateur humain
Si toi aussi tu veux programmer en Python:
https://www.humblebundle.com/softwar...dev-kit-bundle
On peut coder en Python dans la Numworks (et dans son émulateur) mais on est vite bridé par µPython (pas d’ensemble, création de classe bridée, 4096 octets…)
Bah, ça pousse à la créativité.
une balle, un imp (Newstuff #491, Edge, Duke it out in Doom, John Romero, DoomeD again)
Canard zizique : q 4, c, d, c, g, n , t-s, l, d, s, r, t, d, s, c, jv, c, g, b, p, b, m, c, 8 b, a, a-g, b, BOF, BOJV, c, c, c, c, e, e 80, e b, é, e, f, f, f, h r, i, J, j, m-u, m, m s, n, o, p, p-r, p, r, r r, r, r p, s, s d, t, t
Canard lecture
Ca sent quand-même pas mal le questionnaire recopié viteuf. Si le RH savait ce qu'il y avait dedans, il aurait honte pour la boîte je pense.
J'ai déjà eu ce cas de figure, mais là les recruteurs ont été plus prudents, et m'ont demandé ce que j'en pensais.
- - - Mise à jour - - -
Monsieur, vous trollez un peu là
Les RH c'est sensible à la honte ?
J'espère que non.
Sleeping all day, sitting up all night
Poncing fags that's all right
We're on the dole and we're proud of it
We're ready for 5 More Years
Cool, les paliers ont l'air de respecter une certaine logique de progression technique ou c'est moi?
Du coup quelqu'un connais un peu Packt ou a essayé Mapt?
tu peux essayer leur livre offert par jour: https://www.packtpub.com/packt/offer...ing?from=block pour te faire une idée
Packt Publishing c'est un éditeur encore jeune, agressif sur les tarifs (sauf quelques exceptions) et les commissions accordées aux auteurs (quasiment le double de chez Eyrolles).
La contrepartie c''est qu'il y a beaucoup d'ouvrages et très peu d'exigences sur la qualité (bossant avec eux en tant qu'auteur et relecteur depuis quelques années).
Tu peux donc trouver de très bons bouquins, ou de véritables étrons. Bref, renseignez-vous sur les auteurs avant d'acheter.
Les quelques ouvrages Packt que j'ai en ma possession sont OK. Avec mention spéciale pour PostgreSQL High Availability Cookbook - Second Edition qui est vraiment bien foutu et couvre extrêmement bien le sujet.
Et j'ai pris le bundle DevOps à 8€
Coin,
j'ai un souci d'installation de VTK (le Visual Tool Kit) au moyen de cette formule Homebrew de mon cru. VTK doit linké avec Qt ce qui justifie cette formule "custom".
Le problème: les librairies VTK ont des chemins vers leurs dépendances Qt qui ne sont pas toujours correctement construits.
Un exemple quand tout va bien (sur mon Mac):
Un exemple sur le Mac où les cibles ne sont pas correctement définies:Code:# otool -L /usr/local/lib/libvtkGUISupportQtSQL-8.1.1.dylib : ... /usr/local/opt/qt/lib/QtWidgets.framework/Versions/5/QtWidgets ...
notez le @rpath auquel est pas substitué /usr/local/opt/qt/lib/ (dossier qui existe par ailleurs avec toutes les libraries requises).Code:# otool -L /usr/local/lib/libvtkGUISupportQtSQL-8.1.1.dylib : ... @rpath/QtWidgets.framework/Versions/5/QtWidgets ...
A quel stade CMake construit-il les chemins vers les cibles en substituant @rpath?
VTK+Qt+Cmake: je vais voir ça bientôt sur mon Ubuntu, mais pour le moment, je croule littéralement sous la biblio urgente de pour hier
Un des avantages de Packt, c'est qu'ils couvent des sujets et des domaines assez peu représentés chez les autres éditeurs. J'en ai quelques uns et la qualité est assez correcte (techniquement pertinent et pas trop de coquilles).
MakerBuino:
https://opensource.com/article/18/2/...onsole-arduino
Qui se lance ?
Bon bah du coup oui, tu peux récupérer un bouquin par jour si tu penses à te connecter, et le backlog des bouquins "cool pour plus tard" grandit évidemment plus vite que la pile des "terminés". Du coup pas besoin des mettre des sioux dans le bundle, le temps que je m'intéresse au devOps j'aurai probablement chopé un quinquin ou deux. :-pince-:
Mon backlog packt est du coup assez rempli et très hétéroclite et ça me permet d'avoir un tas de bouquin pour amorcer un sujet et voir si j'ai besoin de plus ou non.
Par contre je devrais peut-être faire un backup de ceux qui m'intéressent : je ne sais pas si les livres ainsi collectés vont rester indéfiniment dans mon compte ou si Packt va rester en vie...
J'avais acheté un livre 'beginner' et un autre 'how-to' sur un sujet un peu marginal (OSGi) et c'était pas terrible, notament le how-to ultra basique.
J'avais pris ça lors d'une réduc (tout à -50%) et je trouvais que même pour 12€ c'était plutôt léger (le how-to fait 66 pages...) et j'aurais été bien déçu de mettre 20€ dedans.
Depuis je ne prends plus que les livres gratuits en accumulant 'pour plus tard', et je vais en consulter un de temps en temps :D
Le contenu est souvent de qualité, et le fait que le tout soit gratuit (et légal) rend très indulgent !
Impressionnant quand même (voir les exemples contenus dans le papier):
Noise2Noise: Learning Image Restoration without Clean Data
(Pdf, 9.4Mo).
La morale, c'est qu'il n'y a pas besoin d'avoir vu une image sans bruit pour savoir débruiter ? Vu que le bruit n'est corrélé avec rien d'autre, le réseau de neurones l'ignore, pas con.
(Je me demandais ce que Nvidia Finlande foutait avec du deep learning, jusqu'à ce que je vois l'application au lancer de rayons en temps (presque) réel...)
Y a vraiment un interet ?
Je m'explique : sur raspberry et compagnie ce que j'aime c'est bidouiller, et les Unix-like s'y prêtent mieux je trouve, z'en pensez quoi ?
En plus ca économise une licence
Salut,
Pour un bout de code en Python, j'utlise la librairie sckikit.statistics pour travailler avec la fonction de répartition de la distribution-F. Il s'agit d'une fonction avec deux hyper paramètres et un scalaire en entrée.
Il y a deux modes d'utilisation:
1 - charger une instance de la fonction de répartition pour deux hyper paramètres donnés. On peut ensuite l'utiliser sur autant de scalaire que l'on veut.
2- récupérer directement le résultat de la fonction pour deux hyper paramètres et un scalaire donnés.
Après quelques tests, il se trouve que 1- est significativement plus lent que 2-.
Le problème c'est que j'utilise cette fonction pour une variété d'hyper paramètres et que je souhaite optimiser mon code. Je pensais utiliser l'approche suivante:
a- pour un domaine d'hyper paramètres donné, utiliser une approximation suffisament précise pour mon application et rapide de la fonction
b- pour le reste, créer le reste d'instance de fonctions de répartition correspondant au domaine d'hyper paramètres restants (genre une dixaine)
=> Est-ce que c'est une bonne approche?
Merci!
C'est effectivement le profileur qui m'a dit que ça passait du temps dans la fonction de cette librairie. Du coup, ça doit correspondre à du natif ?
Je saurais pas trop répondre pour CPython.
Merci;
Ces derniers jours, la rumeur voulait que ce soit en discussion, mais MS pourrait annoncer le rachat de GitHub dès demain : https://www.theverge.com/2018/6/3/17...isition-rumors
Un des fondateurs de Xamarin dirigerai la nouvelle branche.
Et du coup beaucoup de gens parlent de se barrer de Github direction Gitlab. Ca va être l'exode.
"Dieu est mort" · "Si le téléchargement c’est du vol, Linux c’est de la prostitution."