Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 15 sur 43 PremièrePremière ... 5789101112131415161718192021222325 ... DernièreDernière
Affichage des résultats 421 à 450 sur 1288
  1. #421
    Celle là aussi est très bien faite



    - - - Mise à jour - - -

    Citation Envoyé par Nilsou Voir le message
    Généralement ce n'est qu'un approximateur linéaire au doigt mouillé qui en ressort. Ça ne remplace pas les anciennes méthodes, c'est juste plus rapide. Auparavant tu faisait de la simulation numériques ou de la régression sur les données pour faire fitter les courbes. Au pire avec suffisamment d'exemple tu établissait des abaques. Tu connais les abaques ? Ces tableaux de courbes qui ne sont, finalement, que des succession d'exemples connu relié par des points et qu'on consulte pour résoudre le problème sur les points intermédiaire en supposant que c'est suffisamment linéaire ?
    Bon ben voila, le deep learning, ça te pond une abaque de façon automatique au lieu de la faire à la main et ça te la trouve peu importe le nombre de dimension, ce qui est cool.

    C'est sympa, ça permet d'économiser des matheux et des ingés sur les problèmes simple qu'on pourrait résoudre analytiquement, ça t'économise de la soufflerie ou autres simulation numerique/pratique quand tu le résolvais de cette manière auparavant, et dans quelques rares cas ça te trouve des liens entre des trucs que tu n'aurais pas imaginé lier.
    100% d'accord

  2. #422
    Citation Envoyé par Kamikaze Voir le message
    Y'a computerphile qui a fait de très très bonnes vidéo sur le sujet (en anglais).

    Il faut cherche sur le channel mais beaucoup de sujets concernant l'IA ont été postés

    https://www.youtube.com/user/Computerphile/videos

    J'aime beaucoup celle là (une bonne première approche pour voir comment modéliser un problème pour le donner à manger à une IA):

    https://www.youtube.com/watch?v=q6iqI2GIllI
    C'est pas mal, c'est grosso modo le même court que ce que j'ai eu en première année . Un grand classique sur la décomposition linéaire. Ça te permettra ensuite de comprendre pourquoi ça a bloqué pendant 30 ans suite à l'article historique de 69 ^^ .
    Spoiler : en gros, parce que le trait qu'il trace, c'est à peu prés tout ce que peut faire un perceptron seul. Donc si tu fout tes trucs en ronds, tu es cuits .
    Il a fallut attendre 20 ans pour avoir la solution

    - - - Mise à jour - - -

    Citation Envoyé par Kamikaze Voir le message
    Celle là aussi est très bien faite

    Il est bon. La solution classique ici est d'avoir toujours du bruit (de l'exploration, comme tu veut) pour pouvoir "sortir" de ce minimum local (dans sa video c'est un maximum local mais je trouve ça plus parlant avec un minimum, tu a la notion de rester coincer dans le trou et tenter de sautiller pour en sortir)

    Sur un agent en environnement reel, le probleme se pose peu, le monde étant assez bordelique/chaotique pour imposer de nouvelles experiences régulierement (en gros pour téléporter le mec n'importe ou sur la carte de temps à autres), ce qui résout le problème en grande partie.

    C'est dommage, je crois que mes cours d'optimisations sont les seuls non filmés dans mon master. Sinon je les auraient linké. Par contre ils sont un peu moins "doux"
    Dernière modification par Nilsou ; 20/06/2017 à 17h05.

  3. #423
    Citation Envoyé par Møgluglu Voir le message
    Tu as des refs là-dessus ? Ça me parait chelou une superposition pseudo-quantique à l'échelle macroscopique...
    J'avais jamais répondu à cette question (de 2016 :P ) dans les dernières pages. Je t'en trouverais si tu veut. Mais ça se comprends assez simplement si tu a manipulé les opérateurs de calculs quantique ET que tu à fait un peu d'IA en neural field (j'ai eu cette chance en faisant une spé info quantique en ingé et ensuite mon doctorat en IA :selapete: ) . Les comportements sont assez proche (superposition d'état, traitement "parallèle" de ces états malgré leur superposition, qui est non destructive, puis état final en fonction de tout les trucs entremêlée, qui lui est donc unique macroscopiquement. Bon ben c'est la même chose ^^. Traitement parallèle par divers neurones en masses, qui peuvent aboutir à des résultats opposés ou à des chats mort-vivant puis "tranchage" de la solution pour avoir un comportement cohérent (de toute façon, comme en quantique, l'univers te l'impose : tu ne peut pas commander un muscles avec deux ordres contradictoires, ils vont se mélanger pour aller au milieu puis c'est tout, ou d'un coté ou de l'autre selon le traitement . Comme tu ne peut pas avoir un chat observé mort-vivant, pas encore )
    C'est d'ailleurs suffisamment similaire pour qu'il y ai eu des tentatives pour utiliser les opérateurs du calcul quantique pour décrire des réseaux de neurones. Mais bon, comme je le disait, la comparaison est assez foireuse car bien des phénomènes statistiques peuvent être comparé ainsi. Elle n'est pas fausse, mais pas de quoi en faire un foin. Mais bon, ça leur permet de vendre des bouquins mystiques .
    Dernière modification par Nilsou ; 20/06/2017 à 17h25.

  4. #424
    Citation Envoyé par Nilsou Voir le message
    C'est sympa, ça permet d'économiser des matheux et des ingés sur les problèmes simple qu'on pourrait résoudre analytiquement, ça t'économise de la soufflerie ou autres simulation numerique/pratique quand tu le résolvais de cette manière auparavant, et dans quelques rares cas ça te trouve des liens entre des trucs que tu n'aurais pas imaginé lier.
    Sauf que le temps de calcul (notamment si tu changes l'ordre de la complexité) peut être ultra déterminant dans la possibilité des applications industrielles.

    Par exemple : la Transformée de Fourier rapide n'apporte rien de nouveau en soit, pourtant ça a révolutionné les télécoms.

  5. #425
    Il a pas dit le contraire. Les solutions analytiques qu'évoque Nilsou sont typiquement plus efficaces justement

  6. #426
    Citation Envoyé par Croaker Voir le message
    Je ne m'y connais pas assez mais je crois qu'on peut intégrer une forme d'IA dans les agents d'un SMA, au moins du type neuronale (renforcement?). Ce qui ne change effectivement rien à leur fonction/rôle mais constitue une forme d'évolution.

    Pour ce que tu dis dans l'industrie, il y a plein de problèmes où avoir une solution rapide et pas trop déconnante rapporte (comparé par exemple à des algo dédiés conçu par un expert - non CPC - pour des scénarios qui ne sont plus valides), par exemple la planif des écrans de pub sur les chaînes de TV. (bon, en l'espèce, je ne crois pas que ce soit fait avec des SMA, mais ça pourrait).


    Il existe des types de SMA, dits Coopératifs, qui sont composés d’agents aux comportements pouvant être assez complexes.

    Pour faire simple, chaque agent agit par rapport à ses perceptions locales, et évalue son degré « d’inconfort » (criticité) pour décider de ses actions. Il se renseigne sur l’état de ses voisins, et agit pour minimiser sa valeur de criticité sans faire exploser celle de son voisinage. Les agents peuvent se supprimer du système s’ils ne se considèrent plus comme pertinent, ou conduire à la création d’autres agents pour les assister.

    Le reste des comportements est dépendant du problème à traiter, et c’est là qu’est la difficulté de coder de tels systèmes. Mais ils vont d’agents très réactifs à des agents possédants de grosses capacités d’apprentissage pour évaluer leur pertinence au cours du temps etc.

    Le bon côté, c’est que ce type de SMA est très robuste, en particulier dans les environnements dynamiques vu que la structure formée par les agents s’adapte aux contraintes de l’environnement pour faire émerger le fonctionnement global attendu.

    L’équipe SMAC de l’IRIT à Toulouse développe des systèmes basés sur cette techno, il y a des publis pas mal si vous êtes intéressés j’pourrais en link quelques-unes.

  7. #427
    Mais tu a des exemples de tels systèmes qui apprennent dynamiquement ET qui ont une application autre qu’expérimentale ? (pas juste des publis)
    Nous on fait ça en apartés des thèmes principaux de l'équipe et aux dernières nouvelles de mon coté les industriels sont quand même peu friand de systeme "trop" dynamique. Ils préfèrent un comportement stable pour leur problème stable, sans surprise, quitte à recoder les agents si le problème évolue au cas par cas etc...

    Enfin j'imagine que dans des applications spécifiques ça doit exister, mais je voudrais bien des exemples quand même ^^.

    Edit : je n'avais jamais entendu parler de cette équipe, mais j'aime bien leur thème au premier coups d’œil, j'irai jeter un coups d’œil aux publis je pense. On a du se croiser à certains trucs je pense, comme les GDR GT8 en neuroscience computationnelle qui ont parfois lieux à Toulouse au Laas

    re-edit : Ho putain ce n'est pas une petite équipe, rien que la liste des publis de Zaraté est juste astronomique . Il doit surement se trouver dans nos biblio dans un coin ...
    Dernière modification par Nilsou ; 20/06/2017 à 18h56.

  8. #428
    Pour une vue générale de l’approche, il y a une description ici ftp://ftp.irit.fr/pub/IRIT/SMAC/DOCU...A03_George.pdf

    Sinon au niveau des applications, il y a eu pas mal de projets sur l'optimisation multi-critères/multi objectifs avec des résultats très sympa, en particulier en aéro et dans le spatial.
    En fait, l'équipe a beaucoup de sujets de recherche sur des appli concrètes et en partenariat avec des industriels, ça va de la sélection génétique de maïs à la calibration de moteurs.

    Mais effectivement, pour "productiser" la techno et vendre des solutions basées là dessus c'est une autre problématique.
    Du coup pour les applications autre qu’expérimentales, si "c'est vendues et appliquées hors labo", c'est ce sur quoi des anciens de l'équipe bossent en ce moment =)

    Si c'est sur des problématique concrètes avec des données issues du monde réel, là il y a de la matière dans les publis de l'équipe.

  9. #429
    Citation Envoyé par Nilsou Voir le message
    Généralement ce n'est qu'un approximateur linéaire au doigt mouillé qui en ressort. Ça ne remplace pas les anciennes méthodes, c'est juste plus rapide. Auparavant tu faisait de la simulation numériques ou de la régression sur les données pour faire fitter les courbes. Au pire avec suffisamment d'exemple tu établissait des abaques. Tu connais les abaques ? Ces tableaux de courbes qui ne sont, finalement, que des succession d'exemples connu relié par des points et qu'on consulte pour résoudre le problème sur les points intermédiaire en supposant que c'est suffisamment linéaire ?
    Bon ben voila, le deep learning, ça te pond une abaque de façon automatique au lieu de la faire à la main et ça te la trouve peu importe le nombre de dimension, ce qui est cool.

    C'est sympa, ça permet d'économiser des matheux et des ingés sur les problèmes simple qu'on pourrait résoudre analytiquement, ça t'économise de la soufflerie ou autres simulation numerique/pratique quand tu le résolvais de cette manière auparavant, et dans quelques rares cas ça te trouve des liens entre des trucs que tu n'aurais pas imaginé lier.

    C'est cool, c'est sympa. Rien de tout cela ne te permettra de construire une IA qui se lèvera un jour pour te dire coucou, qui établira des stratégie "humaine" dans un JV, qui aura des comportements animaux crédible et persistants dans un MMO ou un robot, qui chassera des insectes en y croyant fermement à sa nourriture sous forme de drone ou qui sera capable, avec n'importe quel corps, d'apprendre à l'utiliser malgré ses défauts pour explorer son environnement, agir avec etc...
    Bref, en fait, rien de ce que tu attends d'une IA au sens sympa du terme
    Et je n'ai pas parlé d'IA au sens fort, mais bien d'aptitude pour des emplois humains et distinction d'une intuition humaine.
    Dans le sens où si l'Ia sera toujours aussi peu adapatable/intelligente, dès qu'on va la restreindre à une spécialisation,je ne vois pas la limite à part la recherche pure.
    Quand tu vois l'application au jeu de go, on voit typiquement que ce n'est pas juste des problèmes qu'on peut résoudre analytiquement.
    Citation Envoyé par Dar Voir le message
    Tin' on est les champions pour se tirer des balles dans le pied et throw comme des glands.

  10. #430
    Citation Envoyé par Nilsou Voir le message
    J'avais jamais répondu à cette question (de 2016 :P ) dans les dernières pages. Je t'en trouverais si tu veut. Mais ça se comprends assez simplement si tu a manipulé les opérateurs de calculs quantique ET que tu à fait un peu d'IA en neural field (j'ai eu cette chance en faisant une spé info quantique en ingé et ensuite mon doctorat en IA :selapete: ) . Les comportements sont assez proche (superposition d'état, traitement "parallèle" de ces états malgré leur superposition, qui est non destructive, puis état final en fonction de tout les trucs entremêlée, qui lui est donc unique macroscopiquement. Bon ben c'est la même chose ^^. Traitement parallèle par divers neurones en masses, qui peuvent aboutir à des résultats opposés ou à des chats mort-vivant puis "tranchage" de la solution pour avoir un comportement cohérent (de toute façon, comme en quantique, l'univers te l'impose : tu ne peut pas commander un muscles avec deux ordres contradictoires, ils vont se mélanger pour aller au milieu puis c'est tout, ou d'un coté ou de l'autre selon le traitement . Comme tu ne peut pas avoir un chat observé mort-vivant, pas encore )
    C'est d'ailleurs suffisamment similaire pour qu'il y ai eu des tentatives pour utiliser les opérateurs du calcul quantique pour décrire des réseaux de neurones. Mais bon, comme je le disait, la comparaison est assez foireuse car bien des phénomènes statistiques peuvent être comparé ainsi. Elle n'est pas fausse, mais pas de quoi en faire un foin. Mais bon, ça leur permet de vendre des bouquins mystiques .
    OK, mais ça revient grosso-modo à dire "y'a des tenseurs dedans donc c'est quantique".
    Ce qui fait la spécificité du calcul quantique c'est pas juste la superposition, c'est surtout l'intrication, qui fait qu'avec n qubits tu as une superposition de 2^n états. C'est-à-dire un point dans un espace à 2^n dimensions.
    Si l'état manipulé lors du "traitement parallèle" n'a que n^k dimensions avec k constant, c'est simplement du calcul probabiliste à la Monte-Carlo. Y associer le mot quantique n'est pas seulement "assez foireux", c'est totalement bullshit. Rien que je fait qu'on arrive à faire tourner les algos sur des dispositifs macroscopiques régis par la physique classique (ordinateur ou cerveau) en temps raisonnable montre bien que c'est du bullshit.

  11. #431
    Citation Envoyé par Kamikaze Voir le message
    Il a pas dit le contraire. Les solutions analytiques qu'évoque Nilsou sont typiquement plus efficaces justement
    Pour résoudre un problème donné oui.
    Si tu te retrouves dans un cas où tu as des multitudes de problèmes différents à résoudre (en temps réel si t'aimes le funky) là ça peut devenir beaucoup plus intéressant.

  12. #432
    Ouais après ce que je voulais dire surtout c'est que les systèmes avec agent c'est un peu "un aveu de défaite". J'ai absolument rien contre, d'ailleurs je bosse sur un projet perso en ce moment qui utilise pas mal de techniques "force brute" de ce genre, machine learning etc. mais c'est plus dans l'optique de détecter des patterns sous jacents (les liens dont parlait Nilsou) a posteriori via un regard humain, pour ultimement s'en libérer (donner du sens aux paramètres utilisés lors de l'apprentissage), c'est une bonne approche je pense.

    Mais quand tu modélises quelque chose avec des agents pour moi c'est dire que tu comprends pas la dynamique du système et que du coup tu choisis la solution de répliquer.

    J'exagère un peu mais si on avait eu ça au 19ème siècle on serait peut-être parti sur une représentation par agent pour l'équation de la chaleur en modélisant chaque particule comme un agent

    J'exagère, j'exagère, hein! Mais y'a une certaine paresse dangereuse à se reposer sur cette puissance je trouve.

  13. #433
    Je ne crois pas que ca soit trivial de faire un modele multiagent, souvent dans un bon modele il y a des agents qui ne correspondent a rien de physique.

    Il y a egalement d'autres formes de SMA qui font appel a plus de mathematiques.
    Allez au diable Square-Enix Co. Ltd., Character Development, Marketing Division, et autres Online Business chaipasquoi.

  14. #434
    https://en.wikipedia.org/wiki/Hidden_variable_theory



    Enfin je sais pas exactement ce que tu sous entendais par rien de physique mais ça fait parti du problème que j'évoque.

    Tu peux entrainer un énorme réseau de neurone à faire un truc, mais tu pourras pas comprendre l'état dans lequel il est, et comment manipuler les paramètres issus de l'apprentissage => ça marche mais tu sais pas trop pourquoi.

    Après c'est bien aussi car tu peux découvrir des dynamiques que tu n'avais pas prévues, reste à leur donner du sens.

    Ton agent abstrait c'est un peu comme le poids arbitraire d'un neurone.

    Mais tu parlais peut-être d'autre chose, en tout cas ça me tenait à coeur d'évoquer ma réflexion à ce sujet, voilà

  15. #435
    Citation Envoyé par ducon Voir le message
    Et la misère structurelle de masse est une exception pas française ?
    En très forte baisse depuis cinquante ans


    Un exemple de métier qui va se faire IAifier : comptable. Pas l'expert hein. Le bon vieux comptable des familles qu'on trouve encore dans toutes les boîtes.

  16. #436
    Citation Envoyé par Kamikaze Voir le message
    Mais tu parlais peut-être d'autre chose, en tout cas ça me tenait à coeur d'évoquer ma réflexion à ce sujet, voilà
    Si tu as le temps, jettes un oeil au doc de l'IRIT (ou leur page web), c'est assez clair et vraiment pas du tout abstrait.
    En tout cas moi je trouve ca sympa leurs histoires d'intelligence collaborative, meme si on atteint les limites de la machine puisque les ia collaborent effectivement.
    (Parce qu'en vrai, en mettant suffisamment d'humain sur une tache, on est sur qu'il vont tous se mettre a glander sur le forum de cpc).
    Allez au diable Square-Enix Co. Ltd., Character Development, Marketing Division, et autres Online Business chaipasquoi.

  17. #437
    Citation Envoyé par Nilsou Voir le message
    En gros il y a des trucs assez fou, mais ça ne fait pas encore la unes des journaux ^^ Je devrait peut-etre mettre quelques videos ici de temps à autres ... edit : Petit exemple simple qui explique le "non buzz" autour. Imaginons que tu simule à 100% le cerveau d'une souris. Un truc fou quand meme d'un point de vue avancée. Tu simule son comportement robotiquement, tu a tout qui est similaire, tu a meme des souris qui interagissent avec et tout. Bref, le max de ce que tu pouvait esperer, tout est OK rien à signaler. Normalement, tu serais en droit d'esperer une interview sur tout les plateaux, un buzz de fou et un rdv à l'ONU dans la minute suivante pour débattre du risque d'aller plus loin ou non . En vrai pas du tout. C'est contre-intuitif mais assez simple une fois compris : je fout cette souris dans un JV, va tu faire la différence avec une IA de chie un peu tuné ? Ben en général pas trop, tu ne la remarquera peut etre meme pas ... (ça a d'ailleurs été prouvé dans pleins d'application) Et c'est là le soucis... hormis le truc qui marche ou qui parle (qui dans les deux cas peut etre con comme ses pieds malgré sa spécialisation dans ce domaine) créer de l'intelligence ne va pas faire le buzz tout simplement parce que ça ne saute pas aux yeux ... dans un forum d'IA on n'y prêterais même pas attention en fait... car l'intelligence, le fait d’être malin, d'apprendre, de s'adapter, ça peut être aussi discret et banal que le comportement d'un pauvre cloporte... Donc rien à faire, ça ne buzzera pas. Et seul une interaction attentive, et non une video, pourra emmener l'observateur à se rendre compte de la profondeur de la realisation. Sur ce point d'ailleurs, je ne fais que répéter les prédictions d'Asimov, qui avais prédit une chutte de l'IA blingbling humanoïde, puis une remontée douce et sans heurt via les jouets pour enfants, entres-autres. Tout simplement parce que : quoi de mieux qu'un jouet et l’appréciation d'un enfant sur le long terme pour jauger de la oufitude d'une bébête artificielle et ramener de la thune dans le secteur, l'attention des parents, des décideurs, puis boule de neige et c'est bon ? Un grand homme cet Asimov...
    Parce que pour la plupart des gens, l'être animal n'est pas l'être humain, au sens Heideggerien. Déjà, il restera toujours la question fondamentale de savoir si l'être animal artificiel est un être animal, autre que de part sa simulation de comportement d'être animal. Et ensuite, il y a un gouffre, selon la philosophie d'Heidegger entre l'être humain et les autres êtres. C'est le genre de problème à résoudre pour les scientifiques, et je pense pas qu'on pourra faire l'impasse dessus.

  18. #438
    Citation Envoyé par Thufir Voir le message
    Et je n'ai pas parlé d'IA au sens fort, mais bien d'aptitude pour des emplois humains et distinction d'une intuition humaine.
    Dans le sens où si l'Ia sera toujours aussi peu adapatable/intelligente, dès qu'on va la restreindre à une spécialisation,je ne vois pas la limite à part la recherche pure.
    Quand tu vois l'application au jeu de go, on voit typiquement que ce n'est pas juste des problèmes qu'on peut résoudre analytiquement.
    Si : C'était juste un problème de puissance de calcul. (bon OK, pas "analytiquement" mais par les techniques classiques de jeux d'echecs) . Tout ce qu'a fait google est d'établir un heuristique pour couper les branches en amont afin d'économiser de la puissance de calcul.
    Bon, leur heuristique ils l'ont appris (ce qui se fait depuis 10 ans ...) ... mais honnêtement, c'est juste une vaste blague de communication tout le foin autour... parce que le reste c'est l'algo jeu d’échec d'il y a 60 ans, parcours de branche et cie, rien de nouveau.
    En fait la seule raison pour laquelle un stagiaire L3 n'a pas fait de publi dessus auparavant alors que la technique est simple et maitrisé, c'est juste que l'IA du go : tout le monde s'en foutait (dans le milieu de l'IA tout du moins ^^)

    Tout ça pour dire, ça reste une application "économie d’énergie", appliquée à un cas qui a fait beaucoup parlé grâce à moult publicité, et non une résolution "nouvelle" dans la méthode. Loin de là.
    - - - Mise à jour - - -

    Citation Envoyé par Møgluglu Voir le message
    OK, mais ça revient grosso-modo à dire "y'a des tenseurs dedans donc c'est quantique".
    Ce qui fait la spécificité du calcul quantique c'est pas juste la superposition, c'est surtout l'intrication, qui fait qu'avec n qubits tu as une superposition de 2^n états. C'est-à-dire un point dans un espace à 2^n dimensions.
    Si l'état manipulé lors du "traitement parallèle" n'a que n^k dimensions avec k constant, c'est simplement du calcul probabiliste à la Monte-Carlo. Y associer le mot quantique n'est pas seulement "assez foireux", c'est totalement bullshit. Rien que je fait qu'on arrive à faire tourner les algos sur des dispositifs macroscopiques régis par la physique classique (ordinateur ou cerveau) en temps raisonnable montre bien que c'est du bullshit.
    Ha mais oui mais je suis d'accord. N’empêche tu peut détourner certains opérateurs qui ont été inventé pour la physique quantique "à la base" pour ceci. Et ça permet de vendre leur bullshit.
    Mais j'ai jamais dit autre chose moi : c'est du bullshit, ne serais-ce que parce que ça n'a rien apporté de nouveau... donc purement du cosmétique.

    Bon après, comme ça, avec ma mémoire défaillante et en racontant surement une connerie, il y a quand même quelques similitudes qui ne rendent pas forcement le truc "faux" en soit, même si il n'y a pas d'apport : avec N neurones, si chacune traite son problème en parallèle sur une ligne de traitement, tu a bien un point dans un espace de N dimension non ? Et on a bien 2^N état possible sur le champs de neurone, à priori, pour des neurones simplistes 0/1.
    Je doit oublier un truc qui fait foirer ensuite la justesse de la comparaison

    - - - Mise à jour - - -

    Citation Envoyé par Croaker Voir le message
    Je ne crois pas que ca soit trivial de faire un modele multiagent, souvent dans un bon modele il y a des agents qui ne correspondent a rien de physique.

    Il y a egalement d'autres formes de SMA qui font appel a plus de mathematiques.
    Trivial non, au doigt mouillé par contre ... clairement ... ça depends beaucoup du "feeling" du concepteur, de son expérience etc... la "science" autour ne donne pas (encore, d'après ce que j'en sais) de règle claire pour concevoir le SMA parfait adapté au problème.

    - - - Mise à jour - - -

    Citation Envoyé par Kamikaze Voir le message
    J'exagère un peu mais si on avait eu ça au 19ème siècle on serait peut-être parti sur une représentation par agent pour l'équation de la chaleur en modélisant chaque particule comme un agent

    J'exagère, j'exagère, hein! Mais y'a une certaine paresse dangereuse à se reposer sur cette puissance je trouve.
    C'est une très bonne analyse, ce n'est pas faux du tout.
    Mais après c'est un peu ce qu'on fait depuis un bout de temps en mécanique des fluide et cie... en dehors des cas simplistes.

    Mais c'est vrai qu'après ça risque de nous dispenser de trouver une règle "moyenne" juste et facilement utilisable, comme l'ont fait la thermo ou la meca flu en leur temps.
    Dernière modification par Nilsou ; 21/06/2017 à 03h54.

  19. #439
    Citation Envoyé par Mdt Voir le message
    En très forte baisse depuis cinquante ans
    (hors sujet donc en spoiler2 )
    Spoiler Alert!

    Le taux de pauvreté est en hausse dans la plupart des pays de l'UE depuis 10 ans.
    http://www.inegalites.fr/spip.php?article270 pour la france.

    De plus, comme pour le taux de chômage, fait gaffe à la méthode de calcul. Ils prennent en compte le salaire median pour te définir qui est en dessous ou non. Ce qui veut tout et rien dire selon les cas. En fait quasiment aucun taux ne permet de résumer avec justesse les courbes par tranche de population et leur évolution. Même si grosso modo elles ont la même tendance partout en occident hors pays du nord : les plus pauvre s'appauvrissent et les plus riches etc...
    Ce qui ne change d'ailleurs pas forcement le salaire médian, ni le nombre de personne sous ou au dessus de la barre médiane en première analyse...

    Sans parler du fait que le point important c'est ce que tu peut faire de tes sous, qui est généralement définit par pouvoir d'achat mais qui là aussi doit s'analyser plus complétement pour ne pas tomber dans certains piège des critères de pouvoir d'achat tel qu'établit officiellement. Le pouvoir d'achat en general ne prends en compte qu'une hausse des prix générale en fonction des achats moyens. Mais intuitivement il est aisé de se rendre compte que si tu baisse le prix des assurance auto mais augmente le prix du pain ça n'impacte pas toutes les catégories de population de la même manière (alors que ça peut être totalement transparent dans le pouvoir d'achat définit par le gouvernement) Et cette autre donnée complexe il faut la combiner avec la première déjà peu résumable. Un bon rapport d'étudiant ici : http://montplaisir.dokeos.com/course...Req=CAMPUSISTM
    La partie "2.2 - Etudes et évolutions" t'analyse des cas par famille. Tu verra que les familles les moins aisés ont vue leur "soldes restant à la fin du moins" disparaitre quasiment littéralement en quelques années avec des baisses de presque 50~60% , à l'inverse une famille type plus aisé a vu son solde à la fin de mois augmenter. Donc là encore, les analyses par "ménage type par catego de population" sont à la fois plus parlante et plus juste que des critères globaux. Le prix du logement est également particulièrement critique car c'est souvent le premier poste de dépense :
    "Il fallait 17 heures de travail pour payer une facture de 120 m3 en 1984, il en faut désormais 31 selon l'UFC Que Choisir, soit une hausse de 82%!" . (sans parler du fait qu'il s'agit, là encore, d'heure moyenne, le pourcentage etant bien plus marqué pour ceux payé moins par heure)
    Qui a tendance en plus à creuser fortement les inégalités puisque ceux qui possède déjà se retrouve virtuellement avec un bien qui a fortement augmenté, et à l'inverse ceux qui sont locataire (ou même nouvel acheteur d'ailleurs) doivent bien raquer. Ne parlons pas de ceux dont le métier est de capitaliser sur l'immobilier, qui se font des couilles en or

    A cela, ENCORE, il faut ajouter le fait qu’être définit comme pauvre mais sans rien faire, n'est pas vraiment une situation équivalente à la "pauvreté laborieuse" (voir cette article : http://www.latribune.fr/opinions/tri...ce-571951.html) . Donc si la pauvreté restait hypothétiquement stable mais que tout les pauvres passent d'"inactif" à "aucun temps libre", ça reste une dégradation de la situation humainement. Peu visible dans les critères.

    Faut encore ajouter l'évolution des conséquences de la pauvreté. Qui ne peuvent se juger que par l'évolution de la durée de vie moyenne par tranche de population etc... (en baisse pour tout le monde et forte chez les plus pauvre) ou le nombre de mort moyens due à des situations précaires etc... (chaud à évaluer, comme le montre ce rapport de l'Inserm : http://www.mortsdelarue.org/IMG/pdf/..._de_la_rue.pdf, trop peu de donnée pour le moment pour avoir une courbe évolutive, mais vue les signaux d'alarme croissant sur le sujet ces dernières années, il y a peu de chance qu'elle ai une bonne gueule, amha)

    Et enfin il faut vachement mettre en relation tout ceci pour établir une "prédiction future" de l'état du pays. Et non juste une situation actuelle. Si une bassine trouée agrandit ses trous mais reçoit plus d'eau on ne voit pas le changement... ça devient problématique si toute les prédictions convergent pour dire que ça va bientôt être la saison sèche ...

    bref, etc etc... Au vu de toute ces données je vois très mal l'origine de ton optimisme affiché Mais n'étant pas uber-analystes, je n'ai pas non plus la vérité infuse

    Citation Envoyé par Mdt Voir le message
    Un exemple de métier qui va se faire IAifier : comptable. Pas l'expert hein. Le bon vieux comptable des familles qu'on trouve encore dans toutes les boîtes.
    Pour le bon vieux comptable faut voir, il a un rôle très "contact humain" également, il doit pas mal improviser selon les cas et tout ça ... pas si simple à remplacer...
    Après je ne suis pas comptable, je ne sais pas à quel point c'est répétitif

    - - - Mise à jour - - -

    Citation Envoyé par Big Bear Voir le message
    Parce que pour la plupart des gens, l'être animal n'est pas l'être humain, au sens Heideggerien. Déjà, il restera toujours la question fondamentale de savoir si l'être animal artificiel est un être animal, autre que de part sa simulation de comportement d'être animal. Et ensuite, il y a un gouffre, selon la philosophie d'Heidegger entre l'être humain et les autres êtres. C'est le genre de problème à résoudre pour les scientifiques, et je pense pas qu'on pourra faire l'impasse dessus.
    Pas faux, mais ça dépends de ce qu'on parle, quand on parle juste de sensation vis à vis du truc en face, il y a quand même une gradation douce en passant par certains animaux, pas vraiment de pic de fou. Il y a bien un creux de rejet (la fameuse uncanny valley) mais sinon c'est purement linéaire.
    Le gouffre vient surtout du langage amha. Comme on a beaucoup pris l'habitude de communiquer par ce biais on passe toute notre définition de "l'intelligence" par le langage. Mais j'aurais tendance à dire que c'est purement culturel ... et d'ailleurs très variable selon les cas, l'age ect...

    Mais bref, ne nous embarquons pas forcement dans la philo. Tout ce que je voulais dire c'est que certains truc "pète" plus d'un point de vue "effet Woooo" et même si tu réalise ces "trucs" de façon crade, tu aura toujours bien plus de projecteur sur toi que si tu simule à 100% un bébé avant qu'il puisse parler ... meme si une forme de communication autre s'établit, ça vend moins et c'est moins facile d'en parler (fort logiquement).
    Dernière modification par Nilsou ; 21/06/2017 à 04h20.

  20. #440
    L'effet "woo", ça sera le jour ou on arriveras à une IA capable d'utiliser la fameuse entité symbiotique de l'homme qui viens d'être mentionnée: la Culture.

    Chaque homme acquiert depuis la naissance l'ensemble de ses connaissances dans la Culture, et en restitue quelque chose. Que ce soit des photos de chat sur Facebook ou une transformée de Fourrier

    Une IA capable, à l'image de l'homme, d'acquérir ses connaissances en les puisant dans la Culture de la même manière que l'homme, ouais, là c'est gagné.

    Apprendre du seul environnement, ça donne effectivement rien de mieux qu'une souris un peu conne à la fin, aussi impressionnants que soient les algos d'apprentissage ou le réseau de neurones. Et encore. A condition qu'il y ait d'autres souris dans les parages pour lui apprendre a se comporter comme une souris. S'il n'y a que 4 murs, L'IA arriveras juste à faire semblant d'être un 5e

    Un point cependant: tu parlais du langage. Qui semble effectivement être un support indispensable à l'accès à la culture: Nous, humains, disposons d'un des plus impressionnants et efficaces réseaux de neurones et d'apprentissage jamais conçu, pour une consommation énergétique dérisoire.

    Et pourtant ils nous faut des années pour acquérir ne serait-ce qu'une maitrise basique de ce langage.

    De quelle puissance auras besoin une IA pour réussir le même tour de force que n'importe quel enfant humain réussi avec pour seul carburant un peu de nourriture et un doux environnement familial?

    S'il faut 1 centrale nucléaire par IA, l'homme garde certains avantages dans la course au ratio cout/performance. Et pour la force brute de calcul, que l'on branche une IA ou un humain sur un réseau de supercalculateurs, il n'y a pas de différence fondamentale.

    D'autant plus que les ressources énergétiques sont un problème qui arrive à grande vitesse...

  21. #441
    Citation Envoyé par Nilsou Voir le message
    Bon après, comme ça, avec ma mémoire défaillante et en racontant surement une connerie, il y a quand même quelques similitudes qui ne rendent pas forcement le truc "faux" en soit, même si il n'y a pas d'apport : avec N neurones, si chacune traite son problème en parallèle sur une ligne de traitement, tu a bien un point dans un espace de N dimension non ? Et on a bien 2^N état possible sur le champs de neurone, à priori, pour des neurones simplistes 0/1.
    Oui, c'est précisément pour ça que c'est faux. En calcul quantique, tu as 2^N dimensions, donc O(e^2^N) états intermédiaires possibles. Et c'est ça la caractéristique qui fait que c'est plus puissant que le calcul classique, où tu es limité à N dimensions avec N bits.

    Citation Envoyé par Tankodesantniki Voir le message
    L'effet "woo", ça sera le jour ou on arriveras à une IA capable d'utiliser la fameuse entité symbiotique de l'homme qui viens d'être mentionnée: la Culture.
    Les éthologues te diront qu'il y a plein de communautés d'animaux qui sont "vachement" cultivées aussi.

  22. #442
    Citation Envoyé par Møgluglu Voir le message
    Les éthologues te diront qu'il y a plein de communautés d'animaux qui sont "vachement" cultivées aussi.
    Ya l'histoire du corbeau de Nouvelle-Calédonie dont les maman corbeau apprennent aux bébés corbeau à faire des outils, oui.

    Après, faut quand même voir que "vachement", c'est limité. On parlait du langage, ben la culture orale s'en sert comme support. Et quand on passe à l'écrit puis au numérique, ça donne quelques ordres de grandeurs supplémentaires en termes de production et distribution culturelle.

  23. #443
    Citation Envoyé par Tankodesantniki Voir le message
    Ya l'histoire du corbeau de Nouvelle-Calédonie dont les maman corbeau apprennent aux bébés corbeau à faire des outils, oui.
    HS : la famille des corvidés contient surement les animaux les plus intelligents actuellement en dehors de l'humain.
    D'ailleurs il a une espèce de corbeau qu'on a observé créer des outils à partir de matériau artificiel (crochet à base de fil de fer pour attraper de la nourriture) là où tous les autres animaux ne font que des outils à base de matière "naturelle".
    Sachant que l'individu observé n'avait pas été en contact avec ce genre de matériau avant.

  24. #444
    Citation Envoyé par Møgluglu Voir le message
    Oui, c'est précisément pour ça que c'est faux. En calcul quantique, tu as 2^N dimensions, donc O(e^2^N) états intermédiaires possibles. Et c'est ça la caractéristique qui fait que c'est plus puissant que le calcul classique, où tu es limité à N dimensions avec N bits.
    Sauf que si ce ne sont pas des neurones "simplifiée" mais de véritables neurones convoyant une valeur analogique. N'est-ce pas un peu plus juste ? Dans ce cas chaque neurone peut bien représenter un axe dans une dimension sans trop de soucis (bon, sauf qu'en vrai il y a des bornes. Mais oublions les pour le moment)

    - - - Mise à jour - - -

    Citation Envoyé par Tankodesantniki Voir le message
    Un point cependant: tu parlais du langage. Qui semble effectivement être un support indispensable à l'accès à la culture: Nous, humains, disposons d'un des plus impressionnants et efficaces réseaux de neurones et d'apprentissage jamais conçu, pour une consommation énergétique dérisoire.
    Pas tout à fait juste, le cerveau ça consomme pas mal quand même ...
    Citation Envoyé par Tankodesantniki Voir le message
    Et pourtant ils nous faut des années pour acquérir ne serait-ce qu'une maitrise basique de ce langage.
    De quelle puissance auras besoin une IA pour réussir le même tour de force que n'importe quel enfant humain réussi avec pour seul carburant un peu de nourriture et un doux environnement familial?
    S'il faut 1 centrale nucléaire par IA, l'homme garde certains avantages dans la course au ratio cout/performance. Et pour la force brute de calcul, que l'on branche une IA ou un humain sur un réseau de supercalculateurs, il n'y a pas de différence fondamentale.
    D'autant plus que les ressources énergétiques sont un problème qui arrive à grande vitesse...
    Alors tu n'a pas tout à fait tort dans ton analyse, mais tu pointe le mauvais problème. Ce n'est pas tant un problème de consommation énergétique. Ça on se débrouille, il a été montré qu'on peut simuler sans trop de soucis tout le cerveau humain avec un bon gros supercalculateur (en théorie je veut dire, et pas forcement en temps reel, et ça ne veut pas dire qu'on sache le coder pour autant), sans parler de la prochaine génération.
    Mais là ou tu n'a pas tort c'est dans ta comparaison : "si il faut ça à l'humain alors ne faudra t-il pas ça au minimum à l'IA?" . C'est très malin, j'ai pas mal de collègue qui n'arrive pas à pousser la réflexion jusque là

    Et tu a tout fait raison, mais c'est plutôt sur le temps d'apprentissage nécessaire. L'humain apprends en plusieurs année en faisant des centaines d'essais erreurs et ça, il y a peu de chance qu'on arrive à éviter de passer par ces années d'apprentissage ce qui est LE frein majeur à l'IA de développement pour le moment.
    Et comme on ne sait pas simuler le monde pour faire de l'accéléré , ben on est cuit. Donc il y a bien une limitation majeure... qui est pour l'instant assez peu débattu dans mon domaine alors que c'est LE soucis principal.
    Dans mon labo on commence à en voir le soucis. Quand il faut 2/3 jours d'apprentissage pour gérer un truc simple dans le monde de la vrai vie commence à se poser de véritable problème annexe. Genre faut avoir des robots suffisamment résilient pour supporter 2/3 jours de fonctionnement non/stop . Et je ne te parle pas de l’inadéquation entre la recherche standard et des expe essai/erreur ou une expe prendrait un mois ...
    Ce bordel ... dans un monde de recherche ou il faut dégainer de la publi rapidement c'est un vrai problème. Et c'est possiblement un frein majeur à l'IA. Il n'est pas certains que les investisseur apprécie que plus on se rapproche de la solution plus le temps d'attente se compte en année

    - - - Mise à jour - - -

    Citation Envoyé par Orhin Voir le message
    HS : la famille des corvidés contient surement les animaux les plus intelligents actuellement en dehors de l'humain.
    D'ailleurs il a une espèce de corbeau qu'on a observé créer des outils à partir de matériau artificiel (crochet à base de fil de fer pour attraper de la nourriture) là où tous les autres animaux ne font que des outils à base de matière "naturelle".
    Sachant que l'individu observé n'avait pas été en contact avec ce genre de matériau avant.
    D'ailleurs on en parle assez peu en dehors des labo, mais il y a pas mal de chance que la présence d’être humain pousse artificiellement à une sélection génétique ultra-rapide qui entraîne certaine espèce vers de grande intelligence. Notamment les oiseaux urbain, qui ont de fréquents contacts avec les humains, mais également tout ce qui est rat chat et chien...
    Je sais pas si certains d'entre vous ont déjà été en contact avec certaines espèces de chien, notamment les chien de berger genre border-colli.... c'est juste
    Je veut dire, c'est limite si le chien parle pas quoi

  25. #445
    Citation Envoyé par Nilsou Voir le message
    Sauf que si ce ne sont pas des neurones "simplifiée" mais de véritables neurones convoyant une valeur analogique. N'est-ce pas un peu plus juste ? Dans ce cas chaque neurone peut bien représenter un axe dans une dimension sans trop de soucis (bon, sauf qu'en vrai il y a des bornes. Mais oublions les pour le moment)
    Ça change juste la constante dans le grand O, le comportement asymptotique est le même. Avec N bidules tu encodes O(e^N) états, et non O(e^e^N) états.

    Et comme on ne sait pas simuler le monde pour faire de l'accéléré , ben on est cuit.
    Pourquoi pas ? Beaucoup de systèmes d'apprentissage sont basés sur des modèles d'environnements simplifiés qu'on peut simuler rapidement. Par exemple avec de la réalité virtuelle pour les robots. Ça permet de gagner pas mal de temps et de ressources, en s'assurant qu'avant de construire le robot et de le lâcher dans le monde physique il ne soit pas complètement débile.

  26. #446
    Citation Envoyé par Nilsou Voir le message
    Si : C'était juste un problème de puissance de calcul. (bon OK, pas "analytiquement" mais par les techniques classiques de jeux d'echecs) . Tout ce qu'a fait google est d'établir un heuristique pour couper les branches en amont afin d'économiser de la puissance de calcul.
    Bon, leur heuristique ils l'ont appris (ce qui se fait depuis 10 ans ...) ... mais honnêtement, c'est juste une vaste blague de communication tout le foin autour... parce que le reste c'est l'algo jeu d’échec d'il y a 60 ans, parcours de branche et cie, rien de nouveau.
    En fait la seule raison pour laquelle un stagiaire L3 n'a pas fait de publi dessus auparavant alors que la technique est simple et maitrisé, c'est juste que l'IA du go : tout le monde s'en foutait (dans le milieu de l'IA tout du moins ^^)

    Tout ça pour dire, ça reste une application "économie d’énergie", appliquée à un cas qui a fait beaucoup parlé grâce à moult publicité, et non une résolution "nouvelle" dans la méthode. Loin de là.
    .
    Donc on a un problème qui a priori demande une puissance de calcul "infinie", mais l'IA "apprend" comment à la fois couper cetaines branches et évaluer une position, pour le faire mieux que les humains .
    C'est bin le choix des branches à couper/cosnerver qui est crucial.
    Si je comprends bien que ce n'est pas révolutionnaire d'une point de vue théorie,je vois mal comment on peut dire que de telles IA ne peuvent pas révolutionner le marché du travail.

    Parce que c'est bien beau de dire que c'est "que" de la puissance de calcul, mais quand elle est suffisemment bien utilisée pour résoudre des problèmes qu'on sait solubles,mais uniquement avec une puissance de calcul infinie, je vois pas trop la limite.
    Dernière modification par Thufir ; 21/06/2017 à 15h43.
    Citation Envoyé par Dar Voir le message
    Tin' on est les champions pour se tirer des balles dans le pied et throw comme des glands.

  27. #447
    Pour l'apprentissage ca va peut être prendre x années incompressibles pour apprendre un truc tout bête, mais au final et à l'inverse d'humains qui doivent être instruits un par un en recommençant à chaque fois du début, on pourra répliquer tout ce qui aura été appris sur d'autres robots sans qu'ils doivent à leur tour tout refaire de 0 non?

    Du coups en utilisant pleins de robots qui apprendront pleins de trucs en parallèle et qui échangeront directement le résultat de leur recherches entre eux, ca devrait aller de plus en plus vite, chaque solution trouvée dans chaque aspect étant susceptible d'enrichir le reste des champs de recherches explorés par croisement?
    Avec des profs-robots spécialisés dans l'apprentissage d'autres robots.

    La "Culture" humaine n'est rien d'autre qu'une accumulation de solutions diverses à des problèmes variés dans lesquelles on pioche directement sans refaire toute la démarche depuis 0, donc pourquoi on ne pourrait pas faire ingurgiter à grande vitesse une sorte de wikipedia spécial à un robot? Ca serait l'évolution logique après l'humain qui lui même se différencie des animaux par son utilisation optimisée de la culture.
    Un peu comme ca:
    https://medium.com/@Terrybroad/autoe...bbe#.6n3dcj433

    Y a aussi Tay le bot de crosoft qui était devenu nazi à force de mimer ce qu'il lisait sur tweeter; ca montre qu'il est possible pour un bot de se construire un avis selon ce qu'il ingurgite.
    Après il suffit d'avoir une base de donnée suffisamment grosse pour pondérer les extrêmes automatiquement sans qu'il y ai besoin de censurer son éducation, il fera le tri par simple logique.

  28. #448
    Citation Envoyé par Møgluglu Voir le message
    Pourquoi pas ? Beaucoup de systèmes d'apprentissage sont basés sur des modèles d'environnements simplifiés qu'on peut simuler rapidement. Par exemple avec de la réalité virtuelle pour les robots. Ça permet de gagner pas mal de temps et de ressources, en s'assurant qu'avant de construire le robot et de le lâcher dans le monde physique il ne soit pas complètement débile.
    Difficile en IA comportementale car on suppose justement qu'il y a pas mal de truc qu'on rate dans la vrai vie mais qui sont primordiaux pour le robot.
    A cela tu ajoute que le principal avantage est de laisser le robot découvrir son propre corps (De modèle totalement inconnu de l’expérimentateur si on veut donc, c'est bien là le point important, et avec des pièces pouvant être imprécise) par l'action.
    Et enfin tu rajouter par dessus tout ça que la plupart de nos robots se développent en interactions sociales, et voila tu es cuit...

    Ces trois points même pas pris ensemble suffisent à griller toute simulation. Tu PEUT faire une simu et valider le concept de ton algo sur un robot simulé correctement en environnement simple et sans partenaire. Mais ça se pétera probablement la gueule quand tu le transférera sur le vrai robot, qui va devoir corriger les imperfections etc... car si on a construit des algo d'apprentissage en robotique à la base c'est bien parce que l'environnement reel est trop chaud à modéliser finement et à prédire pour y coller les algos d'IA "classique"... donc on tourne un peu en rond si on repart sur de la simu imparfaite ...
    On gagnerais peut-etre un peu de temps, mais encore, ça reste à voir...
    Scientifiquement c'est aussi peu utile puisque l’intérêt est d'observer le développement et comment il compense graduellement les imperfections et les situations nouvelles dans des environnements complexe non contrôlée. Aucun intérêt en simulation, la encore...

    - - - Mise à jour - - -

    Citation Envoyé par Thufir Voir le message
    Donc on a un problème qui a priori demande une puissance de calcul "infinie", mais l'IA "apprend" comment à la fois couper cetaines branches et évaluer une position, pour le faire mieux que les humains .
    C'est bin le choix des branches à couper/cosnerver qui est crucial.
    Si je comprends bien que ce n'est pas révolutionnaire d'une point de vue théorie,je vois mal comment on peut dire que de telles IA ne peuvent pas révolutionner le marché du travail.

    Parce que c'est bien beau de dire que c'est "que" de la puissance de calcul, mais quand elle est suffisemment bien utilisée pour résoudre des problèmes qu'on sait solubles,mais uniquement avec une puissance de calcul infinie, je vois pas trop la limite.
    Relis l'analyse initiale sur le marché du travail plus haut. Il n'y a rien à révolutionner parce que la plupart des métiers ne sont pas dans le "cas go" et que ceux qui y sont demanderais parfois un robot au sens mécanique du terme pour exécuter les actions. Sauf que l'homme coûtant moins cher dans bien des pays ... ce n'est déja pas la solution qui a été retenu pour l'automatisation simple...
    D'ailleurs, a tu vu des annonces particulière de google qui utiliserait son archi dans la vrai vie pour des trucs sympa ? Bah non...
    - - - Mise à jour - - -

    Citation Envoyé par Mastaba Voir le message
    Pour l'apprentissage ca va peut être prendre x années incompressibles pour apprendre un truc tout bête, mais au final et à l'inverse d'humains qui doivent être instruits un par un en recommençant à chaque fois du début, on pourra répliquer tout ce qui aura été appris sur d'autres robots sans qu'ils doivent à leur tour tout refaire de 0 non?
    Sur ce point tu a tout à fait raison. C'est une solution plus viable (et qu'on applique déjà dans une entreprise sœur de notre labo) que celle de Mogluglu en simulation. Il y a toujours le soucis des petites imperfections pour chaque robot mais on refait tourner un peu l'apprentissage pour chacun dans une "nursery robotique" à la sortie de la construction pour résoudre en partie le problème.
    C'est probablement ce modèle là qui va être massivement retenu car il est validé comme fonctionnel industriellement.

  29. #449
    Citation Envoyé par Møgluglu Voir le message
    Oui, c'est précisément pour ça que c'est faux. En calcul quantique, tu as 2^N dimensions, donc O(e^2^N) états intermédiaires possibles. Et c'est ça la caractéristique qui fait que c'est plus puissant que le calcul classique, où tu es limité à N dimensions avec N bits.
    e^(2^n) ou (e^2)^n ?
    une balle, un imp (Newstuff #491, Edge, Duke it out in Doom, John Romero, DoomeD again)
    Canard zizique : q 4, c, d, c, g, n , t-s, l, d, s, r, t, d, s, c, jv, c, g, b, p, b, m, c, 8 b, a, a-g, b, BOF, BOJV, c, c, c, c, e, e 80, e b, é, e, f, f, f, h r, i, J, j, m-u, m, m s, n, o, p, p-r, p, r, r r, r, r p, s, s d, t, t
    Canard lecture

  30. #450
    L4IA de google pour le go consomme l'électricité d'une petite ville,je m'attends pas à ce que soit rentable tout de suite.
    Mais je pense qu'au contraire si peu de jobs tombent à 100% dans le "cas go" ,je dirais que dans énormément de jobs plus de la moitié du temps de travail passe dans ce genre de taches.
    Citation Envoyé par Dar Voir le message
    Tin' on est les champions pour se tirer des balles dans le pied et throw comme des glands.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •