Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 22 sur 43 PremièrePremière ... 12141516171819202122232425262728293032 ... DernièreDernière
Affichage des résultats 631 à 660 sur 1288
  1. #631
    Citation Envoyé par Nilsou Voir le message
    Il faut faire attention à ne pas tomber dans l’excès inverse. Si ce qu'il dit en disant "Mais la machine ne crée pas, ne réfléchit pas " est une idiotie de débutant, effectivement (faut qu'il aille lire Asimov comme tout débutant en IA lui, au lieu de sortir ce genre d'énormité qui peut se faire démonter par un philosophe amateur en 5 seconde), par contre dire "l'intelligence et le cerveau humain est forcement réduit à des échanges d'information qu'on peut donc simuler" est également un acte de foi. Pour le moment c'est ce qui parait le plus "raisonnable" mais en vrai on en sait rien. Donc comme on en sait rien, si on veut rester propre, on ne le dit pas.
    Ce que je veux dire, c'est que les deux sont basés sur le même système physique (avec les même atomes), ce qui veut dire qu'il doit être physiquement possible de le répliquer.
    Il n'y a pas de barrière physique infranchissable simplement parce que les humains en sont la preuve de par leur existence.
    Ce qui se passe au plus bas niveau de la matière reste un échanges d'information, électro-chimique pour le cerveau par exemple.

    Il faudrait non seulement que cette IA ait "vécu" aussi longtemps pour accumuler autant d’expérience mais aussi qu'elle ait pu interagir avec eux pour tester ses hypothèses. Ce point est ultra critique, car ça empêche de faire le taf en simulation, il FAUT que cette IA vivent à minima 10 ans au contact de véritables être humain, dans un univers qu'on ne peut malheureusement pas accélérer avec nos technologies actuelles .
    Est-ce qu'on ne pourrait pas paralléliser cet apprentissage?
    Si 10 IA vivent chacune 1an au contact d'humains et que l'on met en commun les résultat en temps réel afin que chaque IA progresse sur la base des ajouts des autres IA?
    Parce qu'il s'agit en fait du nombre, de la quantité d'expérience sur lesquelles l'IA pourra statistiquement créer une forme d'intuition.
    En multipliant le nombre d'IA on pourrait augmenter d'autant la vitesse de "simulation" non?

    Et pourquoi pas même interconnecter des IA complètement différentes, afin que les solutions trouvées à un problème spécifique bénéficient d'une manière détournée à résoudre un problème différent dans une sorte de méta-IA?

  2. #632
    Citation Envoyé par ZenZ Voir le message
    Mmmh au temps pour moi alors, je n'avais pas vu cela.

    Bon ben au moins vous avez la vidéo du coup.

    Et fait marrant, c'est que DeepMind a publié les replays sur leur site, que l'on peut télécharger et lancer ingame.

    J'ai donc regardé une partie dans les "yeux" d'Alphastar, c'était assez incroyable de voir comment elle développe son jeu.

    Ah et aussi l'IA a instauré un nouveau code dans le jeu, qui veut qu'une base soit saturée quand 16 récolteurs sont dessus (dès qu'on dépasse le chiffre passe en rouge pour nous indiquer qu'il y en a trop, et que c'est pas optimal), et bien l'IA s'en balec, et monte jusqu'à 24 ouvriers sur sa première base, chose que personne n'a jamais fait volontairement en 8 ans.

    Depuis, tout le monde monte à 24 récolteurs sur la première base ^^
    J'ai déjà répondu il y a quelques pages : https://forum.canardpc.com/threads/1...1#post12165886

    Pour le coup des récolteurs je suis très sceptique. C'est un point qui a été énormément étudié, la pratique actuelle ne sort pas d'un chapeau.

    J'ai lu le début du blog de Deepmind et ils s'enflamment beaucoup, ça frise le mensonge par moment. D'ailleurs les messages des canards dans les pages précédentes donnent un tout autre éclairage à cet article

  3. #633
    Ah ok j'étais juste allé sur la page précédente, pas celle encore d'avant ^^

    Pour le coup de l'expérimentation de plus de 16 récolteurs, je te rappelle que l'IA a simulé environ 200 ans de jeu, donc à ce niveau elle en sait certainement plus que nous !

    Et c'est bien connu ingame qu'avoir plus de 16 récolteurs donne plus d'income, juste que dès qu'on a une 2e base il est plus rentable de les transférer (ce qu'a fait l'IA également).
    En revanche, on a clairement vu l'IA monter à 24 voir 25 récolteurs sur la B1, et faire son agression, quand c'est communément admis (mais pas forcément juste) que pour un push B1 on stoppe l'éco à 16,et éventuellement poser B2 pendant l'agression, ce que n'a pas fait l'IA.

    Et bizarrement ce week end j'ai vu beaucoup de gens push B1 avec des premières bases sursaturées (peut être une coïncidence, mais ça me parait louche).
    On dit que pétrir, c'est modeler,
    Moi j'dis que péter, c'est démolir.

  4. #634
    Citation Envoyé par Helix Voir le message
    Pour le reste, je veux bien qui tu souhaites restreindre le sujet du topic, mais tu ne peux empêcher des discussions sur les thèmes plus ou moins connexes. Ce topic vit sa vie Pour ma part, vu qu'un grand nombre de personnes qui associe IA et apprentissage artificiel (y compris pas mal de chercheurs), cela me semble logique d'en parler.
    Bah le soucis, c'est que ça créé une confusion. Et qu'après il y a des mecs comme Luc Julia qui écrivent des livres pour lever la confusion sémantique en disant pas mal d’ânerie et qu'on finit par parler de livre confus pour lever la confusion
    Après le topic vie sa vie, et on peut tout à fait parler des domaines connexes, mais disons qu'il faut être clair sur ce dont on parle sinon on finit sur des batailles sémantiques.

    Après c'est en partie ma faute, je devrais largement retravailler l'OP, et depuis longtemps, pour faire un point sur ce qui existe en IA et autres domaines connexes afin de lever les diverses sources de confusions. Jusqu'ici je n'ai pas trouvé le temps .
    Je vais tenter de me motiver à ce sujet.

    -------------------------------------------------------------------------------------------------------

    Sinon pour Starcraft, quelqu'un a un lien vers un éventuel papier sur Alphastar ?
    Je ne me suis pas penché à ce qu'ils ont changé depuis deepmind. Ou si quelqu'un arrive à résumer leurs changements, ce qui m'évitera la lecture du papier

  5. #635
    Citation Envoyé par ZenZ Voir le message
    En revanche, on a clairement vu l'IA monter à 24 voir 25 récolteurs sur la B1, et faire son agression, quand c'est communément admis (mais pas forcément juste) que pour un push B1 on stoppe l'éco à 16,et éventuellement poser B2 pendant l'agression, ce que n'a pas fait l'IA.

    Et bizarrement ce week end j'ai vu beaucoup de gens push B1 avec des premières bases sursaturées (peut être une coïncidence, mais ça me parait louche).
    (Préambule: j'ai joué à Starcraft il y a des années, et jamais en multi. D'ailleurs, est-ce que c'est toujours du même qu'on parle? il n'y a pas eu un SC2 depuis? j'en sais trop rien...)

    Dans la discussion récente, il y avait le fait que l'IA pouvait facilement pousser le micromanagement largement au-delà des capacités humaines, et "capter" l'information bien plus efficacement que l'oeil; donc, qu'on s'aperçoive qu'un paramètre optimisé empiriquement, comme le bon équilibre entre développement de récolte et vitesse de développement militaire, ne s'équilibre pas de la même manière quand on a la capacité de micromanagement de la machine, ne me semble pas surprenant.

    En gros, l'humain joue en pratique à un jeu en temps réel, et l'IA à un jeu tour par tour - même si un joueur humain peut largement s'entraîner pour accélérer son exécution d'un plan et, ce faisant, déplacer certains équilibres, il y a une limite à la vitesse à laquelle il peut capter l'information depuis l'écran et actionner sa souris ou son clavier. Pour les mettre à égalité sur ce point de vue (et je parle ici du point de vue de trouver les "bons" plans de développement, hein, pas du point de vue de la réalisation d'une IA efficace), il faudrait probablement brider les capacités de perception et d'action de la machine: modéliser une composante temporelle quand elle veut "regarder ce qui se passe", et quand elle veut "cliquer"...

    Donc je trouve normal que les joueurs humains, avec leur optimisation du jeu joué par les humains, et la machine, avec son optimisation du jeu joué par la machine, n'arrivent pas aux mêmes optima... (et si vraiment les joueurs se mettent à copier ces paramètres, ça peut vouloir dire deux choses: possibilité optimiste, qu'ils sont en train d'explorer une partie de l'espace des paramètres qu'ils n'avaient pas osé explorer, et qui cache peut-être de bonnes solutions; possibilité moins optimiste, qu'ils sont juste en train d'essayer de copier la machine sans se rendre compte que ce n'est pas réaliste)

  6. #636
    Citation Envoyé par Mastaba Voir le message
    Ce que je veux dire, c'est que les deux sont basés sur le même système physique (avec les même atomes), ce qui veut dire qu'il doit être physiquement possible de le répliquer.
    Il n'y a pas de barrière physique infranchissable simplement parce que les humains en sont la preuve de par leur existence.
    Ce qui se passe au plus bas niveau de la matière reste un échanges d'information, électro-chimique pour le cerveau par exemple.
    Joker. D'après l'état de nos connaissances tu a raison, mais je n'irai pas jusque là. Il y a par exemple pas mal de cas en médecine où le sujet est mort alors que son cerveau n'a pas ou plus de dommages. Va savoir. Pour le moment on connait le fonctionnement approximatif de chaque parties du cerveau et on arrive à faire fonctionner certaines IA hétérogènes vraiment basées sur le cerveau humain et son organisation (en partie) mais de là à dire qu'on pourrait reproduire vraiment le fonctionnement avec nos moyens et en simulation. Pas sur.
    Tient par exemple, on pourrais faire l'hypothèse que certains phénomènes biologiques sont difficile à reproduire sans avoir les mêmes types de molécules (donc impossible "artificiellement", il faudrait faire pousser des cerveaux quoi ... ) et ce serait une hypothèse difficile à zigouiller dans l'état actuel de nos connaissance. Ou on pourrait faire l'hypothèse qu'un grand barbu dans le ciel habite d'une intelligence uniquement les trucs qui ont la forme de cerveaux biologiques . La encore en l'état actuel de nos connaissances on ne peut pas démonter cette hypothèse. Faudrait avoir un véritable robot "humain" qui serait indéniablement vivant et intelligent au niveau de l'humain, et aux yeux de tous, pour que les hypothèses de ce types soit jetées à la poubelle.
    En attendant il vaut mieux prendre des pincettes avec les affirmations. Amha

    Citation Envoyé par Mastaba Voir le message
    Est-ce qu'on ne pourrait pas paralléliser cet apprentissage?
    Si 10 IA vivent chacune 1an au contact d'humains et que l'on met en commun les résultat en temps réel afin que chaque IA progresse sur la base des ajouts des autres IA?
    Parce qu'il s'agit en fait du nombre, de la quantité d'expérience sur lesquelles l'IA pourra statistiquement créer une forme d'intuition.
    En multipliant le nombre d'IA on pourrait augmenter d'autant la vitesse de "simulation" non?
    Alors on le fait déjà en fait. C'est une solution qui marchote à petite échelle. Mais qui a des soucis à plus large échelle. Tout d'abord elle est très inégale en fonction des expériences dans la vrai vie. Si il s'agit d'apprendre des mouvements court, il est aisé de faire tester à 20 robots ces mouvements, 20 robots habités par la même IA et qui accumulerais les expériences. Maintenant si il s'agit des conséquences d'une interactions humaine, qui peut s'étaler sur des jours/mois . C'est la lose. En plus il est difficile de trop modifier l'IA qui mène cette "expérience sociale" pendant qu'elle la mène si tu veut. Si le "robot humain" ,qui est en train d'apprendre les conséquences de ses actions sur le très long terme, mange trop d’expériences similaire, ça risque de fausser le résultat et de faire n'importe quoi.

    Le second soucis de l'idée, que tout ceux qui l'applique ont eu, c'est que tu ne peut pas certifier que deux "corps habités interagissant avec la vrai vie", deux robots par exemple, soient strictement identiques. Par exemple leurs moteurs et leur usures vont toujours être un poil différent et le résultat d'un apprentissage sur l'un ne sera peut-être pas exactement le même sur l'autre. D'un coté c'est bien parce que ça permet à l'IA que tu développe de ne pas trop se spécialiser sur un robot. De l'autre ça ralentit considérablement son apprentissage puisqu'elle n'est plus capable de profiter des spécificités de ce robot. Résultat des courses : ça peut poser des soucis et même annuler les avantages que tu avais.

    Donc l'idée est bonne, mais difficile à appliquer sur des expériences plus générale. Amha. Surtout sur des expériences à l’échelle de temps grande comme l'apprentissage des conséquences d'actions sur des interactions.

    Citation Envoyé par Mastaba Voir le message
    Et pourquoi pas même interconnecter des IA complètement différentes, afin que les solutions trouvées à un problème spécifique bénéficient d'une manière détournée à résoudre un problème différent dans une sorte de méta-IA?
    Ça revient à faire une sorte d'école pour robot
    Et ça marche si ton IA est capable de prendre en compte ce que font les voisins pour apprendre plus vite. Une des boites liée à mon labo avait appliqué cette idée pour accélérer l'apprentissage des robots en se basant sur des paradigmes d'apprentissage par imitations (neurone miroir et cie).
    Ça marchote, mais ça ne fait que marchoter, c'est pas ouf non plus.

    En fait tout le soucis vient de la confiance en l'enseignant et de la confiance en l’élève. Dans une école tu a des élèves, qui sont jeunes et commettent des erreurs (ici nos robots) et un professeur qui est la personne de confiance qui détient la "vérité".
    Imaginons que tu ponde une IA capable d'apprendre par observation de ses voisins, automatiquement tu va devoir implémenter une notion de confiance dans tel ou tel voisin. C'est logique, si un voisin en particulier est un boulet qui ne fait QUE de la merde, tu te rends compte en prenant exemple sur lui qu'il fait de la merde, ben tu ne fait plus du tout confiance à ses actions futures pour t'enseigner quelque chose, logique non ?

    Le problème c'est que dans ce paradigme, les robots vont faire comme les élèves, et développer un fort apprentissage en regardant les actions des "grands" ou du professeur, qui commettent moins de bourde, et par contre en considérant qu'il y a bien peu à apprendre de leur voisin. Ou en tout cas pas tout le temps.

    Résultat des courses : mettre des robots qui utilise ce concept ensemble, si ils sont de la même génération (début d'apprentissage au même moment) n'est pas très efficient.

    Faudrait qu'on fasse le test avec des générations mélangés. Il ne me semble pas qu'on l'ait fait, on aurait surement de meilleurs résultats mais on sait aussi que ça plafonne quelque part par l’observation de la vrai vie. Si ça marchait sur les humains on aurait pas besoin de prof pour les petits, on aurait qu'a enseigner aux plus grand et laisser les plus petits apprendre volontairement de l'observation de leur collègues des classes d'au dessus. Bon on sait qu'en vrai ça ne va pas jusque là quoi .

    Mais bravo pour tes idées car tu vient de sortir les deux seuls et uniques solutions propre que nos labos et les entreprises qui ont bossé avec elles ont réussit à pondre pour tenter d'avancer un peu sur le problème

  7. #637
    Citation Envoyé par ZenZ Voir le message
    Ah et aussi l'IA a instauré un nouveau code dans le jeu, qui veut qu'une base soit saturée quand 16 récolteurs sont dessus (dès qu'on dépasse le chiffre passe en rouge pour nous indiquer qu'il y en a trop, et que c'est pas optimal), et bien l'IA s'en balec, et monte jusqu'à 24 ouvriers sur sa première base, chose que personne n'a jamais fait volontairement en 8 ans.

    Depuis, tout le monde monte à 24 récolteurs sur la première base ^^
    Après j'ai l'impression que ça sert à rien, lors des matchs, avec la B1 sursaturée, son taux de récolte était pas plus élevé que celui du joueur humain. Puis c'est plus ou moins ce qui se fait déjà. On attend pas que la B2 soit finit de construire pour continuer à produire des drones (même si perso, ceux qui sont en "trop", je les envoie déjà miner sur B2)

  8. #638
    Citation Envoyé par Shosuro Phil Voir le message
    Donc je trouve normal que les joueurs humains, avec leur optimisation du jeu joué par les humains, et la machine, avec son optimisation du jeu joué par la machine, n'arrivent pas aux mêmes optima... (et si vraiment les joueurs se mettent à copier ces paramètres, ça peut vouloir dire deux choses: possibilité optimiste, qu'ils sont en train d'explorer une partie de l'espace des paramètres qu'ils n'avaient pas osé explorer, et qui cache peut-être de bonnes solutions; possibilité moins optimiste, qu'ils sont juste en train d'essayer de copier la machine sans se rendre compte que ce n'est pas réaliste)
    Exactement, surtout que certains choix de la machine sont peut-être inexploitable par l'humain car impliquant des compétences de rapidité (physique ou de décision) qu'il ne peut tout simplement pas avoir. Donc qu'il serait absolument inutile (et contre-productif) de copier.
    Dernière modification par Nilsou ; 28/01/2019 à 19h15.

  9. #639
    Perso je suis pas d'accord avec Nilsou sur plusieurs points :

    1) Je trouve que le Deep Learning a toute sa place dans le sujet, déjà parce que ça a fait de très très gros progrès depuis 2012, que plein d'applications très performantes en découlent qui vont révolutionner pas mal de secteurs, donc c'est significatifs et importants! L'argument "no true scotman" ne passe pas, le sens généralement admis par la majorité des acteurs doit prévaloir. Aussi, la définition qu'on donne à intelligence artificielle peut être large, on peut parler d'un agent intelligent, se développant dans face à un environnement, capable d'apprendre en permanence pendant qu'il est dans son univers, avec pour espoir de créer un telle intelligence simple, puis de plus en plus complexe ! En simulation, jeu-vidéo ou même robotique! Mais je pense qu'on peut parler d'une forme d'intelligence dans les systèmes de visions avancés aussi, une intelligence restreinte, "faible", mais intelligente quand même. C'est une question de définition, mais au final on est au delà d'un modèle statistique tels qu'ils étaient imaginés avant, on a vraiment découvert par accident quelque chose d'un peu miraculeux quand même.

    2) Je trouve que tu exagères quand tu parles du marketing. Google et Facebook ne se sont pas réveillés en jour en disant "tiens on va faire croire à tout le monde qu'on a une technologie miraculeuse qui n'existe en fait pas pour avoir de la thune". Non, ce qui s'est passé c'est qu'en 2012 un réseau de neurone convolutif développé par un étudiant a battu très largement tous les meilleurs systèmes existants, provoquant stupefaction et engouement. Le modèle du réseau de neurone profond longtemps délaissé au profit de l'apprentissage statistique sensé fonctionner (SVM surtout mais aussi Random Forest) a été investi et on a essayé de l'appliquer à plein d'autres choses, avec beaucoup beaucoup de succès. En vision le progrès a continué, très fortement, jusqu'à que les benchmark classiques deviennent trop faciles et non-représentatifs. En langage naturel il a fallu attendre Word2Vec pour représenter le langage sous une forme digeste pour les réseaux de neurone (je simplifie) mais cela a aussi conduit à exploser toutes les performances. L'apprentissage par renforcement a aussi profité du Deep Learning. Et je ne parle même pas des GANs ou des modèles génératifs.

    Ensuite les géants de la tech, pleins de thune et en mal d'idées pour leur prochaine révolution on d'abord trempé un (gros) orteil, mais ils font ça pour toutes les technologies prometteuses qualifiées de long-terme (ce qu'ils appellent Moonshot), du genre interface homme-machine, quantique etc... Et comme ils ont eu plein d'applciations juteuses très vite ils se sont engouffrés dedans.

    Alors certes il y a un effet de foule, renforcé par l'état des marchés de capitaux mondiaux (taux intérêt et de rendement du capital bas, plein d'argent à ne pas quoi savoir faire), mais il est déploré par les scientifiques du domaine, ceux sérieux en tout cas, notamment qui sont là depuis longtemps, même quand ils étaient méprisés pendant le AI winter. Tous ceux qui ont de l'importance aujourd'hui, je ne les ai jamais vu faire de déclaration trompeuse qui exageraient des résultats, au contraire, j'ai vu plus d'auto-dérision qu'autre chose (cf l'affaire Rocket Internet à Nips...).

    Ce sont plus les start-ups qui sont dans la hype et la bulle et qui cherchent à surfer dessus en attirant les VC un peu naïfs...

    3) Quand le type parle d'insérer de la biologie, neurologie etc... tu dis qu'il l'exprime comme si tout est à inventer, je ne pense pas qu'il dise ça. Je pense qu'il sait ne serait-ce que superficiellement, ce qui se passe dans ses domaines et qu'il dit qu'il faut faire le lien entre ses disciplines et les progrès récents en Deep Learning, j'ai l'impression que tu as la conviction que c'est impossible, que ce sont deux approches complètement différentes mais je ne suis pas d'accord... Le Deep Learning est intéressant, parce qu'il a permis de faire une grosse machine à calculer universelle différentiable qui fonctionne en pratique! Je vulgarise : c'est une machine qui fait des calculs, qui prend des inputs (ou observations!), donne des outputs (ou actions), garde éventuellement un état interne. Universelle car en théorie elle peut exprimer n'importe quel type de fonction. Différentiable, déjà au sens mathématique, mais concrètement on sait ajuster chacun des paramètres dont le résultat s'éloigne de ce qui doit être pour l'améliorer. A partir de cette base, on a énormément d'innovation en terme d'architecture et énormément d'idées de modules individuels, de petites briques à utiliser dans plein de systèmes différents! C'est tellement pratique et puissant. Et en même temps c'est un concept assez facile à utiliser à d'autres cas! Et c'est fait, avec succès, "mettre du Deep" dans un système marche, il permet de généraliser, de paramétriser...

    Et là on va peut être commencer à être d'accord, regarde cet article : https://techburst.io/deep-learning-e...g-5060d3c55074 et/ou celui-là : https://medium.com/@karpathy/software-2-0-a64152b37c35

    Alors voilà, quand tu construit un agent, en t'inspirant de la biologie par exemple, tu utilises peut-être un langage de programmation, ou même une architecture logicielle ? Et bien pour les intelligence de perception qui utilisaient l'intelligence statistique, c'était un peu pareil, on écrivait un solveur sur le perceptron, ou la régression linéaire, avec une architecture de programmation donnée, qui est l'architecture classique. Puis est arrivé le Deep Learning, ou encore comme on l’appellera peut-être dans le futur "differential programming", qui a permis avec les même concepts, de créer uen machine beaucoup plus puissante. Pourquoi ne pas l'appliquer à d'autres méthodes ? Cela a commencé à être fait et cela fonctionne très bien!

    Donc finalement le Deep Learning ne s'avèrera être qu'une technique de computation très performante, qui a permis de créer des intelligence artificielle très restreinte mais performante, peut-être à cause de leur inspiratio purement statistique, mais si cette technique de computation est utilisée sur des modèles plus inspirés, ça peut être très utile... Et si le terme Deep Learning est sale, utilisons "differential programming".

    Désolé si c'est confus par moment, j'ai eu une longue journée...

  10. #640
    Citation Envoyé par ZenZ Voir le message
    Pour le coup de l'expérimentation de plus de 16 récolteurs, je te rappelle que l'IA a simulé environ 200 ans de jeu, donc à ce niveau elle en sait certainement plus que nous !
    Non, pas forcément ! D’une, ce que tu avances est un argument d’autorité. Ce n’est pas parce que l’IA le fait que c’est mieux. D’ailleurs elle fait beaucoup d’erreurs et de choses qui nous semblent bizarre. Les agents qui ont joué face à TLO avaient 200 ans de jeu (soit 10 millions de parties) derrière. Ensuite ils sont retournés à nouveau à l’école, pour la même période il me semble, avant de jouer Mana. Et pourtant, si tu regardes la première partie contre Mana, elle est quand même légèrement derrière sur la macro. Des fois elle est supply-block, elle lance un sort inutile (chrono-boost sur une porte-spatiale a lors qu’elle est supply-block). Dans la partie contre TLO elle a balancé au moins 3 probes à la poursuite d’une de TLO. Clairement, elle n’est pas si parfaite.

    Autre raison pour laquelle on ne peut pas déclarer dès maintenant que l’IA a appris quelque chose aux humains sur l’optimisation du nombre de probes : le sujet a été étudié, modélisé et testé à de nombreuses reprises depuis la beta du jeu. Avant de dire que l’IA a raison il faudra le prouver. Pour le moment tout ce qu’elle fait c’est questionner la pratique actuelle. C’est très bien, peut-être que tous les humains ayant étudié le sujet se sont plantés en se retrouvant dans une solution sub-optimale, Mais peut-être que c’est l’IA qui s’est plantée. Ou peut-être que l’IA ne jouant qu’une carte, qu’une race et qu’un adversaire, elle a fait face à un problème bien plus simple, pour lequel elle a trouvé la meilleure solution. Alors que les humains ont trouvé la meilleure solution générale qui fonctionne peu importe la carte, le matchup et la meta.

    Vu l’inaptitude de l’IA à gérer une attaque via transport aérien lors de sa défaite contre Mana, une stratégie très classique, je ne sais pas si elle a pu explorer suffisamment de cas différents malgré plus de 20 millions de parties. En tout cas elle ne semble pas capable de s’adapter rapidement à une situation nouvelle. Elle avait pourtant les ressources et la technologie nécessaires. Je me demande si ce n’est pas un problème lié à sa façon d’apprendre. Un bon joueur humain aurait su réagir sauf que l’humain apprend d’abord les règles du jeu, ses mécanismes puis se nourrit de données. Il me semble que l’IA n’a pas conscience du manuel du jeu. Sait-elle par exemple qu’un Phoenix est une des rares unités volantes à pouvoir tirer en se déplaçant ce qui en fait une excellente protection contre les attaques via transport aérien ?

    Citation Envoyé par Nilsou Voir le message
    Exactement, surtout que certains choix de la machine sont peut-être inexploitable par l'humain car impliquant des compétences de rapidité (physique ou de décision) qu'il ne peut tout simplement pas avoir. Donc qu'il serait absolument inutile (et contre-productif) de copier.
    Ah mais c’est sûr, c’est même ce qu’on a vu. La stratégie que les agents adoptent souvent est de faire beaucoup de Stalkers (les unités bleues avec 4 pattes fines). Les humains savent que c’est une stratégie très forte seulement à partir d’une certaine quantité de Stalkers, un humain va atteindre sa limite de micro-gestion. À partir de ce seuil il vaut mieux ajouter d’autres types d’unités plutôt que de continuer à faire des Stalkers. C’est flagrant lors de la 3e partie contre Mana.

  11. #641
    Citation Envoyé par Janer Voir le message
    Perso je suis pas d'accord avec Nilsou sur plusieurs points :

    1) Je trouve que le Deep Learning a toute sa place dans le sujet, déjà parce que ça a fait de très très gros progrès depuis 2012, que plein d'applications très performantes en découlent qui vont révolutionner pas mal de secteurs, donc c'est significatifs et importants! L'argument "no true scotman" ne passe pas, le sens généralement admis par la majorité des acteurs doit prévaloir. Aussi, la définition qu'on donne à intelligence artificielle peut être large, on peut parler d'un agent intelligent, se développant dans face à un environnement, capable d'apprendre en permanence pendant qu'il est dans son univers, avec pour espoir de créer un telle intelligence simple, puis de plus en plus complexe ! En simulation, jeu-vidéo ou même robotique! Mais je pense qu'on peut parler d'une forme d'intelligence dans les systèmes de visions avancés aussi, une intelligence restreinte, "faible", mais intelligente quand même. C'est une question de définition, mais au final on est au delà d'un modèle statistique tels qu'ils étaient imaginés avant, on a vraiment découvert par accident quelque chose d'un peu miraculeux quand même.
    Un algorithme qui utilise du deep learning pour prédire les flux financiers est-il "intelligent" ? Bof, faut arrêter d'étendre la définition du mot à perpette. Un algo de prédiction statistique est un algo de prédiction statistique. La seule chose qui donne envie intuitivement de classer ce truc comme "intelligent" pour la plupart des gens c'est de dire qu'a l'intérieur c'est basé sur des neurones. Et que comme notre cerveau c'est des neurones alors c'est surement le chemin vers l'intelligence. Outre le fait que les "neurones" employées dans ces algos n'ont de neurones que le nom tant ils en sont éloigné algorithmiquement (particulièrement dans cet algo en particulier car la retro-propagation du gradient n'a aucune base autre que mathématique et est démenti par la biologie, alors que c'est le coeur de l'algo). En plus c'est un raisonnement assez pauvre.
    Un algo de prédiction ou un algo d'association n'est pas intelligent en tant que tel, c'est un outil. Juste un outil. Et la dessus, Luc Julia a bien raison de le rappeler.

    Alors oui on peut faire de cet outil des trucs intelligents. Mais ce sont deux choses bien distinctes. Et il faut en avoir conscience.
    Enfin "on a vraiment découvert par accident quelque chose d'un peu miraculeux quand même." ... je sais vraiment pas d’où tu sort ça ... les bases de l'apprentissage machine ont été posé par des gens comme Donald Hebb ou Teuvo Kohonen. Le premier modèle de perceptron mono-couche est pondu en 1957 et dés le départ ont commencé les recherches sur le multi-couches qui fut proposé en 1974 et fini en 1986. C'est le fruit d'une réflexion lente et d'un travail mathématique minutieux pour résoudre le soucis du perceptron mono-couche (qui fut résolu par ailleurs avec d'autres méthode en parallèle). C'est pas parce qu'il y a une hype qui sort poussée par google et consort depuis quelques années que le "Deep-Learning" est apparu de nul part dans leur besace ... tssss. Et ça n'a absolument rien de "miraculeux". Faut se sortir ce genre de phrase de l'esprit. Non seulement ce n'est pas réaliste, c'est à coté de la plaque, ça créé du fantasme, mais en plus c'est complétement négatif pour tout le domaine qui bosse dessus ...

    Citation Envoyé par Janer Voir le message
    2) Je trouve que tu exagères quand tu parles du marketing. Google et Facebook ne se sont pas réveillés en jour en disant "tiens on va faire croire à tout le monde qu'on a une technologie miraculeuse qui n'existe en fait pas pour avoir de la thune". Non, ce qui s'est passé c'est qu'en 2012 un réseau de neurone convolutif développé par un étudiant a battu très largement tous les meilleurs systèmes existants, provoquant stupefaction et engouement. Le modèle du réseau de neurone profond longtemps délaissé au profit de l'apprentissage statistique sensé fonctionner (SVM surtout mais aussi Random Forest) a été investi et on a essayé de l'appliquer à plein d'autres choses, avec beaucoup beaucoup de succès. En vision le progrès a continué, très fortement, jusqu'à que les benchmark classiques deviennent trop faciles et non-représentatifs. En langage naturel il a fallu attendre Word2Vec pour représenter le langage sous une forme digeste pour les réseaux de neurone (je simplifie) mais cela a aussi conduit à exploser toutes les performances. L'apprentissage par renforcement a aussi profité du Deep Learning. Et je ne parle même pas des GANs ou des modèles génératifs.
    Tu me décrit tout les succès de "l'outil". Je n'ai rien contre, mais ça n'a que peu de rapport avec une appli générale d'IA.
    Par ailleurs tu cite des méthodes alternatives "censé fonctionner" (SVM, random forest et cie) comme si celle ci avaient cessé d'être utilisé... ben non, parce que dans pleins de case ces algos donnent encore de très bon résultat pour un bon cout calculatoire.
    Justement c'est là ou l'outil est associé contre-intuivement à l'IA. Si tu veut avoir une IA autonome par exemple, en général tu a un soucis de perfs évident, et tu évite d'appliquer des algos couteux en perfs. Ce pourquoi il y a rarement des CNNs sur robots reel ou en multi-agent par exemple. Mais bien des SVM ... (ou d'autres solutions) paradoxal non ?
    Donc oui c'est un outil génial, non cet argumentaire ne l'associe pas forcement de facto au développement d'IA du cran d'au dessus. La encore, le blabla de Luc Julia quand il compare les perfs du deep est tout à fait justifié.

    Citation Envoyé par Janer Voir le message
    3) Quand le type parle d'insérer de la biologie, neurologie etc... tu dis qu'il l'exprime comme si tout est à inventer, je ne pense pas qu'il dise ça. Je pense qu'il sait ne serait-ce que superficiellement, ce qui se passe dans ses domaines et qu'il dit qu'il faut faire le lien entre ses disciplines et les progrès récents en Deep Learning, j'ai l'impression que tu as la conviction que c'est impossible, que ce sont deux approches complètement différentes mais je ne suis pas d'accord... Le Deep Learning est intéressant, parce qu'il a permis de faire une grosse machine à calculer universelle différentiable qui fonctionne en pratique!
    Parce que cette machine à calculer est inutile en pratique pour ceux qui font de la robotique, de l'embarqué ou du multi-agent, ou un agent intelligent capable de tourner sur un PC seul. Elle est efficace, mais bourine. On obtient bien souvent d'excellent taux de reconnaissance avec un simple Kohonen (ou tout autre algo classifieur) et une couche de perceptron (ou autre) en sortie. Alors oui on a pas les 99% mais c'est complétement inutile car un agent intelligent agit, c'est là ou je pense que tu ne vois pas à quel point c'est incompatible. Si je peut bouger pour tourner autour d'une chaise, que j'en reçoit donc des centaines d'images sous pleins d'angle différent d'un coups avant de prendre ma décision. Est-ce utile alors d'avoir 99% de reconnaissance sur la reconnaissance d'une photo de chaise ? Ben non c'est complétement inutile, sans intérêt. Je peut avoir 55% de reconnaissance sur la photo de chaque chaise qu'en tournant autour ou simplement en m'en approchant je finirais par avoir 100% de certitude que OUI il s'agit bien d'une chaise. Et dans ce cadre à peu prés n'importe quel algo fait le taf. Idem pour le son, idem pour pleins de choses en fait.

    Le deep learning reste utile sur certains truc quand on ne veut pas se prendre le chou, évidemment, mais je te donne juste un exemple.

    Idem, un mec qui bosse sérieusement sur la vision ne va pas utiliser les CNN quand le cœur de sa recherche c'est d'étudier en détail les subtilités des liens récurrents dans les zones visuelles du cerveau. Les CNN dans ce cadre sont pour lui une approximation grossière, efficace certes, mais inutile à son taf.

    J'en reviens au même point, ce sont des outils sympa, utile à tout un tas de soucis, mais ça reste des outils, qu'on peut tout à fait ne PAS utiliser quand il s'agit de concevoir des IA en pratique. Et c'est d'ailleurs souvent le cas.
    Dernière modification par Nilsou ; 29/01/2019 à 02h00.

  12. #642
    Citation Envoyé par Janer Voir le message
    Et là on va peut être commencer à être d'accord, regarde cet article : https://techburst.io/deep-learning-e...g-5060d3c55074 et/ou celui-là : https://medium.com/@karpathy/software-2-0-a64152b37c35

    Alors voilà, quand tu construit un agent, en t'inspirant de la biologie par exemple, tu utilises peut-être un langage de programmation, ou même une architecture logicielle ? Et bien pour les intelligence de perception qui utilisaient l'intelligence statistique, c'était un peu pareil, on écrivait un solveur sur le perceptron, ou la régression linéaire, avec une architecture de programmation donnée, qui est l'architecture classique. Puis est arrivé le Deep Learning, ou encore comme on l’appellera peut-être dans le futur "differential programming", qui a permis avec les même concepts, de créer uen machine beaucoup plus puissante. Pourquoi ne pas l'appliquer à d'autres méthodes ? Cela a commencé à être fait et cela fonctionne très bien!

    Donc finalement le Deep Learning ne s'avèrera être qu'une technique de computation très performante, qui a permis de créer des intelligence artificielle très restreinte mais performante, peut-être à cause de leur inspiratio purement statistique, mais si cette technique de computation est utilisée sur des modèles plus inspirés, ça peut être très utile... Et si le terme Deep Learning est sale, utilisons "differential programming".
    Pour l'instant c'est flou et c'est du blabla de commerçant pour moi, désolé.
    Déjà le mec appelle ça "Software 2.0", et sort des phrases comme
    neural networks are not just another classifier, they represent the beginning of a fundamental shift in how we write software. They are Software 2.0.
    Désolé, mais
    On a déjà essayé de nous la faire 20 fois celle là. C'est du pure blabla quoi. Ok on a une jolie boite noire qui peut à partir de A donner B, mais faut se calmer sur la religion ensuite ...

    Et la définition de Differential Programming :
    Yeah, Differentiable Programming is little more than a rebranding of the modern collection Deep Learning techniques, the same way Deep Learning was a rebranding of the modern incarnations of neural nets with more than two layers.

    The important point is that people are now building a new kind of software by assembling networks of parameterized functional blocks and by training them from examples using some form of gradient-based optimization….It’s really very much like a regular program, except it’s parameterized, automatically differentiated, and trainable/optimizable.

    - Yann LeCun, Director of FAIR
    C'est quoi le truc ? Dés qu'une personne utilisera du deep learning dans un système plus grand(spoiler : tout le temps) pour une appli quelconque, alors il faudra l'appeler "Differential programming" ?
    Désolé mais c'est tout ce que je déteste dans cette branche de la science depuis des années, cette façon de jouer sur les mots de commerçant, de pondre de la hype à partir de rien. Je conchie ces méthodes, voila. Ceci est dit.

    D'ailleurs je m'en vais déposer le terme Deep Learning 6.0, je sens que j'ai une chance de faire du buzz.

  13. #643
    Que cela soit simplement des statistiques je suis d'accord, le deep learning ne revolutionne pas le monde niveau mathematiques. Par contre la ou je ne suis pas d'accord c'est dans le fait de nier l'avancement que cela a eu.

    Oui, ce n'est pas de l'intelligence dans le sens intelligence qui emerge d'experience passees (et encore, quel est ton point de vue sur les reseaux de neurones recurrents et le reinforcement learning?), mais je ne vois pas pourquoi cela devrait etre la seule barre pour etre qualifie d'intelligence artificielle. Tu dis qu'un agent peut tourner autours d'une chaise pour pouvoir obtenir plus d'information et renforcer sa croyance sur la probabilite que l'objet est une chaise ou non, mais il y a des cas ou ce n'est pas possible!

    Prenons la situation ou une camera fixe doit observer un endroit et suivant la situation en temps reel doit classifier si (par exemple) la situation est dangereuse ou non. Si on obtient 98% de succes en utilisant du deep learning je considere ca comme etant de l'intelligence. Le resultat est pour moi le fruit d'intelligence, la machine est capable, d'elle meme, de classifier la situation. Qu'importe l'outil, je me fiche de savoir si c'est fait par une regression lineaire, du deep learning ou des algos de ton domaine utilisant la psychologie et une emergence d'intelligence.

    Je pense que l'on repousse a chaque fois la barre pour la qualification d'intelligence pour la machine. Tu aurais dis il y a 100ans qu'une machine serait capable d'apprendre (qu'elle qu'en soit le sens) a lire les addresses des lettres pour pouvoir les trier automatiquement tout le monde t'aurais dis que ce serait le fait d'une machine intelligente.

  14. #644
    Citation Envoyé par yanad Voir le message
    Prenons la situation ou une camera fixe doit observer un endroit et suivant la situation en temps reel doit classifier si (par exemple) la situation est dangereuse ou non. Si on obtient 98% de succes en utilisant du deep learning je considere ca comme etant de l'intelligence. Le resultat est pour moi le fruit d'intelligence, la machine est capable, d'elle meme, de classifier la situation. Qu'importe l'outil, je me fiche de savoir si c'est fait par une regression lineaire, du deep learning ou des algos de ton domaine utilisant la psychologie et une emergence d'intelligence.
    Tout à fait, et tu décrit très bien avec un très bon exemple. C'est de la sémantique mais je te pose tout de même la question, même si, peu importe l'outil, ta caméra fait le taf : elle reconnait à 98% tel ou tel type de visage. Peut-tu néanmoins dire que ta caméra est munie d'une "I.A" ?

    Dans ma sémantique à moi, clairement non. Elle est munie d'un très bon algo de reconnaissance artificielle, voila tout

    C'est des discussions sémantiques mais c'est important mine de rien parce qu'après on obtient des trucs confus où quand un mec présente son dernier modèle de caméra "intelligente parce qu'il y a des neurones dedans" alors pouf, le moindre blabla sur le sujet devient "mais alors, vous allez nous pondre un humain artificiel dans 2 ans ?" . Je caricature, mais c'est pour illustrer. Être clair sur ce point aide aussi à avoir des discussions intéressantes. Si ta discussion sur ce nouveau modèle de caméra + deep learning à lieu dans un topic dédié à l'imagerie et au traitement d'image, c'est bien plus censé, des mecs connaissant le sujet pourront venir argumenter et comparer avec des algos, neuronaux ou non, pour voir si il s'agit d'une avancée, à quel point c'est utile ou non. etc etc... ça évite des discussions dans le vide.

    Citation Envoyé par yanad Voir le message
    Je pense que l'on repousse a chaque fois la barre pour la qualification d'intelligence pour la machine. Tu aurais dis il y a 100ans qu'une machine serait capable d'apprendre (qu'elle qu'en soit le sens) a lire les addresses des lettres pour pouvoir les trier automatiquement tout le monde t'aurais dis que ce serait le fait d'une machine intelligente.
    Exemple maladroit je pense, qui montre bien qu'a mon avis ça apporte de la confusion. Typiquement on applique de la reconnaissance de caractère automatisée, dans pas mal de domaine depuis trèèèèèèèèèèèès longtemps et bien avant les algorithmes d'apprentissages et leur application un peu partout. Et pourtant, personne ne désignait ces machines comme "intelligentes", tout au plus on parlait de "lectrice automatique" et automatique est bien ce qu'elles sont. Qu'est ce qui a changé pour que d'un coups, et intuitivement, il te vienne à l'esprit de penser qu'on les qualifierais ainsi ?

    Ben c'est simplement la méthode et le contenu de la machine en question, et non ce qu'elle fait ! Elle continue à reconnaitre tes caractères, mais maintenant elle est basée sur de l'apprentissage et des neurones artificiels. Automatiquement ça donne envie de la qualifier d’intelligente. Alors qu'elle ne l'est objectivement pas plus pour un observateur extérieur que les précédentes.
    Si tu veut c'est l'outil qui rends trompeur le truc ici. Oublie le contenu et regarde ce que fait le machin. Je pense qu'il faut aborder l'intelligence tel que Turing l'avait décris, uniquement du point de vue de l'exterieur et non sur un présupposé sur le contenu du machin. Dés que tu fait des présupposé sur ce que doit contenir ton machin pour être intelligent, tout devient nawak : les enceintes sont intelligentes, les casques aussi (annulation de bruit par apprentissage, un classique). Si je met un réseau de neurone qui apprends que quand on appui sur le bouton de la lumière celle ci doit s'allumer. Je peut te le pondre avec Q-learning + deep learning et te faire le même travail qu'un simple fil conducteur avec 99.999999% de taux de succès

    Est-ce que j'ai fait un fil "intelligent" ? Je ne pense pas non ...

    Citation Envoyé par yanad Voir le message
    Que cela soit simplement des statistiques je suis d'accord, le deep learning ne revolutionne pas le monde niveau mathematiques. Par contre la ou je ne suis pas d'accord c'est dans le fait de nier l'avancement que cela a eu.
    Je ne remet pas en cause le résultat mais j’avertis sur la tentation de céder à la hype et sur le manque de créativité qui il y a derrière. La plupart des solutions mises en avant par google et consort et qui emploient du Deep Learning, et la plupart des algos utilisés récemment utilisant à un endroit ou un autre du deep leearning sont dans bien des cas des variantes de trèèèèèèèès vieux algos qui étaient appliqués avec des perceptrons. (c'est le cas sur le go, c'est le cas sur leur algo autour du casse brique, c'est le cas des CNN etc etc...). Ils ont juste remplacé une brique dans un ensemble par sa version ++. Et dans bien des cas pas mal d'étudiant l'avait déja fait dés la propagation des réseaux multi-couche il y a bien longtemps de cela (appliquer Q-learning + deep comme l'a fait google est loin d’être nouveau par exemple).
    Moi et mes collègues on trouve ça meh, particulièrement sale pour les contributeurs initiaux de ces archis d'origine, et surtout ça n'avance à pas grand chose au final sur le problème de créer des agents intelligents. Par contre ça monopolise les budgets, la hype, l'attention du public. Ça c'est clair, et c'est négatif pour tout le domaine.

    Le domaine de l'IA a déjà vécu ça pour info. C'est pour ça que je parle en connaissance de cause. Un peu d'histoire de l'IA ne fait pas de mal : Quand le perceptron (mono-couche) est sortie, c'était la folie, tout le monde promettaient mont et merveilles et l'homme machine pour dans 5 ans. Tout les 5 ans évidemment . Ça a énormément monopolisé l'attention à l'époque, les budgets etc... (quelques films de cinéma sont les survivants de cette période, saurez vous les reconnaitre ? ) Et on sortait de nouvelles appli tout les jours. Mon directeur de labo me parle encore de ce temps béni ou dans toutes les banques on les appelait pour faire reconnaitre des faux billets avec des appli perceptron+catego. Ça vous rappelle quelques choses ?

    Quand les investisseurs et les états se sont rendu compte plusieurs années (10~20 ans de mémoire) après que finalement ça ne leur servait pas à grand chose tout ça et qu'on leur avait vendu bieeeeen du pipeau... ben ils ont retiré en masse leurs billes (les états en premiers, puis les militaires, puis tout le reste). C'est l'explosion de la bulle de l'IA qui a tué la plupart des labos de l'époque et a complétement paralysé le domaine de l'IA pendant des dizaines d'années.

    Donc non ce n'est pas anodin de monter de la hype sur du rien. Ça a des conséquences. L'IA de vos jeux pourris est directement le fruit de ce genre de comportement, d'obscurantisme sémantique, de blabla commerciaux et de mise sous les projecteurs de la moindre petite application anodine comme si c'était la REVOLUTION (2.0). Tout ceci a énormément retardé et pourris le domaine, pour finir par le tuer pendant tellement d'année que tout à du être reconstruit depuis 0. Tout ça pour que dés que le domaine est reconstruit tout le monde retombe dans les vieux travers .
    Il faut donc relativiser tout ceci avec des pincettes tailles maxi !

    Citation Envoyé par yanad Voir le message
    Oui, ce n'est pas de l'intelligence dans le sens intelligence qui emerge d'experience passees (et encore, quel est ton point de vue sur les reseaux de neurones recurrents et le reinforcement learning?), mais je ne vois pas pourquoi cela devrait etre la seule barre pour etre qualifie d'intelligence artificielle.
    Nan mais ne me fait pas dire ce que je n'ai pas dit. Je met juste en garde contre des dérives de vocabulaire dans mon blabla. Et principalement parce que je fait de la contre-argumentation. Je n'ai jamais dit que je n'aimais pas les réseaux de neurones . Je les adore, je les utilise tout les jours pour faire de l'IA dans mon taf. J'utilise du reinforcement learning, du Q-learning neuronal, des réseaux récurents et même du multi-couche de temps à autres, sans parler des multiples variantes de CNN, de Kohonen, de K-mean, de SVM etc etc... . Mais je m’efforce de faire une distinction nette entre ces outils, les fantasmes qui les habitent, les utilisation "rigolotes mais qui n'apporte pas grand chose" de ces outils et leurs emploie pour, éventuellement, en conjonction avec d'autres outils, tenter de faire des IA.
    Ce sont des choses bien différentes.

    Prenons un exemple concret de tout ce blabla de mes paragraphes plus haut, qui combine un peu tout : le Go est vraiment l'exemple typique. Alors que l'IA s'est embranché depuis des lustres sur autre chose que les simples vieux arbres à dérouler pour savoir si telle ou telle partie va être OK ou non, type algo Alpha-beta, minimax et cie... voila que des mecs nous ressorte le même truc et avec une astuce éculée en plus ! Faire apprendre les heuristiques et le coupages de branches préalables à des réseaux de neurones pour améliorer de résultat des algorithme de "branche" est une astuce tellement vieille qu'elle est dans nos sujets de TP pour une époque ou l'en-tête du TP était encore "Sujet pour le DEA machin-truc" ...
    Alors les mecs nous ressortent cette astuce d'étudiant, il remplace l'algo de prédiction par une version ++ moderne (ce qui était fait nativement par pas mal d'étudiant, les réseaux multi-couche ça date hein) et, et c'est là leur UNIQUE génie dans l'affaire -> ils l'appliquent au go et il médiatise le machin à mort.

    Ce dernier coups est du génie. La plupart des labos sérieux n'appliquaient plus leurs algos aux jeux, quelque soit le jeu, non pas parce qu'ils ne pouvaient pas réussir ou améliorer le résultat "état de l'art", mais parce qu'il trouvait que ça ne servait pas à grand chose. Ce n'était pas vraiment des "problèmes".
    Le génie de Google et consort, qui a pris de court tout le monde, c'est surtout ça, c'est d'avoir su mettre en valeur leur algo par son application à des jeux et dans des situations qui parlent au grand public.

    En attendant, ça n'a pas fait progresser grand chose à l'état de la science depuis l'époque où les étudiants codait ça pour leur TP, car le résultat était évident et attendu, même si son application technique c'est une autre histoire. Par contre ça a enclenché une bulle, monopolisé les ressources autour d'eux et leur a laissé du coups les coudés franche quant à l'avenir du domaine. Amplement soumis aujourd'hui à leurs bons désirs. Et ça c'est le résultat tangible et très négatif...

    Du coups ouais, je suis très critique par rapport à ce qu'ils font. Non par rapport aux outils en eux même, un outil est un outil. Mais par rapport à cette semi-religion poussée par ces gros bonnets en mettant en lumière des semi-résultats rigolo qui leur permet de bien sucer les budgets et d'installer dans les têtes que tout ce qui se passe est une REVOLUTION POUR L'IA. Eux ne se positionnent pas sur l'outil, mais bien sur l'IA, avec les exemple dans les jeux ils ne s'y sont pas trompé !
    Tout ça alors qu'en pratique les résultats concrets sur l'IA en tant qu'IA, sur la création d'agent artificiel intelligent (robotique ou simulé) ont bien peu avancés depuis plus de 20 ans en vrai ... ou plutôt vraiment à tout petit pas, et que beaucoup de ces petits pas ont été complétement décorrélés du domaine et des travaux autour de tout ce ram-dam précédemment décrit.

    Malheureusement au point ou en est d'attente et de simili-religion je pense qu'on est parti pour re-creer ce qui était déjà arrivé au monde de l'IA. En l'état des choses, la bulle est financée majoritairement dans le vide, sans application réelle derrière qui aident vraiment industriel et armée qui les finance en bout de chaine. Une fois que les applications qui les intéressent vraiment (reconnaissance) auront atteint un taux suffisant (c'est déjà le cas) ils se retireront progressivement du domaine. Entrainant le reste des investisseurs avec eux et entrainant encore une fois la mort du domaine. C'est ma prédiction perso. 100% made in Nilsou. Vous pouvez prendre les paris.
    Dernière modification par Nilsou ; 29/01/2019 à 05h27.

  15. #645
    Tiens Nilsou, je fais mon doctorat dans l'aérospatiale, un domaine où l'IA est regardée avec méfiance, principalement du fait de 1) la difficulté de vérifier/valider un agent 2) le manque de disponibilité de données d'entrainements qui soient effectivement représentatives de la réalité 3) l'impossibilité de poursuivre l'entrainement on-board pour des raisons de computing power.

    Ça commence à frémir, dans le sens où on commence à voir des sessions dédiées dans les conférences AIAA, mais on est très loin de faire voler un NN. Plus près de moi, j'ai des collègues qui s'intéressent en particulier à DeepQ pour résoudre un POMDP dans le but de trouver la succession d'état d'un satellite maximisant une fonction de récompense, mais ce n'est pas la panacée.

    Toujours est-il qu'une interrogation qui revient tout le temps à la lecture de travaux utilisants des neural nets est celle du nombre de couches/neurones dans le net. Y-a-t-il des méthodes analytiques pour déterminer le réseau de moindre complexité capable d'atteindre un certain niveau de performance sur un training set? Ou bien y'a pas d'autres options que de tester différentes configurations pour voir ce qui marche ou pas?
    Citation Envoyé par Colargol Voir le message
    Mais globalement l'ingenieur en France il bosse un peu a l'africaine: ca marche mais ca fait pas serieux

  16. #646
    Je comprends bien ton envie de temporiser pour ne pas risquer de nouveau hiver de l'IA mais je trouve que tu vas trop loin. Oui je suis d'accord c'est une histoire de semantique, et je pense qu'effectivement nous ne sommes pas d'accord sur le terme d'IA.

    Pour moi (non specialiste du domaine), je considere que l'IA inclus (inclusion non stricte) tout apprentissage fait par la machine. Pour ton exemple de la lumiere qui s'allume je pense qu'effectivement c'est de l'IA. Ce n'est clairement pas efficace compare a un fil conducteur mais cela reste de l'IA. Par contre ton fil conducteur n'est pas "intelligent" car il n'a rien appris ni rien fait de particulier.

    Pour mon example avec la camera, tu as raison de dire que c'est de la reconnaissance artificielle. Maintenant je considere que c'est de l'IA car cette capacite de reconnaissance a ete apprise d'une quelconque facon, ce n'est pas la structure meme de la machine qui fait que cela fonctionne. Avec un peu d'imagination, considerons une camera speciale utilisant une loi de la physique nouvellement decouverte permettant directement d'isoler les animaux des humains. Si derriere cette camera un simple circuit electrique avec des portes logiques permet de classifier si l'image percu contient des animaux ou non alors je ne considere pas ca comme de l'IA. Meme si la fonction optenue est la meme que celle d'un reseau de neurones (ou autre), la difference est que cette machine a ete concu pour repondre a ce probleme. A l'inverse, une IA sera pour moi le fruit d'un apprentissage a partir de donnees. La machine a obtenu d'elle meme un modele qu'elle utilise ensuite.

    Pour la reconnaissance automatique je n'ai pas pris mon example au hasard, je savais que c'etait tres vieux. Et justement, je trouve que l'article wikipedia est plutot de mon cote. Lorsque la machine de 1929 est faite directement pour reconnaitre les caracteres (avec les gabarits) cela n'est pas de l'IA. Par contre des qu'il y a debut d'apprentissage sur des donnees collectees en 1950 alors son inventeur fonde la "Intelligent Machines Research Corporation".

    Je pense que tu te focus trop sur le futur et sur ce que potentiellement les gens peuvent penser sur le futur de l'intelligence artificielle et oublies la situation actuelle. Un ordinateur a reussi, en apprennant sur de tres nombreux examples, a battre des professionnels de go. Recemment, un ordinateur a reussi a battre un joueur professionnel de Starcraft (meme si c'est discutable) en apprenant sur des parties d'amateurs. Pour moi cela correspond parfaitement a la notion d'IA.

    Edit: le temps que j'ecrive ma reponse tu as augmente la taille de ton message, je repondrais plus tard sur le reste

    @ BentheXIII: C'est la grande question actuelle. Globalement pour le moment on utilise plus des algorithmes types Bayesiens pour trouver les meilleurs hyperparametres. Il y a des debuts de resultats (comme par exemple ca) plus theoriques mais nous sommes encore globalement dans le noir.

  17. #647
    Citation Envoyé par BentheXIII Voir le message
    Tiens Nilsou, je fais mon doctorat dans l'aérospatiale, un domaine où l'IA est regardée avec méfiance, principalement du fait de 1) la difficulté de vérifier/valider un agent 2) le manque de disponibilité de données d'entrainements qui soient effectivement représentatives de la réalité 3) l'impossibilité de poursuivre l'entrainement on-board pour des raisons de computing power.

    Ça commence à frémir, dans le sens où on commence à voir des sessions dédiées dans les conférences AIAA, mais on est très loin de faire voler un NN. Plus près de moi, j'ai des collègues qui s'intéressent en particulier à DeepQ pour résoudre un POMDP dans le but de trouver la succession d'état d'un satellite maximisant une fonction de récompense, mais ce n'est pas la panacée.

    Toujours est-il qu'une interrogation qui revient tout le temps à la lecture de travaux utilisants des neural nets est celle du nombre de couches/neurones dans le net. Y-a-t-il des méthodes analytiques pour déterminer le réseau de moindre complexité capable d'atteindre un certain niveau de performance sur un training set? Ou bien y'a pas d'autres options que de tester différentes configurations pour voir ce qui marche ou pas?
    A ma connaissance, et d'après les dernières confs que j'ai vu, il n'y a aucune méthode autre que l'intuition et l'élimination.
    Élimination parce que tu connais à peu prés la dimension de ton problème, donc il est évident que le nombre de neurone "goulet d'étranglement" des plus fines couches cachées doit être suffisant (par l'absurde, un unique neurone au centre donnera un très mauvais résultat sur pas mal de problème). Mais au delà de ça, non on ne sait pas. Quant à la profondeur c'est une histoire de qualité du résultat finale surtout. Mais c'est très non-lineaire, sans faire le test c'est impossible à dire je pense. Encore une fois, par l'absurde il est évident que certains problème sont irésolvable avec seulement 1 couche centrale. Mais une fois que tu a éliminé les résultat absurde ... pour le reste c'est du pifomètre.
    C'est d'ailleurs LA principale critique qui est émise très souvent sur ces outils.

    Je serais vous je commencerais aussi par des algorithmes d'ordre de complexité croissant, et pas seulement par changer la complexité d'un algorithme complexe. Par exemple dans votre cas : par appliquer une discretisation + simple Q-learning au lieu de passer sur Deep-Q-learning d'emblée. Ça coute bien moins cher et le résultat donnera une base de départ à ce que vous pouvez obtenir. Ensuite seulement passer sur réseaux de neurones + "Q-learning" (le truc rigolo c'est que je fais tourner en ce moment même un modèle des ganglions de la base qui est exactement ça ) et ensuite seulement Deep-Q-learning. Vu ce que coute Deep-QL pour donner des solutions potable je ne suis par contre effectivement pas convaincu que vous puissiez le faire tourner pour un bas cout. C'est quel problème exactement sinon, peut-être qu'avec un énoncé plus précis un algo plus adapté me viendra à l'esprit ?

    Après oui, appliquer de l'IA "réseau de neurones" (donc soumis aux erreurs de fait) au commande d'un engin spatial me parait un peu contre-indiqué sans un système secondaire de sécurité. On fait ça dans les usines depuis pas mal de temps sur les soudeuses par arc électrique qui sont hautement non linéaire. On faisait ça avec du kohonen+perceptron+récompense il y a des années mais pour éviter la casse de machines à plusieurs millions en cas d'erreur du réseau il y a avait en permanence un système par dessus pour le couper au cas ou. C'est absolument essentiel de l'avoir. Comme ça tu a ton petit réseau de neurone un peu pourris qui fait la finesse des décisions et ton système de sécurité qui prends le relai si il dépasse les bornes.

    Et ma foi, ça marchait bien !

    - - - Mise à jour - - -

    Citation Envoyé par yanad Voir le message
    Je comprends bien ton envie de temporiser pour ne pas risquer de nouveau hiver de l'IA mais je trouve que tu vas trop loin. Oui je suis d'accord c'est une histoire de semantique, et je pense qu'effectivement nous ne sommes pas d'accord sur le terme d'IA.

    Pour moi (non specialiste du domaine), je considere que l'IA inclus (inclusion non stricte) tout apprentissage fait par la machine. Pour ton exemple de la lumiere qui s'allume je pense qu'effectivement c'est de l'IA. Ce n'est clairement pas efficace compare a un fil conducteur mais cela reste de l'IA. Par contre ton fil conducteur n'est pas "intelligent" car il n'a rien appris ni rien fait de particulier.
    Le truc c'est que le sujet a été débattu et tranché il y a longtemps dans une relative unanimité. Depuis Turing il est à peu prés admis qu'on définis l'intelligence non par le contenu mais par le résultat observable. Donc tu a le droit de ne pas être d'accord, mais je pense que pas mal de scientifique du domaines n'emploieront pas la même sémantique que toi tout simplement et ne définirait jamais le "fil" que je t'ai décrit dans mon expérience de pensée comme intelligent ou plus proche de l'intelligence qu'un simple fil de cuivre.

    Je vous propose à tous un petit rattrapage sur le sujet en allant lire le papier d'origine de Turing, qui est un peu la base du domaine de l'IA, et qui est en plus très bien écrit et très didactique.
    https://www.csee.umbc.edu/courses/471/papers/turing.pdf

    Honnêtement, lisez le vraiment, c'est un grand homme, et il écrit sublimement. Vous pourrez le mettre en relation avec tout notre blabla précédent, mais aussi avec ce qui a été appliqué sur Starcraft 2.
    Sinon vous pouvez lire Asimov aussi, ça réunit pas mal sous forme de fiction toutes les réflexions du domaines.
    Dernière modification par Nilsou ; 29/01/2019 à 05h57.

  18. #648
    Mais dans ce cas, si la definition retenu par la communaute scientifique est uniquement le resultat observable, j'imagine qu'il y a un "seuil d'intelligence" qui a ete defini non? Est ce que ce seuil est le test de Turing ou la machine doit se faire passer pour un humain?

    Si oui, alors tes exemples d'IA du niveau de ver de terre ne sont donc pas des IA. Et, a ma connaissance, nous n'avons cree aucune IA jusqu'a maintenant.

    Si non, comment juger qu'un resultat observe est signe d'intelligence ou non? Quel est le critere defini?

    (Et comme apparement on ne juge que sur le resultat, quid de mon example de ma super camera capable de detecter "mecaniquement" les animaux, est-ce de l'IA?)

  19. #649
    Merci pour vos réponses! Si vous voulez voir ce qui se trame chez nous, vous pouvez jeter un coup d'oeil au programme de la dernière conférence de l'American Astronautical Society (c'était à Hawaii ), la session d'IA se passait le Lundi aprem. Y'a des trucs stylés, mais aussi des tentatives que je trouve un peu maladroites visant à entrainer un NN pour qu'il "devine" la structure sous-jacente d'un problème relativement trivial (genre, les lois de Kepler).
    Citation Envoyé par Colargol Voir le message
    Mais globalement l'ingenieur en France il bosse un peu a l'africaine: ca marche mais ca fait pas serieux

  20. #650
    Citation Envoyé par yanad Voir le message
    Mais dans ce cas, si la definition retenu par la communaute scientifique est uniquement le resultat observable, j'imagine qu'il y a un "seuil d'intelligence" qui a ete defini non? Est ce que ce seuil est le test de Turing ou la machine doit se faire passer pour un humain?

    Si oui, alors tes exemples d'IA du niveau de ver de terre ne sont donc pas des IA. Et, a ma connaissance, nous n'avons cree aucune IA jusqu'a maintenant.

    Si non, comment juger qu'un resultat observe est signe d'intelligence ou non? Quel est le critere defini?

    (Et comme apparement on ne juge que sur le resultat, quid de mon example de ma super camera capable de detecter "mecaniquement" les animaux, est-ce de l'IA?)
    En fait il doit complétement tromper l'humain en face. A un taux statistiquement suffisant pour que le mec dise "c'est un humain". Et bien sur il faut le faire sur tout pleins d'humain pour que ce soit validé. Mais Turring débat de tout ceci dans son papier ^^.

    Ben non ta caméra, vu qu'elle ne déjà pas répondre à une question, elle est cuite .

    En vrai après tu peut faire pleins de variantes du test de turring en le dégradant pour avoir une chance de le passer. C'est de la triche mais ça te donne des indications.
    Par exemple tu peut faire un test de mouvement de Turing. En 1 dimension -> un humain bouge un point lumineux sur une ligne et une IA aussi et un observateur doit savoir qui est l'IA et qui est l'humain (on sait faire depuis quelques années après l'étude des réflexes moteurs et de la commande des muscles chez l'humain) . En 2D la même mais sur un plan. En 3D la même mais dans un environnement 3D simulé.

    Et là c'est pour le coté moteur, mais tu peut le faire sur d'autre aspect. Sur la reconnaissance tu peut faire un test de turing dégradé de reconnaissance, mais ce sera bizarre. Pourquoi pas après. Là le soucis c'est que si ça se trouve maintenant l'IA donnerait des réponses tellement parfaites que l'humain en face y verrais anguille sous roche et que ça ne passerait pas . Et si c'est un test générale de reconnaissance. Du genre l'humain qui n'a le droit que de poser la question "C'est quoi sur cette image ?" et de juger de la réponse pour toutes les images qu'il a envie, il y a des chances pour qu'aucun algo de reconnaissance actuel ne le passe ^^.

    Tiens sur Starcraft 2 si la machine arrive à faire croire qu'elle est un joueur humain a suffisamment de gens, elle passerais le test dégradé spécialement pour Starcraft 2. Mais elle ne le passe pas à l'évidence vu qu'elle utilise des tactiques totalement inhumaines.

    Mais le test d'origine quoiqu'il en soit est sur une discussion écrite ou toute liberté est laissé à l'humain testeur pour faire ce qu'il veut avec les questions.

    Citation Envoyé par BentheXIII Voir le message
    Y'a des trucs stylés, mais aussi des tentatives que je trouve un peu maladroites visant à entrainer un NN pour qu'il "devine" la structure sous-jacente d'un problème relativement trivial (genre, les lois de Kepler).
    Ils ont pas fait ça avec du Deep quand même ? Vu le peu de paramètre pour découvrir la règle, il y a pas besoin de beaucoup de neurones ou de pré-traitement pour que ça converge

    edit : Oh des mecs qui appliquent de l'acteur-critique à leur soucis ! J'aime bien
    Mais du coups je n'aime bien que la deuxième présentation

    Après je remarque que de manière générale ils restent sur un paradigme très "contrôle optimal" en donnant aux réseaux de neurones divers des punitions ou récompense en fonction de critères pré-établis. C'est un peu du gâchis malheureusement cette façon de faire, puisque tu ne cherche plus la trajectoire ou la commande pour atteindre le résultat final désiré en laissant le réseau faire le taf et trouver ce qu'il veut, mais tu lui donne un critère déjà tout fait à minimiser. On a longtemps fait ça dans notre domaine pour simuler les mouvements du bras avant qu'on ne se rende compte que ce n'était pas la bonne approche.
    Dernière modification par Nilsou ; 29/01/2019 à 06h38.

  21. #651
    Donc tu confirmes que ce seuil a ete defini par le test de Turing (meme si potentiellement degrade)? Tu aurais des papiers qui cite cet etat de fait? Ce n'est pas que je ne te crois pas mais comme je n'ai jamais lu avant que c'etait la definition "officielle" de ce seuil j'aurais maintenant des points d'ancrages pour etudier la question.

    Apparemment pour Starcraft 2 c'est un peu plus complique que ca. L'IA pourrait je pense potentiellement se faire passer pour un humain pour la plupart des personnes mais pas pour les joueurs connaissant tres bien le jeu. En effet, profitant de pouvoir cliquer beaucoup plus (et avec beaucoup plus de precision) qu'un humain classique cette "IA" privilegiait la micro plus que les macro strategies. Cela me fait reflechir au test de Turing, faut il des humains pris de facon aleatoire uniformement ou bien peut on prendre des experts du domaine? Car la plupart des gens pourrait penser que AlphaStar est un humain en voyant la partie, ce qui ferait qu'elle serait une IA.

    @BentheXIII: conference a Hawaii je suis jaloux

  22. #652
    Citation Envoyé par yanad Voir le message
    Donc tu confirmes que ce seuil a ete defini par le test de Turing (meme si potentiellement degrade)? Tu aurais des papiers qui cite cet etat de fait? Ce n'est pas que je ne te crois pas mais comme je n'ai jamais lu avant que c'etait la definition "officielle" de ce seuil j'aurais maintenant des points d'ancrages pour etudier la question.
    En réalité c'est un "consensus" si tu veut. Personne n'a fait de stats sur le milieu scientifique pour vérifier si il était juste C'est un consensus construit sur des dizaines d'années d'argumentaire et de contre-argumentaire au papier de Turing.
    Mais bon le fait qu'on fasse des films à gros budget nommé "imitation game" (c'est le titre du papier en question) sur Turing devrait te mettre la puce à l'oreille sur le fait que c'est un consensus largement approuvé

    Évidemment comme c'est un consensus je vois mal comment te le démontrer ...

    En vrai si on veut être propre dans une démonstration scientifique, il faudrait sans doute commencer par redéfinir les termes en commençant par "je définis ici le mot intelligence appliqué à des entités artificielles telle que Turing l'a défini dans son papier X" ou en utilisant une autre définition. Par contre je suis à peu prés certains que l’expérience de pensée du "fil" que j'ai donnée plus haut aboutirait à un large consensus pour dire qu'il n'est pas "intelligent" . Mais bon là encore, je vois mal comment le prouver, faudrait que je convoque ici tout mes collègues pour en discuter XD, histoire d'avoir un échantillon, et j'ai un peu la flemme

    Mais déjà en general dans les publications et les communications scientifiques on parle de "comportement intelligent" ce qui dit implicitement qu'il s'agit d'un comportement observable, et non d'un terme s'appliquant à la nature de l'objet étudié.

    Après il y a aussi un demi-consensus sur le fait que pas mal d'idée et d’expérience de pensée d'Asimov sont valide et bien pensée. Mais tout le monde dans le domaine n'a pas lu Asimov. Alors qu'en general Turing si.

    Citation Envoyé par yanad Voir le message
    Apparemment pour Starcraft 2 c'est un peu plus complique que ca. L'IA pourrait je pense potentiellement se faire passer pour un humain pour la plupart des personnes mais pas pour les joueurs connaissant tres bien le jeu. En effet, profitant de pouvoir cliquer beaucoup plus (et avec beaucoup plus de precision) qu'un humain classique cette "IA" privilegiait la micro plus que les macro strategies. Cela me fait reflechir au test de Turing, faut il des humains pris de facon aleatoire uniformement ou bien peut on prendre des experts du domaine? Car la plupart des gens pourrait penser que AlphaStar est un humain en voyant la partie, ce qui ferait qu'elle serait une IA.
    Ha mais probablement qu'en moyenne elle passe le test avec des joueurs lambda. Ça prouve qu'elle arrive à bluffer sur Starcraft 2 et c'est cool. J'ai rien à redire à ça.
    Depuis le début je ne parlais pas d'elle d'ailleurs, pour moi l'IA de starcraft 2 rentre manifestement bel et bien dans la case "IA". Elle ne fait pas que reconnaitre ou que prédire, elle agit, prends en compte la nouvelle situation et réagit. Elle peut bluffer l'humain etc...
    D'ailleurs les IA sur les échecs bluffaient l'humain sur les échecs. Donc elles passaient aussi leurs version du test dégradés à l'époque ^^.

    Mais c'est pas encore ça car on pourrait dire que le soucis de l'IA de starcraft 2 c'est qu'elle gagne. Et jouer "mal" et de façon humaine est plus difficile que de jouer bien. La plupart des humains démasquerait l'IA parce qu'elle joue trop bien, et si on nerf l'IA pour résoudre le problème elle risque de faire des trucs tellement incohérent de temps en temps que ça ferais tiquer les gens. Un peu comme si tu essai de jouer contre une IA de jeux d’échec en mode facile, limité à 1 coups de prédiction. L'artifice devient alors évident ...

    Mais à voir, il se peut qu'elle passe ce genre de test dans certaines conditions.
    Dernière modification par Nilsou ; 29/01/2019 à 07h12.

  23. #653
    Citation Envoyé par Nilsou Voir le message
    Un algorithme qui utilise du deep learning pour prédire les flux financiers est-il "intelligent" ? Bof, faut arrêter d'étendre la définition du mot à perpette. Un algo de prédiction statistique est un algo de prédiction statistique. La seule chose qui donne envie intuitivement de classer ce truc comme "intelligent" pour la plupart des gens c'est de dire qu'a l'intérieur c'est basé sur des neurones.
    C'est complètement débile ça comme affirmation. OK, le terme de neurone artificiel évoque des choses, mais c'est juste ça, un choix terminologique qui a eu du succès. La raison, la vraie raison pour laquelle en dit qu'il est "intelligent", c'est qu'empiriquement il est redoutablement efficace pour faire une tâche complexe, qu'on ne sait pas programmer par des méthodes classiques, et qu'on associe généralement avec un degré d'intelligence.

    Tu parles (dans tes derniers messages) de Turing, mais en même temps tu t'attaches complètement à la modélisation d'un processus naturel avant de parler d'IA. Pour moi, c'est complètement contradictoire, au point qu'avant de lire tes derniers messages je me demandais sérieusement si tu avais entendu parler du test de Turing.

  24. #654
    Sérieux ? La définition de l'"intelligence" retenue est encore cette de Turing ?
    Il me semblait pourtant bien que ça avait été écarté parce que de simples chatbot pouvait passer le test.
    Si c'est le cas cela me surprend car de plus, de mémoire, Turing n'avait pas posé cette épreuve comme réelle mesure de l'intelligence, mais comme simple exemple.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  25. #655
    Citation Envoyé par Nilsou Voir le message
    Un algorithme qui utilise du deep learning pour prédire les flux financiers est-il "intelligent" ? Bof, faut arrêter d'étendre la définition du mot à perpette. Un algo de prédiction statistique est un algo de prédiction statistique. La seule chose qui donne envie intuitivement de classer ce truc comme "intelligent" pour la plupart des gens c'est de dire qu'a l'intérieur c'est basé sur des neurones. Et que comme notre cerveau c'est des neurones alors c'est surement le chemin vers l'intelligence. Outre le fait que les "neurones" employées dans ces algos n'ont de neurones que le nom tant ils en sont éloigné algorithmiquement (particulièrement dans cet algo en particulier car la retro-propagation du gradient n'a aucune base autre que mathématique et est démenti par la biologie, alors que c'est le coeur de l'algo). En plus c'est un raisonnement assez pauvre.
    Un algo de prédiction ou un algo d'association n'est pas intelligent en tant que tel, c'est un outil. Juste un outil. Et la dessus, Luc Julia a bien raison de le rappeler.
    Et pourquoi un algo très complexe, qui utilise une architecture adaptative, des cellules mémoires etc... pour faire des prédictions sur les marchés financiers ne serait pas intelligent? Le modèle n'est plus purement statistique, la statistique est juste utilisée pour l'entraîner de façon stable. Pourquoi il serait moins intelligent qu'un agent qui agit dans une simulation, ou même dans le vrai monde, moins complexe, juste parce qu'il effectue des tâches différentes ? C'est une définition un peu anthropocentriste de l'intelligence, on peut pas distinguer intelligence et vivant? C'est sûr ça peut nous parraître plus fascinant et réel de voir notre agent apprendre à aller chercher des pommes alors qu'il ne savait pas ce que c'était, puis reconnaître des obstacles, des ennemis etc... mais au final ça reste un problème mathématique ?

    En plus, beaucoup de ce qui est fait en robotique c'est pas de l'intelligence, ils essayent juste d'arriver à faire faire des tâches de façon stable (drône qui vole dans une forêt, marche, navigation au milieux d'obstacles etc...).

    Citation Envoyé par Nilsou Voir le message
    Enfin "on a vraiment découvert par accident quelque chose d'un peu miraculeux quand même." ... je sais vraiment pas d’où tu sort ça ... les bases de l'apprentissage machine ont été posé par des gens comme Donald Hebb ou Teuvo Kohonen. Le premier modèle de perceptron mono-couche est pondu en 1957 et dés le départ ont commencé les recherches sur le multi-couches qui fut proposé en 1974 et fini en 1986. C'est le fruit d'une réflexion lente et d'un travail mathématique minutieux pour résoudre le soucis du perceptron mono-couche (qui fut résolu par ailleurs avec d'autres méthode en parallèle). C'est pas parce qu'il y a une hype qui sort poussée par google et consort depuis quelques années que le "Deep-Learning" est apparu de nul part dans leur besace ... tssss. Et ça n'a absolument rien de "miraculeux". Faut se sortir ce genre de phrase de l'esprit. Non seulement ce n'est pas réaliste, c'est à coté de la plaque, ça créé du fantasme, mais en plus c'est complétement négatif pour tout le domaine qui bosse dessus ...
    C'est pas Google, ni même Facebook qui a "découvert" ça par "miracle", c'est un étudiant qui l'a fait par hasard, en utilisant une architecture publiée dans un papier précédent de LeCun. Les bases de l'apprentissage machine ont été posés depuis longtemps oui, les réseaux de neurones aussi, mais rajouter des couches cela ne marchait pas très très bien jusque là. Il a réussi à trouver la combinaison d'algo, d'architecture et de méthode d'apprentissage qui ensemble permettaient d'apprendre et a explosé toutes les performances.


    Citation Envoyé par Nilsou Voir le message
    Tu me décrit tout les succès de "l'outil". Je n'ai rien contre, mais ça n'a que peu de rapport avec une appli générale d'IA.
    Par ailleurs tu cite des méthodes alternatives "censé fonctionner" (SVM, random forest et cie) comme si celle ci avaient cessé d'être utilisé... ben non, parce que dans pleins de case ces algos donnent encore de très bon résultat pour un bon cout calculatoire.
    Justement c'est là ou l'outil est associé contre-intuivement à l'IA. Si tu veut avoir une IA autonome par exemple, en général tu a un soucis de perfs évident, et tu évite d'appliquer des algos couteux en perfs. Ce pourquoi il y a rarement des CNNs sur robots reel ou en multi-agent par exemple. Mais bien des SVM ... (ou d'autres solutions) paradoxal non ?
    Donc oui c'est un outil génial, non cet argumentaire ne l'associe pas forcement de facto au développement d'IA du cran d'au dessus. La encore, le blabla de Luc Julia quand il compare les perfs du deep est tout à fait justifié.

    Parce que cette machine à calculer est inutile en pratique pour ceux qui font de la robotique, de l'embarqué ou du multi-agent, ou un agent intelligent capable de tourner sur un PC seul. Elle est efficace, mais bourine. On obtient bien souvent d'excellent taux de reconnaissance avec un simple Kohonen (ou tout autre algo classifieur) et une couche de perceptron (ou autre) en sortie. Alors oui on a pas les 99% mais c'est complétement inutile car un agent intelligent agit, c'est là ou je pense que tu ne vois pas à quel point c'est incompatible. Si je peut bouger pour tourner autour d'une chaise, que j'en reçoit donc des centaines d'images sous pleins d'angle différent d'un coups avant de prendre ma décision. Est-ce utile alors d'avoir 99% de reconnaissance sur la reconnaissance d'une photo de chaise ? Ben non c'est complétement inutile, sans intérêt. Je peut avoir 55% de reconnaissance sur la photo de chaque chaise qu'en tournant autour ou simplement en m'en approchant je finirais par avoir 100% de certitude que OUI il s'agit bien d'une chaise. Et dans ce cadre à peu prés n'importe quel algo fait le taf. Idem pour le son, idem pour pleins de choses en fait.

    Le deep learning reste utile sur certains truc quand on ne veut pas se prendre le chou, évidemment, mais je te donne juste un exemple.

    Idem, un mec qui bosse sérieusement sur la vision ne va pas utiliser les CNN quand le cœur de sa recherche c'est d'étudier en détail les subtilités des liens récurrents dans les zones visuelles du cerveau. Les CNN dans ce cadre sont pour lui une approximation grossière, efficace certes, mais inutile à son taf.

    J'en reviens au même point, ce sont des outils sympa, utile à tout un tas de soucis, mais ça reste des outils, qu'on peut tout à fait ne PAS utiliser quand il s'agit de concevoir des IA en pratique. Et c'est d'ailleurs souvent le cas.
    D'accord avec toi, jamais dit qu'il fallait jeter les bons vieux algos à la poubelle. Je nuancerai quand même pour dire que le Deep Learning n'est pas si gourmand que ça, en inférence il peut tourner à quelques dizaines de FPS même sur une raspeberry py, c'est surtout en apprentissage qu'il bouffe. Surtout qu'il est possible de distiller un réseau de neurone pour garder 90% de sa performance pour 20% de la taille. J'ai vu pas mal d'applications même en robotique où c'était bien sympa!

    Citation Envoyé par Nilsou Voir le message
    Pour l'instant c'est flou et c'est du blabla de commerçant pour moi, désolé.
    Déjà le mec appelle ça "Software 2.0", et sort des phrases comme

    Désolé, mais
    On a déjà essayé de nous la faire 20 fois celle là. C'est du pure blabla quoi. Ok on a une jolie boite noire qui peut à partir de A donner B, mais faut se calmer sur la religion ensuite ...

    Et la définition de Differential Programming :


    C'est quoi le truc ? Dés qu'une personne utilisera du deep learning dans un système plus grand(spoiler : tout le temps) pour une appli quelconque, alors il faudra l'appeler "Differential programming" ?
    Désolé mais c'est tout ce que je déteste dans cette branche de la science depuis des années, cette façon de jouer sur les mots de commerçant, de pondre de la hype à partir de rien. Je conchie ces méthodes, voila. Ceci est dit.

    D'ailleurs je m'en vais déposer le terme Deep Learning 6.0, je sens que j'ai une chance de faire du buzz.
    Ok je vois ce qui te dérange, mais bon c'est pas juste mettre du Deep Leaning dans un système, c'est que maintenant toute une partie d'un logiciel, et ça change un peu la façon de programmer, peut être apprise. On donne une architecture, où un ensemble d'architecture pour définir l'espace de recherche et le laisse optimiser. Il donne un exemple concret avec une base de donnée. Cela change complètement le workflow pour construire une application quand même ?

    DISCLAIMER : Je suis pas un chercheur mais un ingénieur.

  26. #656
    Citation Envoyé par Helix Voir le message
    Sérieux ? La définition de l'"intelligence" retenue est encore cette de Turing ?
    Il me semblait pourtant bien que ça avait été écarté parce que de simples chatbot pouvait passer le test.
    Si c'est le cas cela me surprend car de plus, de mémoire, Turing n'avait pas posé cette épreuve comme réelle mesure de l'intelligence, mais comme simple exemple.
    Il ne la pose pas comme définition en soit, mais comme test pour mesurer l'intelligence par comparaison. La définition est en creux si tu veut. Lis le papier, c'est traité dans ses premiers paragraphes d'ailleurs.

    Et aucun chatbot n'a résolu le test proposé par turring à l'origine . Souvent ils ont dégradé le test pour dire, tout les quelques années, et en grande pompe "ça y est on a résolu le test de turring" . Mais c'est 100% du mytho, en general avec des paramètres du genre "coucou, peut tu distinguer mon IA d'un gamin ou d'un handicapé" en sachant pertinemment que la difficulté de lecture et d'écriture de l'un ou de l'autre fausse le test (dans ce cas l'humain met les erreurs sur le bénéfice du doute laissé au gamin ou à l'handicapé d'écrire n'importe quoi n'importe comment). Turing précise d'ailleurs que le mec doit savoir écrire et lire dans son test initial, d’où le fait qu'il propose des adultes. Et là je ne te donne qu'une unique triche, en vrai il y en a eu tout pleins depuis. (par exemple la triche de ne pas prévenir le sujet de l’expérience. Si tu n'est pas conscient qu'il peut y avoir une machine en face alors même si celui que tu prends pour un humain écris nawak ... tu va juste penser qu'il est bourré ou qu'il te fais une blague).

    Si le test avait été résolu tu croiserais des IA qui te font la conversation partout, sans que tu puisse les distinguer des humains, vu que c'est ce que ça implique. Et ce n'est pas trop le cas .

    Le test d'origine reste valide et s’énonce simplement. Et aucune IA ne l'a jamais passé (ou alors faut me l'a montrer parce que là c'est une révolution). Si tu pond une IA capable de répondre à n'importe quelle question, sans limitation de formalisme ou quoi et que le mec en face dis à 100% après une conversation de longueur autant qu'il le souhaite que le truc en face de lui est bien un humain. Alors voila, ton IA passe le test sur un humain. Faut refaire le truc sur suffisamment de sujet et montrer que c'est = au résultat avec des vrais humains et c'est bon.

    Citation Envoyé par Janer Voir le message
    C'est pas Google, ni même Facebook qui a "découvert" ça par "miracle", c'est un étudiant qui l'a fait par hasard, en utilisant une architecture publiée dans un papier précédent de LeCun. Les bases de l'apprentissage machine ont été posés depuis longtemps oui, les réseaux de neurones aussi, mais rajouter des couches cela ne marchait pas très très bien jusque là. Il a réussi à trouver la combinaison d'algo, d'architecture et de méthode d'apprentissage qui ensemble permettaient d'apprendre et a explosé toutes les performances.
    Pas compris, tu fait référence au CNN ou à l'apprentissage profond seul Dans les deux cas c'est le fruit d'un long travail et non une découverte hasardeuse. Les CNN c'est un assemblage de couche convolutionelle tiré des travaux de Kohonen, et étudié depuis perpet avant et d'un Deep. Mais ça se faisait avec un truc pas deep auparavant tout autant ... ce n'est qu'une version ++ d'un assemblage qui lui aussi avait déjà été pondu et amplement étudié ... Voir l'histoire des CNN ici qui commence bien avant LeCun...
    Dernière modification par Nilsou ; 29/01/2019 à 09h21.

  27. #657
    Citation Envoyé par Nilsou Voir le message
    Il ne la pose pas comme définition en soit, mais comme test pour mesurer l'intelligence par comparaison. La définition est en creux si tu veut. Lis le papier, c'est traité dans ses premiers paragraphes d'ailleurs.
    Je reste donc surpris. Je viens de relire le papier de Turing pour rafraichir ma mémoire. Le début de son papier est plus une expérience de pensée, à la Einstein, qu'une définition, dans le but de séparer l'interne de l'externe, et de se concentrer sur les performances. Il ne parle à aucun moment de mesure d'intelligence. Même en creux.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  28. #658
    Citation Envoyé par Nilsou Voir le message
    Pas compris, tu fait référence au CNN ou à l'apprentissage profond seul Dans les deux cas c'est le fruit d'un long travail et non une découverte hasardeuse. Les CNN c'est un assemblage de couche convolutionelle tiré des travaux de Kohonen, et étudié depuis perpet avant et d'un Deep. Mais ça se faisait avec un truc pas deep auparavant tout autant ... ce n'est qu'une version ++ d'un assemblage qui lui aussi avait déjà été pondu et amplement étudié ... Voir l'histoire des CNN ici qui commence bien avant LeCun...
    Faire un apprentissage profond qui ne soit pas un enfer à entraîner et qui marche significativement mieux que les autres méthodes. Et j'ai juste dit que l'étudiant a pris l'architecture de LeCun, pas que LeCun l'a inventé.

  29. #659
    Citation Envoyé par Janer Voir le message
    Et pourquoi un algo très complexe, qui utilise une architecture adaptative, des cellules mémoires etc... pour faire des prédictions sur les marchés financiers ne serait pas intelligent? Le modèle n'est plus purement statistique, la statistique est juste utilisée pour l'entraîner de façon stable. Pourquoi il serait moins intelligent qu'un agent qui agit dans une simulation, ou même dans le vrai monde, moins complexe, juste parce qu'il effectue des tâches différentes ? C'est une définition un peu anthropocentriste de l'intelligence, on peut pas distinguer intelligence et vivant? C'est sûr ça peut nous parraître plus fascinant et réel de voir notre agent apprendre à aller chercher des pommes alors qu'il ne savait pas ce que c'était, puis reconnaître des obstacles, des ennemis etc... mais au final ça reste un problème mathématique ?
    Malheureusement pour le moment c'est la seule manière qu'on a de parler "d'intelligence". A ma connaissance seule le test de Turing permet de dire "c'est intelligent" ou "ça ne l'est pas" et uniquement par analogie avec l’intelligence humaine. Il n'y a eu aucune autre mesure proposé par ailleurs qui a été accepté de manière générale et qui a donné un consensus. Ou en tout cas je ne la connais pas.
    Alors après on peut imaginer des versions dégradés du test de Turing. Dans l'une des nouvelles les plus fameuses d'Asimov, un garçon rappelle à son père qu'il n'a pas de raison de dire qu'un chien robot n'est pas vivant, n'a pas d’âme, n'est pas intelligent etc... si on ne peut le distinguer d'un chien réel. Ce à quoi le père répond que le robot triche, il ne ressent rien, tout est programmé. Et le garçon demande à son père comment il peut savoir que le chien ne triche pas aussi ?
    La réplique est affiché sur le mur dans une des salles de mon labo d'ailleurs

    Bref, donc c'est toujours par comparaison. Si tu peut le comparer avec un animal ton IA tu pourra dire "ha ben ça me bluff au moins autant que cet animal, je ne peut pas les distinguer ou distinguer leur comportement" et par extension ça te permettra d'employer le gros mot "intelligence" avec un peu plus que du rien. Tu pourra alors dire "Cette IA est au moins aussi intelligente, ou à le même type d’intelligence que cet animal" mais tu ne peut pas sortir la notion "d’intelligence" de nulle part. Ou alors il faut proposer une nouvelle définition absolu ET un nouveau système de mesure capable d'aboutir à une expérience scientifique.
    Des générations de scientifiques se sont frotté au soucis sans trouver mieux ...

    Mais oui, si il s'agit, tu a raison, d'une intelligence alien -> le test échoue complétement. C'est son gros défaut.

    Citation Envoyé par Helix Voir le message
    Je reste donc surpris. Je viens de relire le papier de Turing pour rafraichir ma mémoire. Le début de son papier est plus une expérience de pensée, à la Einstein, qu'une définition, dans le but de séparer l'interne de l'externe, et de se concentrer sur les performances. Il ne parle à aucun moment de mesure d'intelligence. Même en creux.
    Bah il propose une expérience très détaillée pourtant, jusqu'au protocole pour répondre à sa question initiale. Il commence par "can machine think" et ensuite il aboutit à la conclusion qu'a cause de la sémantique du mot "think", comme nous dans notre blabla jusqu'ici, ben ça ne sert à rien de poser le problème sous cette forme vu que le mot n'a aucune définition, comme ses variantes "intelligence" ou autre "âme" etc ...

    Donc il change le problème pour tenter de substituer la question par une autre. En substituant il admet en creux essayer de trouver une forme non ambigu de sa question d'origine. Et donc il propose, en creux, une définition du mot "think" ou plutôt "pense comme un humain" (car il n'a pas le choix dans sa solution), qui serait "résout le problème que je propose" .

    Par ailleurs c'est le papier d'origine, il y a des dizaines d'années de travaux dessus ensuite hein ...
    Dernière modification par Nilsou ; 29/01/2019 à 09h42.

  30. #660
    Pour le test de Turing my 2 cents:

    Le test est trèèèèèès loin d'être résolu. L'idée c'est pas vraiment de tromper un humain, voilà pourquoi les "astuces" de se faire passer pour un gamin passent complètement à côté du problème. On ne veut pas utiliser des tricks, comme dans les jeux vidéos, qui exploitent notre tendance anthropomorphiste à projeter des motivations et émotions humaines, bref à humaniser ce qui ne l'est pas, à empathiser. Non, l'idée c'est d'utiliser le langage pour venir interroger l'intériorité de la machine, et comme le dit Nilsou c'est très profond à la fois scientifiquement et philosophiquement, il faut aller au delà du simple test qu'on nous décrit. En gros avec le langage on peut aller sonder toute la complexité de son interlocuteur, lui donner une information, voir s'il la retient 10 min plus tard, lui poser une question mathématique, lui raconter une histoire, lui poser des questions dessus etc... Mais voilà pourquoi pour moi, l'idée du test c'est pas le fait d'avoir une conversation avec un chatbot et savoir s'il est humain ou pas, mais bien de dire que c'est la complexité intérieur qui compte et dans quel mesure ce qui paraît intelligent l'est vraiment...

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •