Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 21 sur 43 PremièrePremière ... 11131415161718192021222324252627282931 ... DernièreDernière
Affichage des résultats 601 à 630 sur 1288
  1. #601
    Citation Envoyé par Helix Voir le message
    Tout à fait, j'en ai d'ailleurs parlé (rapidement) quelques messages plus haut. Même ça me surprend vraiment que tu classes les sciences cognitives dans l'IA.
    ?? C'est à dire ??
    C'est très clairement de l'IA puisque 1/3 du domaine des sciences cognitives ce sont des branches robotiques qui utilisent le savoir engrangé par les autres (neurobio et psycho) pour construire des modèles permettant à un robot de se développer (souvent en se basant sur un bébé animal) avec comme objectif un comportement cohérent du robot dans un espace (navigation, recherche de ressources, jeux etc etc...) . Si c'est pas de l'IA je sais pas ce que c'est
    Et étant dans un labo d'IA affilié aux sciences cognitives il va sans doute falloir qu'on change de nom si on ne fait pas de l'IA

    - - - Mise à jour - - -

    Citation Envoyé par Helix Voir le message
    Là par contre, je veux bien des refs parce qu'en vingt ans de métier à utiliser et développer des algos d'apprentissages, je suis rarement tombé sur des approches avec apprentissage dont l'objectif n'est pas de résoudre un problème.
    Quant à la hype deep learning, elle n'est pas que dans le grand public. Pas moyen d'avoir une conf de traitement de signal ou d'image sans une section deep learning ou sans qu'après ton exposé un type pose la question : "vous avez essayé avec le deep ?".
    Dans une conf de traitement du signal ou de l'image tu a raison. C'est assez normal d'ailleurs. Mais sont-ce des confs d'IA ? Est-ce que dans ces confs l’objectif c'est d'aboutir à un "comportement intelligent", ou à une "intelligence artificielle" ? En vrai non ... le but de ces confs c'est souvent comment améliorer telle ou telle compression dans telle ou telle contexte tout en ne perdant pas de qualité dans tel ou tel cas Et dans ce cas le deep learning est effectivement tout à fait indiqué, rien à redire. Même si c'est souvent le test facile au pifometre que tout le monde fait parce que c'est de la publi gratuite. Mais je doute que leur idée c'est que l'algo soit "intelligent" mais plutôt (et c'est souvent contradictoire) prédictible et performant.

    Est-ce que ça mérite donc l’appellation d'IA... joker. . Je dirais "utilisation d'un outil d'apprentissage" ou à la limite "apprentissage machine appliqué" mais pas IA, même si c'est de la sémantique.

    Si je doit étendre mon avis : La hype deep learning touche donc le grand public, en moyenne. Les domaines à l'origine du deep learning et cie et de leurs premières utilisations (évidemment) -> big data, math, signal. Mais aussi des domaines connexe qui découvrent l'outil sans que ce soit leur cœur de métier, mais comme ça donne parfois des résultats sympa et que ça fait un peu "outil magique" ça marche nickel. (imagerie, traitement d'image, traitement du son, télécoms, ingénieries diverses etc...) . Mais dans une conf d'IA, une vrai, un truc ou on parle de robotique ou d'agent intelligent en simulation, en moyenne quand quelqu'un vient avec du deep learning maintenant, les gens font juste un immense "pffffff..."' de fatigue

    Déjà depuis qu'on s'est rendu compte qu'a priori il n'y a aucune possibilité pour que le cerveau fonctionne comme le deep learning, la plupart des confs en relation avec la neurobio ont juste abandonné l'outil car elles considèrent que l'outil est un outil d'optimisation mathématique qui n'a aucun rapport avec le cerveau humain, donc que l'utiliser pourrait nous faire sortir du carcan qu'on s'est auto-imposé de "rester neurobiologiquement plausible" qui permet de tenter de comprendre pas à pas l'humain et d'éviter de se poser des problèmes qui si ça se trouve n'existe pas chez l'humain.
    Et ils ont eu bien raison, la plupart des travaux actuels et de l’énergie dépensé sur le deep learning visent à résoudre des soucis intrinsèque à l'outil, qui n'ont plus aucun rapport avec les soucis de simulation d'un comportement en tentant de garder les mêmes bases que les animaux et l'humain. Le domaine est déjà tout bouclé sur lui même.
    C'est peut-être sympa du point de vue théorique et matheux, mais pour un type qui veut faire un agent intelligent artificiel, la branche "deep" n'a aujourd'hui que peu d’intérêt. Je dirais même qu'elle est contre-productive car ses limites sont parfois inutile au problème posé. Souvent en IA on va avoir besoin de récurrence de partout par exemple, qui est souvent difficile à employer avec du deep (ça se fait mais bon). Le choix de la couche caché, de leurs nombres et de leur taille constitue bien souvent des choix pifométrique à l'utilisation de l'outil, et qui ont pourtant de sacrés conséquences. Qui n’apparaissent pas dans d'autre paradigme. Pour finir, le degré de finesse du deep learning est bien souvent inutile pour faire des agents intelligents sympatoche.
    Bien souvent un ensemble "algos de classif en mille feuilles + perceptron" donne un résultat tout aussi sympa pour un cout algorithmique moindre, des choix moins pifométrique et une choix d'outil qui peut se ramener sans soucis au carcan de la neurobio.

    Voila voila. Mais ce n'est que mon avis. Par ailleurs si il s'agit de faire une IA digne d'un général vu que vous parliez de SC2 auparavant, de toute manière l'approche science co aura toujours un résultat minable puisqu'elle part plutôt du bébé et de l'animal et non de l’être humain adulte qui pond des stratégies. Donc dans tout les cas, si je pense que l'approche deep et cie n'est pas top dans certains pans de l'IA, par contre la branche science co que j'aime bien est elle aussi tout à fait inapproprié pour certains usage.
    Par contre si il s'agit de pondre l'IA d'animaux dans des jeux ... c'est une autre histoire.
    Dernière modification par Nilsou ; 26/01/2019 à 17h51.

  2. #602
    Citation Envoyé par Nilsou Voir le message
    ?? C'est à dire ??
    C'est très clairement de l'IA puisque 1/3 du domaine des sciences cognitives ce sont des branches robotiques qui utilisent le savoir engrangé par les autres (neurobio et psycho) pour construire des modèles permettant à un robot de se développer (souvent en se basant sur un bébé animal) avec comme objectif un comportement cohérent du robot dans un espace (navigation, recherche de ressources, jeux etc etc...) . Si c'est pas de l'IA je sais pas ce que c'est
    Et étant dans un labo d'IA affilié aux sciences cognitives il va sans doute falloir qu'on change de nom si on ne fait pas de l'IA [/COLOR]
    L'IA est peut être dans les sciences cognitives, mais les sciences cognitives ne sont pas dans l'IA. Par exemples la psychologie cognitives ou les neurosciences.


    Citation Envoyé par Nilsou Voir le message
    Dans une conf de traitement du signal ou de l'image tu a raison. C'est assez normal d'ailleurs. Mais sont-ce des confs d'IA ? Est-ce que dans ces confs l’objectif c'est d'aboutir à un "comportement intelligent", ou à une "intelligence artificielle" ? En vrai non ... le but de ces confs c'est souvent comment améliorer telle ou telle compression dans telle ou telle contexte tout en ne perdant pas de qualité dans tel ou tel cas Et dans ce cas le deep learning est effectivement tout à fait indiqué, rien à redire. Même si c'est souvent le test facile au pifometre que tout le monde fait parce que c'est de la publi gratuite. Mais je doute que leur idée c'est que l'algo soit "intelligent" mais plutôt (et c'est souvent contradictoire) prédictible et performant.

    Est-ce que ça mérite donc l’appellation d'IA... joker. . Je dirais "utilisation d'un outil d'apprentissage" ou à la limite "apprentissage machine appliqué" mais pas IA, même si c'est de la sémantique.
    Ben justement initialement j'ai bien parlé d'algo d'apprentissage et pas d'IA.
    Par contre, détrompe toi sur le but des recherches en traitement du signal ou d'image. L'applicatif est souvent très terre à terre. Mais le fond du pb de ces disciplines est de comprendre la nature des signaux et des images. C'est ce qui différencie un boulot d'ingénieur de celui d'un chercheur.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  3. #603
    Citation Envoyé par Helix Voir le message
    L'IA est peut être dans les sciences cognitives, mais les sciences cognitives ne sont pas dans l'IA. Par exemples la psychologie cognitives ou les neurosciences.
    Si tu veut, alors disons que je parle de la branche IA des sciences cognitives. Même si l'objectif de tout les aspects des sciences co reste le même : la compréhension. Alors oui le but d'un neuro qui vient participer à un truc de sciences co c'est avant tout de tester ses hypothèses et non de faire de l'IA. Même si souvent ils se laissent prendre au jeu et pas mal de neurobio finissent par en faire
    Idem le but d'un psycho c'est de tester ses hypothèses, mais le but d'un roboticien (ou d'un mec qui fait de l'agent intelligent) c'est d'utiliser tout ceci pour faire une IA. Donc disons que je parle de cette branche
    Alors évidemment il y a un aspect pragmatique quand même, il faut que le robot fonctionne à la fin quoi

    - - - Mise à jour - - -

    Citation Envoyé par Helix Voir le message
    Ben justement initialement j'ai bien parlé d'algo d'apprentissage et pas d'IA.
    Par contre, détrompe toi sur le but des recherches en traitement du signal ou d'image. L'applicatif est souvent très terre à terre. Mais le fond du pb de ces disciplines est de comprendre la nature des signaux et des images. C'est ce qui différencie un boulot d'ingénieur de celui d'un chercheur.
    Bvoui bvoui pas de soucis. ^^
    Même si, étant roboticien je ne fais que peu de distinction entre le taf d'ingé et chercheur. OK l'ingé cherche à réaliser un truc, mais si doit comprendre de nouvelles choses pour le faire il le fait, c'est certes un objectif secondaire mais c'est courant. Et un chercheur (surtout pour nous en robotique) doit bien souvent réaliser quelque chose, même si l'objectif primaire c'est de comprendre on le fait quand même . Résultat des courses, je trouve que ce sont des notions très floue . Mais c'est encore de la sémantique

  4. #604
    Je suis intéressé par quelques références et mots clés Nilsou, sans que tu te fatigues à détailler, je saurai chercher, creuser et synthétiser, de choses intéressantes en IA et à l'opposé du Deep Learning!

  5. #605
    Bah "sciences cognitives" déjà.
    Sinon "Agent intelligent", "Robotique bio-inspirée" (ça peut être large et concerner autant la mécanique que l'IA, en mécanique le plus connu du grand public c'est Boston Dynamics par exemple). Algorithme bio inspiré, etc etc...

    C'est déjà un bon point de départ. Après certains événements comme le forum des sciences cognitives ont souvent pas mal de démonstration très sympa en robotique et simulation. Même si c'est assez inégal. (une année peut-être plutôt dédié à la psycho, une autre avoir tout plein de robotique, le défaut et l'avantage des sciences multi-branches). L'avantage d'événement de ce genre c'est que c'est ouvert à tous, informel et qu'on y croise pas mal de gens qui présentent de façon très pragmatique des trucs assez malin dans le domaine. A contrario d'une conf scientifique qui peut souvent être très barbante et ou il est difficile de trier "ce que présente les auteurs enrobé dans un format indigeste et mis en valeur pour être "vendu"" de la "réalité" de leurs expérimentations.

    J'avais fait plusieurs événements du même genre en tant qu'invité ou participants mais souvent ils n'étaient pas ouvert au public. Alors que ce forum l'est.

    Je vais voir pour d'autres termes qui me viendraient à l'esprit et qui aiderait à la recherche. Après une fois que tu tombe sur un truc sympa il suffit de suivre tout ce que fait le labo d'origine (j'aime bien certaines équipe à Bordeaux, Paris, Lausanne, Nancy etc...) et tu tombe sur pas mal de leurs travaux récent (Quelques labos pour l'exemple : Inria, EPFL, ISIR (principal labo de paris sur le sujet), LORIA etc etc...).

  6. #606
    Citation Envoyé par Kamikaze Voir le message
    C'est pas les mêmes arguments que ceux que j'avais développés sur le topic, mais y'a des liens et le constat est le même:

    "L'intelligence artificielle n'existe pas"

    https://www.journaldugeek.com/dossie...ateur-de-siri/
    En complément, interview de Luc Julia sur France Info : https://mobile.francetvinfo.fr/repla...Vns8h2WMFSzwZ8
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  7. #607
    Il y a pas mal d'affirmation étrange dans son blabla (sur l'article de Journal du Geek)

    Si je suis plutôt d'accord avec son affirmation de base dans un premier temps, et si je suis bien d'accord avec son constat sur les techniques à base de deep learning etc... il oubli pas pas mal de chose au passage. Tient par exemple il dit dés le début
    ""Mais il ne faut pas gâcher cela en faisant croire des choses qui n’existent pas ou en faisant peur aux gens.""

    En oubliant au passage que tout le domaine tient par la publicité mensongère qui est faites dessus. Survendre le truc pour faire réagir les actionnaires des entreprise qui financent le domaine via le privé (vu que les états se désengagent...) est une vieille histoire qui vient des débuts du domaine de l'IA et qu'on reproduit aujourd'hui. Et qui aura les même conséquences (explosion de la bulle). Le fait que le machin tiennent sur du mytho n'est donc ni un accident ni l’œuvre d'une minorité de personne qu'il suffirait d'engueuler et de rappeler à l'ordre avec quelques bonnes paroles en deux phrases, mais bien le cœur de fonctionnement de tout ce domaine, et d'autres larges pans de la science occidentale. Ne pas l’aborder c'est donc éviter le cœur du problème et rester sur du blabla de surface.

    Sinon le reste de l'article est propre. Ce passage est un bon résumé qui explique pourquoi les travaux de google, facebook et apple font bien rire tout un pan de la communauté :
    Spoiler Alert!

    Avec le jeu de Go, c’est un peu différent car on ne peut pas modéliser toutes les possibilités. Une partie d’entre elles ont cependant été modélisées et des modèles statistiques aident à combler les trous. Ce n’est pas aussi propre qu’aux échecs mais globalement on a beaucoup plus de possibilités en mémoire qu’un joueur humain. Donc il n’y pas d’intelligence, c’est simplement une masse de données et un peu de statistiques.

    Il suffit d’ailleurs de regarder les chiffres : DeepMind, c’est 1500 CPU, environ 300 GPU, quelques TPU et 440 kWh. L’humain en face, c’est 20 Wh. Et lui sait faire bien d’autres choses que de jouer au go ! Cela prouve qu’il s’agit d’approches complètement différentes et qu’il est ridicule de penser qu’on est proche de l’intelligence. C’est également flagrant si l’on regarde du côté de la vision. On a construit des systèmes capables de reconnaître des chats avec un taux de réussite de 95% en leur fournissant 100 000 images de chats. Alors qu’un enfant n’a besoin que de deux images de chat pour en reconnaître un toute sa vie, avec un taux de réussite de 100%.


    Enfin, comme beaucoup de scientifiques qui viennent du domaine du machine learning de brutasse, il ignore volontairement tout un pan de l'IA qui utilise d'autres approche depuis les années 70 ... Il dit par exemple :
    Or, si on veut arriver à de la vraie intelligence artificielle, il faudra recourir à d’autres méthodes que celles utilisées aujourd’hui. S’agira-t-il de méthodes avec de la biologie, de la physique, du quantum… sans doute un mix de tout cela. Je pense en tout cas qu’il faudra une approche multidisciplinaire.
    Ce sur quoi je suis 100% d'accord, mais ces approches pluri-disciplinaires existent depuis les tout début de l'IA, elles sont juste décorrélé de son domaine de travail natif, mais elles sont bien présente et depuis très longtemps. Alors qu'il sous-entends que tout est encore à construire comme si ça n'existait pas. C'est un commentaire classique de toute une branche de ces scientifiques qui viennent du domaine matheux et des télécoms (à la base le mec viens des télécoms et de la reconnaissance vocale) qui n'ont en réalité jamais côtoyé la communauté de l'IA comportementale et biologique (tout ceux qui font des robots quoi) et bien souvent redécouvre la roue à l'infini en se retapant toute la chaine de raisonnement qui a aboutit à cette communauté dans ... les années 60 ... .

  8. #608
    On ne sait pas ce que c’est que l’intelligence donc on ne peut pas construire de l’intelligence artificielle.

    Ce que l’on appelle "intelligence artificielle" depuis 1956 ce sont des techniques mathématiques qui n’ont rien à voir avec l’intelligence.
    Donc en fait on sait ce que c'est ou pas? Il faudrait savoir.
    Comment pourrait-on dire que "ce n'est pas de l'intelligence" si on part du principe qu'on ignore ce que c'est?

    Mais la machine ne crée pas, ne réfléchit pas
    Qui dit que les humains le font?
    Ces algo sont capables de sortir des choses qui n'ont pas été programmées au départ, ils créent donc quelque chose.
    La réflexion c'est quoi sinon un échange d'information, que ce soit au sein du cerveau ou par des circuits?
    Là encore, on se rapproche du dogme religieux anthropocentrique.

    la voiture autonome n’existera jamais.
    Les mecs qui disent jamais...
    Pratiquement une preuve de bêtise en soi.

    La charge cognitive de la conduite est, en effet, beaucoup trop importante pour la confier à une machine. Cela fonctionnera à 98% mais il restera toujours 2% que seul l'humain pourra accomplir.
    Parce que bien sûr le taux de 98% est fixe et indépassable même avec un milliard d'années de progrès.
    C'est un peu comme la vitesse de la lumière quoi.
    Et sinon pour l'humain super conducteur imbattable, d'où proviennent donc ces mystérieux accidents de la route?

    signe un livre décalé sur l’intelligence artificielle dans lequel il prend le contrepied du discours marketing ambiant sur l’IA.
    Ce qui est en soi une pratique marketing visant à se distinguer, on comprends qu'en fait le but est de vendre son bouquin.

  9. #609
    Oui elle en a un.
    Et plus profond que tu ne le pense.

    Si je doit faire fonctionner une IA qui résout un problème, mais que celle-ci me coute des milliers de fois plus cher à l'heure qu'un pauvre humain ramassé dans la rue ... ben mon IA est inutile. Elle figure dans le guiness, mais n'apporte rien à l'humanité. Au garage. Et dans ce cas le fait de l'avoir pondu n'a aucune valeur ajoutée.

    Faut toujours réfléchir à ce genre de truc quand on pond une technologie.

    Et ta comparaison n'est pas bonne. Leur ordinateur n'a pas eu besoin de 24h d'apprentissage, mais de plus ( de mémoire ) et de toute façon c'est le cout à l'emploi qui est limitant. Pas le reste. Quant aux humains, c'est gratuit, tu en aura toujours pour apprendre le go, pour apprendre à conduire ou pour faire la vaisselle, que tu ai les meilleures IA du monde ou non. Ce savoir est "gratuit" virtuellement.

  10. #610
    Citation Envoyé par Nilsou Voir le message
    Enfin, comme beaucoup de scientifiques qui viennent du domaine du machine learning de brutasse, il ignore volontairement tout un pan de l'IA qui utilise d'autres approche depuis les années 70 ... Il dit par exemple :

    Ce sur quoi je suis 100% d'accord, mais ces approches pluri-disciplinaires existent depuis les tout début de l'IA, elles sont juste décorrélé de son domaine de travail natif, mais elles sont bien présente et depuis très longtemps. Alors qu'il sous-entends que tout est encore à construire comme si ça n'existait pas. C'est un commentaire classique de toute une branche de ces scientifiques qui viennent du domaine matheux et des télécoms (à la base le mec viens des télécoms et de la reconnaissance vocale) qui n'ont en réalité jamais côtoyé la communauté de l'IA comportementale et biologique (tout ceux qui font des robots quoi) et bien souvent redécouvre la roue à l'infini en se retapant toute la chaine de raisonnement qui a aboutit à cette communauté dans ... les années 60 ... .
    N'exagérons pas. Il s'exprime dans un article de quelques lignes et dans une interview de quelques minutes. Je pense qu'il faudrait lire son livre avant d'en déduire qu'il ne connait pas ces choses. D'autres part, je pense que son livre est juste une réponse grand public aux annonces grand public sur l'IA, dans le but de calmer le jeu sur les attentes ou les craintes.

    Citation Envoyé par Mastaba Voir le message
    Qui dit que les humains le font?
    Ces algo sont capables de sortir des choses qui n'ont pas été programmées au départ, ils créent donc quelque chose.
    La réflexion c'est quoi sinon un échange d'information, que ce soit au sein du cerveau ou par des circuits?.
    Ce n'est pas parce que le support est le même (ce qui reste encore à prouver d'ailleurs) que le résultat est le même. Un livre de Cioran et un autre de Musso sont écrit tous les deux avec des mots, pour le reste ...

    Je suis globalement de son avis. Moi je veux bien que l'on dise que les algos d'IA ont créé quelque chose, mais quoi ?
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  11. #611
    Citation Envoyé par Mastaba Voir le message
    Parce que bien sûr le taux de 98% est fixe et indépassable même avec un milliard d'années de progrès.
    C'est un peu comme la vitesse de la lumière quoi.
    Et sinon pour l'humain super conducteur imbattable, d'où proviennent donc ces mystérieux accidents de la route?
    Perso, j'ai beau être dans l'ensemble assez sceptique sur l'IA-qui-va-tout-révolutionner, je suis plutôt d'avis que, n'étaient les réticences sociales (qui font qu'il n'est pas acceptable de dire qu'on va faire conduire la machine - en oubliant que c'est ce qui se passe dans les avions [même si piloter un avion c'est a priori bien plus simple qu'une voiture, il y a beaucoup moins d'obstacles impromptus dans l'environnement]), d'ici 10 ou 20 ans il serait illégal de conduire soi-même une voiture dans la plupart des pays européens.

    (Mais bon, en pratique ça risque d'être plus lent que ça je dirais)

  12. #612
    Oops, j'ai supprimé la question auquel Nilsou répondait . Je reposte :

    Est-ce que cette histoire de consommation énérgétique a un sens, tout du moins son unité (kWh) ? Si l'ordinateur a besoin de 24 heures d'apprentissage ou équivalent (10560kJ) pour atteindre le niveau du meilleur joueur du monde sur <insérer un jeu> (si joueur de 30 ans alors 5256kJ), finalement on est dans le même ordre de grandeur (x2) ?

  13. #613
    Citation Envoyé par Mastaba Voir le message
    Qui dit que les humains le font?
    Ces algo sont capables de sortir des choses qui n'ont pas été programmées au départ, ils créent donc quelque chose.
    La réflexion c'est quoi sinon un échange d'information, que ce soit au sein du cerveau ou par des circuits?
    Là encore, on se rapproche du dogme religieux anthropocentrique.
    Il faut faire attention à ne pas tomber dans l’excès inverse. Si ce qu'il dit en disant "Mais la machine ne crée pas, ne réfléchit pas " est une idiotie de débutant, effectivement (faut qu'il aille lire Asimov comme tout débutant en IA lui, au lieu de sortir ce genre d'énormité qui peut se faire démonter par un philosophe amateur en 5 seconde), par contre dire "l'intelligence et le cerveau humain est forcement réduit à des échanges d'information qu'on peut donc simuler" est également un acte de foi. Pour le moment c'est ce qui parait le plus "raisonnable" mais en vrai on en sait rien. Donc comme on en sait rien, si on veut rester propre, on ne le dit pas.

    - - - Mise à jour - - -

    Citation Envoyé par Helix Voir le message
    N'exagérons pas. Il s'exprime dans un article de quelques lignes et dans une interview de quelques minutes. Je pense qu'il faudrait lire son livre avant d'en déduire qu'il ne connait pas ces choses. D'autres part, je pense que son livre est juste une réponse grand public aux annonces grand public sur l'IA, dans le but de calmer le jeu sur les attentes ou les craintes.
    Bah je fais une généralité, certes, mais au vu de sa formation, de son parcours, des décisions technologiques faites par sa boites etc... il est tout à fait cohérent qu'il ne connaisse pas ces choses. Disons que c'est clairement le plus probable. Je connais très bien sa communauté moi par contre et bien souvent c'est comme ça qu'ils sont. Disons que c'est pas qu'il ne connaisse pas les choses ou qu'ils n'en ont pas les compétences, mais c'est plutôt que c'est pas leur domaine, pas leur façon de réfléchir, qu'ils préfèrent leurs outils qu'ils maitrisent déjà etc etc...
    Bref ils attaquent le problème par un bout qui est à l'opposé complétement de nos disciplines. Il est donc normal qu'il n'est guère envie de regarder nos disciplines.

    Tient un exemple entre mille : un point fondamental qui sépare les domaine c'est la permissivité à l'erreur. Les gens qui font de l'IA comportementale accepte que leur IA ait le niveau d'un vers de terre et fasse des erreurs de partout. Tu t'en fout si c'est pour faire un chien robot ou une IA dans un JV. Et elle utilise alors ses erreurs dans la vrai vie pour progresser tout en en faisant toujours un tas. Mais un mec dont l'objectif c'est d'améliorer le rendu d'une télécommunication, de reconnaitre une image pour une appli militaire ou de conduire une voiture automatiquement ne peut évidemment pas du tout autoriser que son application résultante dise "oups, pardon, j'ai fait une bourde" . Donc les outils employés par la première catégorie sont juste absolument incompatible avec la seconde. Et ceux de la seconde, qui sont là pour avoir des taux de succès de malade, sont juste inutile aux premiers. Tout simplement.

    L'incompatibilité est donc plus profonde qu'une histoire de technologie ou de connaissance, c'est un vrai problème de fond qui sépare ces deux groupes.

    - - - Mise à jour - - -

    Citation Envoyé par Shosuro Phil Voir le message
    Perso, j'ai beau être dans l'ensemble assez sceptique sur l'IA-qui-va-tout-révolutionner, je suis plutôt d'avis que, n'étaient les réticences sociales (qui font qu'il n'est pas acceptable de dire qu'on va faire conduire la machine - en oubliant que c'est ce qui se passe dans les avions [même si piloter un avion c'est a priori bien plus simple qu'une voiture, il y a beaucoup moins d'obstacles impromptus dans l'environnement]), d'ici 10 ou 20 ans il serait illégal de conduire soi-même une voiture dans la plupart des pays européens.

    (Mais bon, en pratique ça risque d'être plus lent que ça je dirais)
    Alors pour pas mal de raison, il y a de forte chance (je dit pas que c'est impossible) que ceci n'arrive jamais .
    A vrai dire on sait très bien automatiser à 100% les autoroutes depuis des lustres (genre, 30 ans je crois) par exemple, je ne détaillerais pas, mais il y a même eu de vrai test grandeur nature. Mais on ne l'a jamais fait, pour tout un tas de raison qui sont encore valide aujourd'hui, qui ne tiennent pas forcement qu'a des histoires sociales. Mais aussi à la nature même du monde dans lequel évolue la voiture.

  14. #614
    Tu peux préciser ce que tu veux dire par "nature du monde dans lequel évolue la voiture"? Parce que tel quel c'est pas clair dans ma tête...

  15. #615
    Citation Envoyé par Nilsou Voir le message
    Bah je fais une généralité, certes, mais au vu de sa formation, de son parcours, des décisions technologiques faites par sa boites etc... il est tout à fait cohérent qu'il ne connaisse pas ces choses. Disons que c'est clairement le plus probable. Je connais très bien sa communauté moi par contre et bien souvent c'est comme ça qu'ils sont. Disons que c'est pas qu'il ne connaisse pas les choses ou qu'ils n'en ont pas les compétences, mais c'est plutôt que c'est pas leur domaine, pas leur façon de réfléchir, qu'ils préfèrent leurs outils qu'ils maitrisent déjà etc etc...
    Bref ils attaquent le problème par un bout qui est à l'opposé complétement de nos disciplines. Il est donc normal qu'il n'est guère envie de regarder nos disciplines.
    En toute sympathie, je suis un peu choqué par cet "argument" qui s'approche un peu trop d'un ad personam. Tu supposes beaucoup trop de chose pour moi, dans le dénigrement qui plus est.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  16. #616
    [par avance pardon pour les fotes () j'ai un peu la flemme de vraiment corriger un tel pavé

    Citation Envoyé par Shosuro Phil Voir le message
    Tu peux préciser ce que tu veux dire par "nature du monde dans lequel évolue la voiture"? Parce que tel quel c'est pas clair dans ma tête...
    C'est long et chiant. Je vais faire par analogie pour te montrer ou on en est de la réflexion aujourd'hui sur le sujet des voitures auto et autres automatisme.

    Disons, allez, que je veut faire une ligne automatique de Métro, vous avez tous déjà vu ce genre de ligne. Quel sont leurs spécificités ?
    L'un des points qui est marquant et qu'il faut retenir c'est tout simplement le quai. On a verrouiller le quai pour empêcher physiquement qu'il y ai des accident. Alors même qu'a la limite on aurait tout à fait pu pondre un algo qui detecte si des gens pose un soucis ou non.

    Le soucis c'est que le taf du conducteur de métro est en réalité bien plus complexe qu'un informaticien pourrait le penser de prime abord. Car qu'est-ce qu'il fait : il regarde le quai et il observe les groupes de gens. Il fait ensuite une prédiction dans sa tête du comportement des gens en fonction de millier de facteur pour savoir si il y a un danger ou si ça rentre dans la case "normalité", si il peut fermer les portes à la bourrin ou si ça risque de poser de gros problèmes. D'un point de vue de concepteur d'IA ce travail est immeeeennnnse, c'est le fruit de dizaines d'années d’expériences de la vie du conducteur, de son enfance et du fait qu'il ait grandit parmi des humains. C'est le fruit de toute ces interactions passées qui s'exprime dans son analyse, de façon totalement intuitive et instinctive.

    Faire donc, une IA qui sait si tel ou tel personne présente un danger sur le quai est un travail immense et probablement impossible à l'heure actuelle. Il faudrait non seulement que cette IA ait "vécu" aussi longtemps pour accumuler autant d’expérience mais aussi qu'elle ait pu interagir avec eux pour tester ses hypothèses. Ce point est ultra critique, car ça empêche de faire le taf en simulation, il FAUT que cette IA vivent à minima 10 ans au contact de véritables être humain, dans un univers qu'on ne peut malheureusement pas accélérer avec nos technologies actuelles . Et c'est déjà un point qu'il est presque impossible d'éviter même dans nos petits travaux actuels sur robot (on fait passer des dizaines de sujets devant le robot du coups).

    Résultat des courses, sauf à avoir un robot parfaitement humanoïde avec une IA capable de se faire passer pour un humain, c'est actuellement complétement dans le domaine de l'impossible, et même si on la construisait maintenant il faudrait encore 20 ans au mieux pour qu'elle "grandisse" et soit disponible.

    De façon parfaitement logique donc, je peut vous assurer avec une certitude de 100% que vous n'en verrez pas avant 20 ans, puisqu'on a toujours pas construit le robot qui et la structure d'IA capable de grandir ainsi.


    Une fois qu'on a compris ce raisonnement, revenons à nos mouton. Pour le métro le soucis a été réglé en cloisonnant au maximum ce que l'humain peut faire. Vu que l'IA n'est pas fiable, il faut donc rendre fiable l'humain. Par contre même ainsi c'est partiellement efficace, il y a pas mal de membres de l'équipe qui sont assignés à la surveillance vidéo de la ligne pour régler les soucis et parler directement aux gens sur le quai par haut-parleur. Donc même ainsi ces lignes sont très très loin d’être "autonome" mais fonctionnent de manière totalement supervisée. Sans parler du fait qu'elles en commettent des erreurs, même en étant supervisé, c'est l'une des lignes ou il y a le plus d'écrasement de personne à paris par les portes, et ça a posé pas mal de soucis.

    Pour les trains, le soucis est le même en bien pire, car il y a des ... animaux. Bah oui, comment juger du "ce troupeau ou cet animal à coté de la ligne est un danger" ou non ? Faut il arrêter d'urgence le train au risque de faire des blessés dans le train ? Ou non ? Le pilote du train fait tout ça dans sa petite tête sur une base purement instinctive la aussi, qui vient d'une observation très rapide de ce qu'il voit au loin. Et c'est là encore pas si simple que ça.
    Résultat des courses la solution est encore la même : il faut clôturer touuuuuuuuuuuuuuuuute la ligne de train, sur toute sa longueur. C'est un peu ce qu'ils ont été obligé de faire pour les TGV, là ou l'observation du pilote n'est plus suffisante au vu de la vitesse. Mais si ils pondent un train autonome le problème est le même, à toute vitesse. Et encore je te parle pas d'un tram

    Le soucis là encore tient à l'utilité de la manœuvre : est-il plus rentable de clôturer des milliers de Km de voies ? D'entretenir ces clôtures et de prendre le risque d'accident grave malgré tout, ou plus rentable de payer un humain, surnuméraire sur cette planète, bon marché, facile à entretenir et à corriger et avec les capteurs fournis en bonus . La réponse est là aussi évidente

    Venons en aux voitures : le problème est le même. Les expérimentations d'automatisation des autoroutes ont eu lieu il y a plus de 20 ans de mémoire, et ont montré que ça marchait nickel. Mais dans un "contexte usine" là encore. Sans perturbation, sans éléments extérieurs. Il ne faut pas négliger la encore la somme d'intelligence collective formidable d'une file de voiture, et sa capacité à tenir compte ou non de tel ou tel événement et du comportement des autres voitures prenant elles aussi en compte tel ou tel événements. Somme venant des enfances successives de chacun, qui vient plus ou moins combler les manques des autres conducteurs etc etc... (si l'un n'a pas l'habitude des animaux mais vois que deux autres conducteurs pile au vu d'une bestiole sur le bord de la route, il va surement faire attention à l'événement par exemple, même si en théorie il ne le concerne pas directement, c'est toute la richesse du truc) . Les compétences de l'ensemble sont complétement folle à notre niveau d'aujourd'hui en IA.


    En résumé : la seule solution pour avoir un systeme 100% autonome de véhicule aujourd'hui sur le pays serait de cloisonner 100% des routes, de rendre tout les chemins inatteignable pour l'humain, de faire des passages piéton souterrain. Ou d'enterrer 100% des routes.
    Tout ceci est complétement impossible pour des raisons économiques et pratique, et qui veut vivre dans ce monde ? Les gens pèteront un câble bien avant et fuiront les première villes qui aurait le courage de faire des tests la dessus donc ...

    Voila donc en quoi la nature même du monde empêche actuellement clairement le déploiement de ce type de solution.

    (par contre ne me faites pas dire ce que je n'ai pas dit, rien n’empêche que tout le monde ai un mode "auto simple" pour les embouteillages ou sur les autoroutes qui sont déjà cloisonné, avec pas mal de taf derrière pour le rendre fiable, c'est du domaine du possible. Mais sur le reste des routes c'est chaud et les contraintes seraient trop fortes sans changer l'intégralité de la structure des chemins des pays)

    - - - Mise à jour - - -

    Citation Envoyé par Helix Voir le message
    En toute sympathie, je suis un peu choqué par cet "argument" qui s'approche un peu trop d'un ad personam. Tu supposes beaucoup trop de chose pour moi, dans le dénigrement qui plus est.
    C'est pas du tout personnel et je ne suppose rien, c'est eux même qui discutent ainsi quand on papotent avec eux dans leur milieu. Je ne fais que paraphraser ce que j'ai entendu de la bouche de pontes de cette communauté, qui assument totalement leur approche par ailleurs.
    Comme je l'ai dit également dans mon second paragraphe :

    Tient un exemple entre mille : un point fondamental qui sépare les domaine c'est la permissivité à l'erreur. Les gens qui font de l'IA comportementale accepte que leur IA ait le niveau d'un vers de terre et fasse des erreurs de partout. Tu t'en fout si c'est pour faire un chien robot ou une IA dans un JV. Et elle utilise alors ses erreurs dans la vrai vie pour progresser tout en en faisant toujours un tas. Mais un mec dont l'objectif c'est d'améliorer le rendu d'une télécommunication, de reconnaitre une image pour une appli militaire ou de conduire une voiture automatiquement ne peut évidemment pas du tout autoriser que son application résultante dise "oups, pardon, j'ai fait une bourde" . Donc les outils employés par la première catégorie sont juste absolument incompatible avec la seconde. Et ceux de la seconde, qui sont là pour avoir des taux de succès de malade, sont juste inutile aux premiers. Tout simplement.

    L'incompatibilité est donc plus profonde qu'une histoire de technologie ou de connaissance, c'est un vrai problème de fond qui sépare ces deux groupes.
    Le soucis est totalement dans les deux sens, "ma" communauté ne prends pas du tout en compte leurs outils également pour les mêmes raisons d'ordre sociologiques, psychologique et, partiellement, pour la raison de différences d'objectif que j'ai énoncé ci-dessus. Tu peut donc tout à fait prendre mon paragraphe et l'appliquer à l'envers à ma communauté et ça resterait tout à fait juste. Les deux communautés travaillent sur des aspects très séparés et donc forcement ne tiennent pas forcement compte de ce qu'a fait l'autre. Souvent ils ne viennent pas des mêmes domaine, pas de la même formation, et n'ont juste ni les même point de vue ni la même approche. Tu ne peut pas demander à un mec comme Luc Julia de connaitre ET les télécoms, ET la psychologie ET la neurobiologie ET l'électronique ET la robotique. Le mec vient des télécoms, dans une écoles plutôt orienté management par ailleurs. Ses travaux par la suite l'ont emmené à fréquenter des gens de son propre milieu et à utiliser des outils divers pour atteindre un des objectifs de son milieu. Il est tout à fait naturel qu'ils ne tiennent pas compte ou ne suivent pas forcement les travaux de gens venant de la psycho et de la neurobio ou construisant des robots, il n'est pas omniscient, c'est un être humain. Il a une histoire et tout qui ont tendance à orienter ses actions dans un sens, c'est pas une insulte.

    Et vice versa d'ailleurs, pendant des années les mecs de neurobio ou de ma communauté sont resté très tatillon et n'ont pas utilisé les progrès qu'ils avaient réalisé sur l'algorithmique pure de l'apprentissage machine pour l'appliquer à nos problèmes. Idem pour les trucs de vision numérique ou de reconnaissance de son.

    La séparation communautaire n'est donc pas la faute de quelqu'un en particulier ni de l'une ou l'autre des communautés. Tu m'a mal compris si tu a pensé ça.
    Dernière modification par Nilsou ; 27/01/2019 à 20h56.

  17. #617
    Nilsou, j'ai une question. Pourquoi est-ce que tu ramènes tout à la robotique ?
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  18. #618
    Avis d'un canard lambda.
    Si je synthétise son article:
    En l'état actuel de la technologie, on n'est pas capable de créer de l'intelligence parce qu'on ne sait pas comment elle fonctionne.
    Ce qu'on appelle de l'intelligence artificielle, ce sont des techniques qui produisent de la reconnaissance visuelle , audio, sémantique mais pas de la connaissance.
    Cela produit des résultats inattendus, des données que l'on est encore entrain d'analyser mais pas un nouveau savoir, des nouvelles découvertes.
    La machine reconnait un chat comme un humain mais elle n'apporte pas plus de connaissances dans le domaine du Chat.
    Cela existe depuis longtemps mais la technologie a permis des avancées spectaculaires avec des performances bien supérieures à celles d'un humain.

    Mais ce qui est plus embêtant, même en admettant qu'on ait découvert de l'intelligence par inadvertance. Bien des découvertes sont le fruit du hasard ou d'expérimentations qui ont mal tourné (par exemple la poudre).
    Celle se révèle incapable de survivre, d'être autonome sans assistance humaine.
    Il y a toujours des programmeurs derrière Deep Blue, Deep Mind, Alpha Go pour corriger les bugs, débloquer la machine. Et comme dit dans les commentaires plus haut, cela consomme une énergie folle et
    cela ne sert faire rien d'autre que de jouer aux échecs, au go ou Starcraft. Cela peut battre Kasparov à main levée mais Kasparov est capable de faire plein d'autres choses (comme aller faire une pause pipi).
    Alors conduire ou piloter à la place d'un humain ce n'est pas envisageable sans des humains derrière pour surveiller et contrôler que tout se passe bien. Ce qui demande une infrastructure couteuse.

  19. #619
    Citation Envoyé par Helix Voir le message
    Nilsou, j'ai une question. Pourquoi est-ce que tu ramènes tout à la robotique ?
    Je ne me souvient pas l'avoir fait dans ma discussion ? Un simple ctrl-f montre que le seul passage ou j'emploie le mot robotique dans mon blabla c'est :
    "ET les télécoms, ET la psychologie ET la neurobiologie ET l'électronique ET la robotique" et je cite juste un échantillon des divers domaines bossant sur "l'IA" ( dans le sens le plus général du mot) sans mettre la robotique dans une position particulière de supérieure ou d'inférieure. J'aurais pu continuer à l'infini (ET l'imagerie, ET le traitement du son, etc...) mais faut bien que j’arrête à un moment ...

    Ensuite d'une manière générale je pense que la robotique intelligente à pas mal sa place ici. C'est le topic de "l'IA" et donc de truc visant à produire une "intelligence", un comportement intelligent, qu'il soit implémenté sur un outil permettant de l'exprimer dans la vrai vie comme un robot, ou sur un environnement simulé (Jeux vidéo, agent artificiel etc...). Et non le topic de la reconnaissance automatisée et des algos d'apprentissage statistique en général. Qui, comme tu l'a noté toi même plus haut sont des termes se rapportant à des sujets bien différents. Il y a d'autres topic pour ces sujets qui seront plus adaptés.

    Quand j'ai créé le topic c'était clairement dans le but de parler de technologies et de systèmes visant à produire une "IA" (donc par exemple la discussion sur Starcraft à sa place) et non des derniers algos à la mode pour la reconnaissance faciale de chat à 99.9999% .
    Dernière modification par Nilsou ; 27/01/2019 à 21h13.

  20. #620
    Citation Envoyé par Nilsou Voir le message
    [par avance pardon pour les fotes () j'ai un peu la flemme de vraiment corriger un tel pavé
    Pour être honnête, j'ai plusieurs fois failli quitter ton truc, c'est limite insultant comme orthographe.

    Faire donc, une IA qui sait si tel ou tel personne présente un danger sur le quai est un travail immense et probablement impossible à l'heure actuelle. Il faudrait non seulement que cette IA ait "vécu" aussi longtemps pour accumuler autant d’expérience mais aussi qu'elle ait pu interagir avec eux pour tester ses hypothèses. Ce point est ultra critique, car ça empêche de faire le taf en simulation, il FAUT que cette IA vivent à minima 10 ans au contact de véritables être humain, dans un univers qu'on ne peut malheureusement pas accélérer avec nos technologies actuelles . Et c'est déjà un point qu'il est presque impossible d'éviter même dans nos petits travaux actuels sur robot (on fait passer des dizaines de sujets devant le robot du coups).
    Ta façon de décrire les choses me semble assez caricaturale. On n'a, techniquement, pas besoin d'un mécanisme qui soit 100% capable d'anticiper tous les comportements, des humains comme des animaux - si on fait une IA qui prend les décisions avec un meilleur taux d'accidents qu'un conducteur humain, on y gagne, d'autant que l'IA en question n'aura pas de moments de fatigue où sa vigilance sera moindre.

    Après, bien sûr, le degré d'acceptabilité dans la société actuelle de l'erreur commise par la machine est très bas - dans le monde actuel, si on avait des voitures autonomes avec un taux d'accident au kilomètre 3 ou 4 fois inférieur à ce qu'il est avec des conducteurs humains, ce serait socialement inacceptable, il n'y a qu'à voir la psychose des "algorithmes" qui se développe dans les médias depuis quelques années pour imaginer les titres "l'algorithme qui tue" et autres.

    Mais oui, bien sûr, l'environnement dans lequel devra évoluer une voiture autonome, c'est un environnement complexe et qu'on ne peut pas contrôler à 100%, et oui, bien sûr, il y a un monde entre faire rouler une voiture sur un circuit de laboratoire et la faire rouler dans les embouteillages parisiens (ou autres, hein). Mais ça, je pensais que c'était clair - et ça rentrait dans mon estimation au doigt mouillé de 10-20 ans.

  21. #621
    Citation Envoyé par Shosuro Phil Voir le message
    Pour être honnête, j'ai plusieurs fois failli quitter ton truc, c'est limite insultant comme orthographe.
    C'est mon plus gros défaut à l'écrit, pardon aux familles tout ça.

    - - - Mise à jour - - -

    Citation Envoyé par Shosuro Phil Voir le message
    Ta façon de décrire les choses me semble assez caricaturale. On n'a, techniquement, pas besoin d'un mécanisme qui soit 100% capable d'anticiper tous les comportements, des humains comme des animaux - si on fait une IA qui prend les décisions avec un meilleur taux d'accidents qu'un conducteur humain, on y gagne, d'autant que l'IA en question n'aura pas de moments de fatigue où sa vigilance sera moindre.

    Après, bien sûr, le degré d'acceptabilité dans la société actuelle de l'erreur commise par la machine est très bas - dans le monde actuel, si on avait des voitures autonomes avec un taux d'accident au kilomètre 3 ou 4 fois inférieur à ce qu'il est avec des conducteurs humains, ce serait socialement inacceptable, il n'y a qu'à voir la psychose des "algorithmes" qui se développe dans les médias depuis quelques années pour imaginer les titres "l'algorithme qui tue" et autres.

    Mais oui, bien sûr, l'environnement dans lequel devra évoluer une voiture autonome, c'est un environnement complexe et qu'on ne peut pas contrôler à 100%, et oui, bien sûr, il y a un monde entre faire rouler une voiture sur un circuit de laboratoire et la faire rouler dans les embouteillages parisiens (ou autres, hein). Mais ça, je pensais que c'était clair - et ça rentrait dans mon estimation au doigt mouillé de 10-20 ans.
    Tu a raison, juste que pour faire un truc qui aurait les mêmes perfs qu'un être humain il faudrait sans doute de toute manière avoir l'IA que je décrit (celle qu'il faudrait développer pendant 20 ans d’interaction, qui necessite presque automatiquement de facto un corps humanoïde qui suffit à donner le change, etc etc...).
    Surtout que finalement il faudrait non pas qu'elle soit aussi bonne qu'un conducteur humain, comme tu le précise, mais bien meilleures.

    Actuellement les stats sur les véhicules autonomes en ville posent problèmes puisqu'il y a toujours des chauffeurs humain dans le coin qui compensent les défauts de la voiture à leur coté. Les problèmes que j'ai décrit commenceront plutôt à apparaitre dans une ville ou une grosse proportion de voitures autonomes navigueraient.

    Pour ton estimation au doigt mouillé donc, je la trouve bien trop optimiste. On a actuellement pas encore la technologie pour pondre ce genre d'IA et de corps. Si on l'avait aujourd'hui il faudrait 10/20 ans d'apprentissage en situation réelle pour qu'elle fasse le taf. Donc le temps pour l'avoir est forcement > à 10/20 ans. Amha.

  22. #622
    Citation Envoyé par Nilsou Voir le message
    Actuellement les stats sur les véhicules autonomes en ville posent problèmes puisqu'il y a toujours des chauffeurs humain dans le coin qui compensent les défauts de la voiture à leur coté. Les problèmes que j'ai décrit commenceront plutôt à apparaitre dans une ville ou une grosse proportion de voiture autonome naviguerait.
    Ce à quoi je m'attendrais, ce serait qu'on commence par multiplier l'usage de voitures autonomes avec humain en backup - avec la difficulté de maintenir l'attention d'un conducteur qui, en fait, ne fait rien. Mais a priori on s'attendrait aussi à ce qu'une ville où une forte proportion de voitures seraient autonomes, ce serait un environnement plus favorable - les comportements seraient plus prévisibles. D'où, aussi, mon pronostic d'une interdiction de la conduite humaine: ça devrait participer à la sécurisation du système.

  23. #623
    Peut-être, je n'ai pas de preuve de ce que j'avance autre que par analogie (celles que j'ai développés plus haut), mais à mon avis il est impossible de prédire le comportement d'humain sans vivre parmi les humains et agir parmi eux suffisamment longtemps. En même temps c'est la base de mon domaine qui me fait parler, certaines chose ne peuvent être reconnu que par l'action. Inutile d'apprendre 100% des formes de chaises de la vie alors qu'il suffit d'apprendre sa forme générale et que c'est un objet sur lequel tu peut t’asseoir (donc il te faut un popotin, d'une taille approximativement proche de celle de l'humain pour que ça ai un sens intuitif pour toi). Donc certaines choses ne peuvent vraiment s'apprendre, d'après nos acquis dans ce domaines, que par une interaction prolongé avec l'environnement et les objets/être vivant qui le peuple, et non juste par l'observation (ou disons que par observation pure c'est beaucoup plus difficile et soumis à l'erreur en cas de nouvelle données)

    Je pense que le comportement humain est en partie dans cette case. Comme pour la chaise tu peut évidemment apprendre chaque comportement observable et le garder au chaud dans une immense base de donnée. Mais n'est-ce pas beaucoup plus fiable si ta nature te permet de faire les mêmes choses que l'humain en face de toi, et donc te permet de comprendre ou il veut en venir en faisant ceci ou cela, et que ta mémoire te permet de le mettre en parallèle avec certaines chose que toi même à faites.

    En clair il est plus facile de prédire qu'un homme est bourré et les conséquences de ceci en ayant déjà été bourré. Je ne dis pas que c'est impossible par pure observation, mais c'est forcement bien plus difficile.
    D’où le fait que je pense qu'une ville ou tu ne changerais rien à la dynamique des chemins (mêmes trottoirs, route etc...) et où tu ne déploierais que des véhicules autonomes en utilisant juste une "upgrade" des techs actuelles, qui sont principalement des technologies d'apprentissage par observation (dans ce cadre en tout cas), donnerait des résultats catastrophiques, avec un très haut taux d'accident. Ce qui mettrait vite fin à l’expérience.

    Mais je peut me tromper, ce n'est que mon avis.

    Bon et il y a aussi une argumentation sur le cout des capteurs. Actuellement le type d'IA qu'ils utilisent, comme je le disait, est basé sur l'observation (et l'interpolation de ces observations). En conséquence, par la nature même des types de technologies utilisés les capteurs doivent être particulièrement fiable et omniscient. Ce qui fait que leur prix est très haut, et ne risque pas de baisser particulièrement dans les années qui viennent, si ce n'est le contraire d'ailleurs, au vue de l'évolution du prix des matériaux qui les composent.

    A voir donc si c'est même viable en dehors d'un certain marché du luxe.
    Dernière modification par Nilsou ; 27/01/2019 à 21h46.

  24. #624
    Puisque ça parle de go et d'apprentissage des IA, certain l'on peut être déjà vue mais "Science étonnante" vient de sortir une vidéo sur la créativité des IA.
    Ça parle notamment des différents modes d'apprentissage.

    Avec un éléphant, tu fais 1000 pots de rillettes

  25. #625
    Citation Envoyé par Nilsou Voir le message
    Je ne me souvient pas l'avoir fait dans ma discussion ? Un simple ctrl-f montre que le seul passage ou j'emploie le mot robotique dans mon blabla c'est :
    "ET les télécoms, ET la psychologie ET la neurobiologie ET l'électronique ET la robotique" et je cite juste un échantillon des divers domaines bossant sur "l'IA" ( dans le sens le plus général du mot) sans mettre la robotique dans une position particulière de supérieure ou d'inférieure. J'aurais pu continuer à l'infini (ET l'imagerie, ET le traitement du son, etc...) mais faut bien que j’arrête à un moment ...

    Ensuite d'une manière générale je pense que la robotique intelligente à pas mal sa place ici. C'est le topic de "l'IA" et donc de truc visant à produire une "intelligence", un comportement intelligent, qu'il soit implémenté sur un outil permettant de l'exprimer dans la vrai vie comme un robot, ou sur un environnement simulé (Jeux vidéo, agent artificiel etc...). Et non le topic de la reconnaissance automatisée et des algos d'apprentissage statistique en général. Qui, comme tu l'a noté toi même plus haut sont des termes se rapportant à des sujets bien différents. Il y a d'autres topic pour ces sujets qui seront plus adaptés.

    Quand j'ai créé le topic c'était clairement dans le but de parler de technologies et de systèmes visant à produire une "IA" (donc par exemple la discussion sur Starcraft à sa place) et non des derniers algos à la mode pour la reconnaissance faciale de chat à 99.9999% .
    Toutes mes excuses pour la phrase sur la robotique, je ne souhaitais pas être agressif. C'était une vrai question, mais tant pis ce n'est pas grave.

    Pour le reste, je veux bien qui tu souhaites restreindre le sujet du topic, mais tu ne peux empêcher des discussions sur les thèmes plus ou moins connexes. Ce topic vit sa vie Pour ma part, vu qu'un grand nombre de personnes qui associe IA et apprentissage artificiel (y compris pas mal de chercheurs), cela me semble logique d'en parler.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  26. #626
    Marrante cette discussion en ce moment, je ne sais pas si vous êtes au courant, mais ce week end a eu lieu un évènement assez retentissant côté IA.

    Vous vous souvenez de DeepMind ? L'algo qui avait écrasé Kasparov aux échec puis plus récemment a tapé le n°1 mondial au Go (dont parle Science étonnante d'ailleurs, excellente vidéo).
    Et bien l'équipe de Google a réalisé un nouvel exploit : battre des joueurs pro à Starcraft 2, ce qui est la suite logique après les échecs et le go.

    Pourquoi donc ?

    Eh bien car Starcraft 2 est un jeu de gestion / stratégie en temps réel (première différence), mais surtout à variables incomplètes (je me souviens plus du terme exact) : en gros, au début du jeu, chacun est de son côté de la carte, et ignore totalement ce que fait l'adversaire.
    Pour gagner, on a trois leviers possibles : l'armée, l'économie, et les récolteurs. Les récolteurs permettent de monter en économie, l'économie permet de monter en armée, l'armée permet de tuer l'adversaire. Plusieurs astuces sont donc de mise pour être plus puissant que son adversaire à un instant T (car on ne peut pas faire à la fois des récolteurs, de l'éco et de l'armée).

    Le jeu est donc une éternelle succession de choix (souvent à faire à l'aveugle, selon son instinct) style "pierre feuille ciseaux", sachant que si on fait trop de récolteurs, pour avoir une armée forte en finde partie, on prend le risque de se prendre un "all in" de l'adversaire qui n'aura pas fait beaucoup d'éco mais de l'armée direct et aura attaqué très tôt (c'est un exemple parmi beaucoup d'autres).

    Eh bien ce week end, l’équipe de DeepMind a présenté l'avancée de son travail, et a même présenté deux BO5 (best of 5, meilleur des 5 manches) entre son IA "Alphastar" et deux joueurs pros à Savoir TLO et Mana.

    Résultat : deux fois 5-0 pour Alphastar

    A savoir qu'il y a un an l'IA comprenait à peine comment créer de récolteurs et quel était leur fonction.
    Un petit biais était également présent, l'IA était légèrement favorisé par sa prise d'information, car elle joue en voyant la totalité de la map sous ses yeux (bien sûr il y a le brouillard de guerre), mais sur la microgestion des unités cela rend la chose beaucoup plus aisée, et permet des mouvements sur 3 écrans de distance qui ne sont pas possibles chez le joueur humain.

    L'IA a donc été nerfée pour vraiment coller aux possibilités de l'humain, et dans un dernier BO1, le joueur Mana a gagné contre cette même IA nerfée, l'espoir reste donc vain !

    Mais à mon avis, cette IA battra les joueurs pros à coup sûrs d'ici 6 mois un an je pense.

    Pour voir la retransmission (vous risquez de pas piger grand chose à SC2 mais bon), c'est ici : https://www.twitch.tv/videos/369062832
    On dit que pétrir, c'est modeler,
    Moi j'dis que péter, c'est démolir.

  27. #627
    Merci pour le lien, mais c'est ce qui s'appelle ne pas lire les derniers posts (disons la dernière page) d'une discussion avant de poster

  28. #628
    ???

    Pourtant c'est ce que j'ai fait, mais à part citer l'exemple de Starcraft, personne n'en a donné l'évolution et le résultat !!
    Et surtout les conditions dans lesquelles ça s'est produit !
    On dit que pétrir, c'est modeler,
    Moi j'dis que péter, c'est démolir.

  29. #629
    Page 20 en fait, le post de déterrage 2019

    Citation Envoyé par BentheXIII Voir le message
    Déterrage du topic grace à DeepMind qui vient de mettre une branlée aux meilleurs joueurs mondiaux de StarCraft II à l'aide d'une IA dont l'entrainement a commencé par de l'apprentissage supervisé sur des données de parties réelles, avant de continuer au sein d'une ligue "virtuelle" où différentes instances se battent entre elles pour continuer à améliorer leur apprentissage (si je dis pas de conneries).

  30. #630
    Mmmh au temps pour moi alors, je n'avais pas vu cela.

    Bon ben au moins vous avez la vidéo du coup.

    Et fait marrant, c'est que DeepMind a publié les replays sur leur site, que l'on peut télécharger et lancer ingame.

    J'ai donc regardé une partie dans les "yeux" d'Alphastar, c'était assez incroyable de voir comment elle développe son jeu.

    Ah et aussi l'IA a instauré un nouveau code dans le jeu, qui veut qu'une base soit saturée quand 16 récolteurs sont dessus (dès qu'on dépasse le chiffre passe en rouge pour nous indiquer qu'il y en a trop, et que c'est pas optimal), et bien l'IA s'en balec, et monte jusqu'à 24 ouvriers sur sa première base, chose que personne n'a jamais fait volontairement en 8 ans.

    Depuis, tout le monde monte à 24 récolteurs sur la première base ^^
    On dit que pétrir, c'est modeler,
    Moi j'dis que péter, c'est démolir.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •