?? C'est à dire ??
C'est très clairement de l'IA puisque 1/3 du domaine des sciences cognitives ce sont des branches robotiques qui utilisent le savoir engrangé par les autres (neurobio et psycho) pour construire des modèles permettant à un robot de se développer (souvent en se basant sur un bébé animal) avec comme objectif un comportement cohérent du robot dans un espace (navigation, recherche de ressources, jeux etc etc...) . Si c'est pas de l'IA je sais pas ce que c'est
Et étant dans un labo d'IA affilié aux sciences cognitives il va sans doute falloir qu'on change de nom si on ne fait pas de l'IA
- - - Mise à jour - - -
Dans une conf de traitement du signal ou de l'image tu a raison. C'est assez normal d'ailleurs. Mais sont-ce des confs d'IA ? Est-ce que dans ces confs l’objectif c'est d'aboutir à un "comportement intelligent", ou à une "intelligence artificielle" ? En vrai non ... le but de ces confs c'est souvent comment améliorer telle ou telle compression dans telle ou telle contexte tout en ne perdant pas de qualité dans tel ou tel cas Et dans ce cas le deep learning est effectivement tout à fait indiqué, rien à redire. Même si c'est souvent le test facile au pifometre que tout le monde fait parce que c'est de la publi gratuite. Mais je doute que leur idée c'est que l'algo soit "intelligent" mais plutôt (et c'est souvent contradictoire) prédictible et performant.
Est-ce que ça mérite donc l’appellation d'IA... joker. . Je dirais "utilisation d'un outil d'apprentissage" ou à la limite "apprentissage machine appliqué" mais pas IA, même si c'est de la sémantique.
Si je doit étendre mon avis : La hype deep learning touche donc le grand public, en moyenne. Les domaines à l'origine du deep learning et cie et de leurs premières utilisations (évidemment) -> big data, math, signal. Mais aussi des domaines connexe qui découvrent l'outil sans que ce soit leur cœur de métier, mais comme ça donne parfois des résultats sympa et que ça fait un peu "outil magique" ça marche nickel. (imagerie, traitement d'image, traitement du son, télécoms, ingénieries diverses etc...) . Mais dans une conf d'IA, une vrai, un truc ou on parle de robotique ou d'agent intelligent en simulation, en moyenne quand quelqu'un vient avec du deep learning maintenant, les gens font juste un immense "pffffff..."' de fatigue
Déjà depuis qu'on s'est rendu compte qu'a priori il n'y a aucune possibilité pour que le cerveau fonctionne comme le deep learning, la plupart des confs en relation avec la neurobio ont juste abandonné l'outil car elles considèrent que l'outil est un outil d'optimisation mathématique qui n'a aucun rapport avec le cerveau humain, donc que l'utiliser pourrait nous faire sortir du carcan qu'on s'est auto-imposé de "rester neurobiologiquement plausible" qui permet de tenter de comprendre pas à pas l'humain et d'éviter de se poser des problèmes qui si ça se trouve n'existe pas chez l'humain.
Et ils ont eu bien raison, la plupart des travaux actuels et de l’énergie dépensé sur le deep learning visent à résoudre des soucis intrinsèque à l'outil, qui n'ont plus aucun rapport avec les soucis de simulation d'un comportement en tentant de garder les mêmes bases que les animaux et l'humain. Le domaine est déjà tout bouclé sur lui même.
C'est peut-être sympa du point de vue théorique et matheux, mais pour un type qui veut faire un agent intelligent artificiel, la branche "deep" n'a aujourd'hui que peu d’intérêt. Je dirais même qu'elle est contre-productive car ses limites sont parfois inutile au problème posé. Souvent en IA on va avoir besoin de récurrence de partout par exemple, qui est souvent difficile à employer avec du deep (ça se fait mais bon). Le choix de la couche caché, de leurs nombres et de leur taille constitue bien souvent des choix pifométrique à l'utilisation de l'outil, et qui ont pourtant de sacrés conséquences. Qui n’apparaissent pas dans d'autre paradigme. Pour finir, le degré de finesse du deep learning est bien souvent inutile pour faire des agents intelligents sympatoche.
Bien souvent un ensemble "algos de classif en mille feuilles + perceptron" donne un résultat tout aussi sympa pour un cout algorithmique moindre, des choix moins pifométrique et une choix d'outil qui peut se ramener sans soucis au carcan de la neurobio.
Voila voila. Mais ce n'est que mon avis. Par ailleurs si il s'agit de faire une IA digne d'un général vu que vous parliez de SC2 auparavant, de toute manière l'approche science co aura toujours un résultat minable puisqu'elle part plutôt du bébé et de l'animal et non de l’être humain adulte qui pond des stratégies. Donc dans tout les cas, si je pense que l'approche deep et cie n'est pas top dans certains pans de l'IA, par contre la branche science co que j'aime bien est elle aussi tout à fait inapproprié pour certains usage.
Par contre si il s'agit de pondre l'IA d'animaux dans des jeux ... c'est une autre histoire.