Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 23 sur 43 PremièrePremière ... 13151617181920212223242526272829303133 ... DernièreDernière
Affichage des résultats 661 à 690 sur 1288
  1. #661
    Voila, mais de toute façon tout chabot que tu mettrait dans les conditions énoncées par le test ne le passerait pas du tout .
    Ou alors faut me présenter ce chabots

  2. #662
    Citation Envoyé par Nilsou Voir le message
    Donc il change le problème pour tenter de substituer la question par une autre. En substituant il admet en creux essayer de trouver une forme non ambigu de sa question d'origine. Et donc il propose, en creux, une définition du mot "think" ou plutôt "pense comme un humain" (car il n'a pas le choix dans sa solution), qui serait "résout le problème que je propose" .
    Oui il propose bien de remplacer la question de la capacité de pensée d'une machine par la question de la capacité à agir comme un humain. Mais justement, il ne veut pas aborder le problème de la définition de "think", c'est très clair dans son propos. Par exemple, parmi de nombreuse fois :
    Citation Envoyé par Alan Turing
    The original question, "Can machines think?" I believe to be too meaningless to deserve discussion.
    Ok pour les chatbots, il me semblait bien que des chatbots arrivaient à maintenir l'illusion dans certains contextes.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  3. #663
    Oui oui il trichoune, mais c'est une trichoune de telle qualitance que c'est le seul truc qu'on utilise encore aujourd'hui en vrai dans les expériences scientifiques pour valider "l’intelligence", dis grossièrement, de nos agents artificiels. Dans des versions dégradés du test évidemment, aucune de nos IA ne passe la version complète sinon on serait prix nobel

    Pour les chatbots c'est le "certains contextes" qui fait toute la subtilité de la chose. Bien souvent c'est toujours pour détourner l'esprit du test d'origine en faisant semblant d'en respecter la lettre.

  4. #664
    Plop les canards, j'ai profité d'avoir un peu de temps pour m'intéresser un peu à l'IA (plus particulièrement les réseaux de neurones et l'apprentissage via les algo génétiques). Je pense n'avoir effleuré que la surface du sujet qui semble super passionnant.
    Quelques articles mais trop succins pour comprendre le fonctionnement en détail.

    Vous auriez quelques bons articles de référence sous la main sur ces 2 sujets (français ou anglais peut m'importe) ?

  5. #665
    C'est plus des cours qu'il faut j'imagine.

    les canard avaient partagé deux trois trucs :
    Sur le deep learning j'ai ça en anglais : https://www.deeplearningbook.org/

    En français il y avais le partage d'un canard du cours en français de Standford : https://stanford.edu/~shervine/l/fr/teaching/cs-229/

    En vrac qui fait un peu l'état de l'art du sujet : http://pageperso.univ-lr.fr/arnaud.r...s/cours_IA.pdf

    Sinon j'ai pas beaucoup de cours sous la main. Quand je donne des cours j'utilise parfois des trucs des collègues d'autres labos. Par exemple en vision artificielle j'ai toujours cette adresse vers un vieux poly, qui est très complet :
    https://www.etis.ensea.fr/neurocyber...sonNatArt1.pdf
    https://www.etis.ensea.fr/neurocyber...sonNatArt2.pdf

    Mais c'est lonnnnnnnnnnnnng.

    Pour les algos génétique j'ai pas grand chose. Faut dire que c'est un domaine ou il y a plus d’expérimentation que de théorie, la théorie est très simple et applicable immédiatement. Après il y a pas mal de raffinement (types de fonction de mutation etc etc ...) mais sur le fond ça ne change pas grand chose.

    Si tu veut mélanger RdN et genetique, ça se fait aussi, mais c'est beaucoup plus expérimental. J'avais un collègue qui définissait des types d'apprentissage sur des liens et leur paramètres (taux d'apprentissage etc...) comme des variables en plus des types de neurones. Et il laissait la tambouille tourner et trouver la combinaison de tout ceci qui résolvait son problème. C'est généralement pas très propre mais ça marchote.
    Dernière modification par Nilsou ; 03/02/2019 à 17h12.

  6. #666
    Nilsou, pour info les deux derniers liens de ton message (chez ensea.fr) font tousser mon Firefox, qui dit que le site est trop mal configuré pour qu'il accepte de s'y connecter. A priori, c'est un problème de certificat lié au https...

    Edit: aussi, l'aide-mémoire de Stanford, je ne sais pas ce qu'il vaut pour le machine learning proprement dit, mais les rappels de probas-stats, c'est une catastrophe. Les énoncés sont flous, voire faux (l'inégalité de Tchebicheff, si on ne dit pas que sigma c'est un écart-type, elle dit n'importe quoi...)

  7. #667
    J'y suis pour rien moi sur le https , si tu rajoute une exception ça marche en tout cas, ce n'est pas malicieux
    Pour Standford c'est pareil je ne fait que donner un truc partagé par un canard auparavant Je n'avais pas remarqué d'erreur sur la partie réseau de neurone, et j'avoue n'avoir pas du tout regardé la partie rappel de proba-stats.

  8. #668
    Bah la partie sur les réseaux de neurones, j'ai pas les compétences pour juger... mais comme j'ai besoin de faire passer des notions de probas à un public un peu réfractaire ces temps-ci, je suis attentif à ça (surtout que mes étudiants, comme tous les étudiants, font plus confiance à ce qu'ils trouvent sur le net via google, qu'à ce que je leur raconte moi; donc quand je trouve des trucs un peu foireux sur le net, je me dis que ça peut me pourrir la vie...)

  9. #669
    Bah faudrait que tu le dise à un des canards qui avait donné ce lien car c'est son pote qui avait fait la traduction du cours de mémoire. Ça doit se retrouver via la recherche dans le topic je pense (à moins que ce ne soit sur un autre topac ? J'ai oublié ).
    En tout cas je n'ai rien remarqué de problématique sur la partie RdN.

  10. #670
    Nilsou, j'ai commencé à lire les documents que tu as linké, y'a pas mal de choses intéressantes. On va voir ce que ça donne sur la mise en pratique. Cependant ça nécessite de trouver un premier cas assez simple avec un minimum d'input si possible. Mais je pense maintenant savoir comment lier les 2 concepts (appliquer l'algo génétique sur le calcul du poids à appliquer sur chaque input).
    Par contre les formules mathématiques ça me rappelle les jours sombres des semestres d'algèbre.

  11. #671
    Il faut que tu commence par le perceptron à une couche si tu veut le faire dans l'ordre logique pédagogique, sinon tu va te mélanger les pinceaux.

    Et pour commencer tu peut tenter un truc simple : j'ai un sinus en entrée (une input principale du coups), je veut reproduire un cosinus en sortie (une sortie). Comment avoir un résultat passable ? (tu a le droit de rajouter des input pour trouver la solution )

    Après le soucis des Réseaux de Neurone c'est que c'est très intuitif quand tu visualise en direct l'apprentissage, la taille des liens, la sortie des neurones etc... nous on a une interface graphique pour ça au labo, sinon on ne s'en sort pas. Mais quand ça reste au niveau du code c'est un gros bordel pour vérifier rapidement si "ça marche" ou si "ça marche pas".

    Si tu veut t'y mettre sérieusement pour faire un truc avec je te conseil, (seulement si tu a un peu l'habitude), de te faire une petite interface graphique de visualisation.

  12. #672
    Citation Envoyé par Shosuro Phil Voir le message
    Bah la partie sur les réseaux de neurones, j'ai pas les compétences pour juger... mais comme j'ai besoin de faire passer des notions de probas à un public un peu réfractaire ces temps-ci, je suis attentif à ça (surtout que mes étudiants, comme tous les étudiants, font plus confiance à ce qu'ils trouvent sur le net via google, qu'à ce que je leur raconte moi; donc quand je trouve des trucs un peu foireux sur le net, je me dis que ça peut me pourrir la vie...)
    Je crois que c'est moi qui avait partagé, même si c'était une version antérieure, ça a été fait par un camarade de promo. C'est plus un pense-bête qu'une référence rigoureuse, c'est destiné à des gens qui ont déjà fait tout ça mais qui ont oublié un peu. La partie réseau de neurone est plus importante.

    - - - Mise à jour - - -

    Citation Envoyé par Nilsou Voir le message
    Il faut que tu commence par le perceptron à une couche si tu veut le faire dans l'ordre logique pédagogique, sinon tu va te mélanger les pinceaux.

    Et pour commencer tu peut tenter un truc simple : j'ai un sinus en entrée (une input principale du coups), je veut reproduire un cosinus en sortie (une sortie). Comment avoir un résultat passable ? (tu a le droit de rajouter des input pour trouver la solution )

    Après le soucis des Réseaux de Neurone c'est que c'est très intuitif quand tu visualise en direct l'apprentissage, la taille des liens, la sortie des neurones etc... nous on a une interface graphique pour ça au labo, sinon on ne s'en sort pas. Mais quand ça reste au niveau du code c'est un gros bordel pour vérifier rapidement si "ça marche" ou si "ça marche pas".

    Si tu veut t'y mettre sérieusement pour faire un truc avec je te conseil, (seulement si tu a un peu l'habitude), de te faire une petite interface graphique de visualisation.
    https://playground.tensorflow.org/#a...hideText=false

  13. #673
    Yep c'est cool ce genre de truc, mais pédagogiquement j'ai remarqué que généralement les gens saisissent bien mieux quand ils ont codé le truc eux même. A mes élèves je leur fait faire ça en quelques heures : perceptron, reconnaissance de lettre + visualisation du réseau en openGL. Le TP prends 6h.
    Les années ou on a tenté de donner des trucs tout fait pour la visualisation les résultats des élèves sur cette partie furent médiocre. Mettre les mains dans le cambouis aide à comprendre les choses plus intimement.
    En tout cas c'est ce que j'ai remarqué en enseignant, c'est pas forcement une vérité générale.

  14. #674
    Citation Envoyé par Nilsou Voir le message
    Il faut que tu commence par le perceptron à une couche si tu veut le faire dans l'ordre logique pédagogique, sinon tu va te mélanger les pinceaux.

    Et pour commencer tu peut tenter un truc simple : j'ai un sinus en entrée (une input principale du coups), je veut reproduire un cosinus en sortie (une sortie). Comment avoir un résultat passable ? (tu a le droit de rajouter des input pour trouver la solution )

    Après le soucis des Réseaux de Neurone c'est que c'est très intuitif quand tu visualise en direct l'apprentissage, la taille des liens, la sortie des neurones etc... nous on a une interface graphique pour ça au labo, sinon on ne s'en sort pas. Mais quand ça reste au niveau du code c'est un gros bordel pour vérifier rapidement si "ça marche" ou si "ça marche pas".

    Si tu veut t'y mettre sérieusement pour faire un truc avec je te conseil, (seulement si tu a un peu l'habitude), de te faire une petite interface graphique de visualisation.
    Je suis d'accord avec toi sur le principe de commencer sur un cas simple histoire d'avoir les bases solides avant de complexifier.
    Va falloir que je me replonge dans les maths pour

    Je commence toujours par m'implémenter un petit outillage pour faciliter le debug. Bon je fais rarement des applis visuel, donc c'est plutôt du debug console à l'ancienne mais utile. Je vais essayer de voir ce que je peux pondre pour ce cas là, mais en essayant de faire tout du moins un truc générique pour l'utiliser sur les prochains cas.

    Faut que je choisisse entre python et java (python ça fait un moment que j'y ai plus touché). J'essayerai de mettre ça sur GitHub régulièrement

  15. #675
    Il n'y a aucune math complexe sur le perceptron simple.

    La règle la plus simple c'est simplement :

    Nouveau_poids_sur_le_lien = Ancien_poids + Vitesse_apprentissage * (Sortie désirée - Sortie actuelle) * Entrée

    L'idée derrière est ultra-simple à comprendre, sans math aucune. Si ton réseau donne une sortie actuelle sur le neurone qui est trop faible par rapport à ce que tu veut à ce moment là, alors que l'entrée de certains des liens connectés au neurone est positive. La logique c'est tout simplement d'augmenter les poids associés pour que la fois d'après, dans la même situation, ton réseau donne un résultat plus grand. Tout simplement.

    Et ça marche dans tout les cas. Si la sortie est par contre trop grande, le (Sortie désirée - Sortie actuelle) devient automagiquement négatif, et donc les poids incriminés diminuent. Si l'entrée est négative et que toi tu veut augmenter la sortie, alors la multiplication par l'entrée permet de faire diminuer les poids qui sont connecté à cette entrée. Par contre si l'entrée est négative et que tu veut justement diminuer les liens car ta sortie est trop grande alors (Sortie désirée - Sortie actuelle) <0 et Entrée<0 et paf, ça fait du + et les poids connecté aux entrées négative vont augmenter, permettant au réseau d'utiliser des entrées négatives pour annuler d'autres qui serait trop positive à cet endroit. C'est auto-magique

    Il y a pleins de variante de l'équation, mais voila, ça c'est la plus simpliste (et très efficace).

    Essaie de la comprendre "intuitivement" avec une seule entrée (donc un seul liens synaptique). Tu verra, c'est très simple.

    L'astuce pour que ça marche c'est que le "Vitesse_apprentissage " soit très faible.


    D'ailleurs en règle général pour les réseaux de neurone, mieux vaut comprendre le truc intuitivement que les maths derrière (en tout cas au départ), car il existe pas mal de réseaux dont la convergence n'a tout simplement pas été démontré mathématiquement. Et dés qu'il s'agit de plusieurs réseaux interagissant entre eux, c'est fini ... Alors que parfois ce que fait le réseau est évident au premier coups d’œil.

  16. #676
    Un autre support possible pour la future "intelligence artificielle"?

    https://www.diplomatie.gouv.fr/fr/po...edant-des-yeux

    L’équipe dirigée par Stevens Rehen (Université Fédérale de Rio de Janeiro et Institut d’OR,) a créé des organoïdes cérébraux, des mini-cerveaux humains. Récemment (l’équipe travaille sur ce sujet depuis 2016), une étape a été franchie : les cerveaux intègrent maintenant des cellules rétiniennes (responsables, chez l’humain, de la réception des stimuli lumineux et essentiels à la vision). Ces travaux seront publiés dans la revue BMC Developmental Biology.
    Limite dérangeante, cette expérience

  17. #677
    Hmm, personne ici pour signaler le Turing Award de Yann Le Cun? C'est quand même que la deuxième fois qu'un français y a droit...

  18. #678
    Imelda Marcos, c’est toi, Chaussure-o-phile ?
    une balle, un imp (Newstuff #491, Edge, Duke it out in Doom, John Romero, DoomeD again)
    Canard zizique : q 4, c, d, c, g, n , t-s, l, d, s, r, t, d, s, c, jv, c, g, b, p, b, m, c, 8 b, a, a-g, b, BOF, BOJV, c, c, c, c, e, e 80, e b, é, e, f, f, f, h r, i, J, j, m-u, m, m s, n, o, p, p-r, p, r, r r, r, r p, s, s d, t, t
    Canard lecture

  19. #679

  20. #680
    Citation Envoyé par Shosuro Phil Voir le message
    Hmm, personne ici pour signaler le Turing Award de Yann Le Cun? C'est quand même que la deuxième fois qu'un français y a droit...
    Nilsou va te dire que ce n'est pas de l'IA
    (et moi aussi d'ailleurs )
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  21. #681
    Citation Envoyé par Tankodesantniki Voir le message
    Un autre support possible pour la future "intelligence artificielle"?

    https://www.diplomatie.gouv.fr/fr/po...edant-des-yeux



    Limite dérangeante, cette expérience
    Ils vont bientôt se rendre compte que faire des bébés et les éduquer comme des robots coute infiniment moins cher. (et est bien plus fiable : prenez un enfant, récompensez le avec de l'héroine quand il fait ce que vous voulez, voila : vous avez un robot parfait, pas cher, efficace, méthode reproductible et utilisé partout pour les enfants soldats).
    Faut leur laisser le temps et la boucle sera boulée

    Citation Envoyé par Helix Voir le message
    Nilsou va te dire que ce n'est pas de l'IA
    (et moi aussi d'ailleurs )
    Bah on va dire que c'est tout de même intéressant ce qu'il a pondu comme outil et que ça peut être utilisé comme un support pour de l'IA. Son prix est sans doute mérité.

    Après on va dire que vu que le mec est déjà adulé depuis, pffffiouuuuuuu, des années, à force ça fait un peu "donnez lui encore un autre prix pour ses travaux vu que tout le monde est déjà d'accord sur la qualité de son taf".
    Balancer des prix à posteriori des années après quand tout le monde est déjà d'accord que ce sont des travaux d'importances je trouve que question "éviter au maximum les prises de risques" c'est quand même pas mal . Il y a un petit coté (ou un gros coté) médiato-politique à l'affaire que je trouve foncièrement malsain (Un peu le même phénomène qui entourait Stephen Hawking).

    C'est un peu dommage également que ce soit un prix portant le nom de Turing qui lui soit accordé, comme je le décrivait plus haut Turing était l'un des premiers à pointer le fait que "l'outil", le mécanisme derrière l'IA, n'a aucune espèce d'importance. Je me demande ce qu'il penserait d'un mec récompensé d'un prix à son nom pour avoir principalement conçu un algorithme servant d'outil (potentiellement à l'IA mais surtout à d'autres truc) et à priori récompensant surtout l'apport de cet outil et non l'apport de ses travaux à l'IA tel que la concevait Turing.

    C'est pas forcement top à ce point de vue.

  22. #682
    Vous en avez probablement déjà parlé auparavant mais vous le définissez comment IA?
    "Les faits sont têtus."


  23. #683
    Ben on parlait que de ça page précédente. On va pas la refaire juste une page après
    Perso j'utilise la définition implicite telle que pensée par Turing dans son papier Imitation Game. Comme beaucoup d'autre scientifique du domaine. Et reprise par pas mal de grand romancier et penseurs de l'IA (comme Asimov).

    Mais aujourd'hui le terme est complétement sortie de sa définition scientifique et ne veut plus dire grand chose. C'est surtout devenu un terme marketing, voire politique quand il s'agit de justifier telle ou telle mesure limite. (tu vois, tu ne fais plus du "vidéo-controle à la 1984 généralisé" tu implémente des "Système d'intelligence artificielle en riche interaction dynamique avec les agents de vos villes pour vous garantir une bonne qualité de vie" (et je déconne même pas, c'est pile poil le genre d'appel d'offre du ministère qui tourne dans nos labo...).

    Pour Turing je pense qu'il faut lire son papier d'origine, très instructif et toujours très facile à lire :
    https://www.csee.umbc.edu/courses/471/papers/turing.pdf

    Il faut voir à quel point le mec était devin et juste sur de nombreux point de fond, genre :
    We also wish to allow the possibility than an engineer or team of engineers may construct a machine which works, but whose manner of operation cannot be satisfactorily described by its constructors because they have applied a method which is largely experimental.

    C'est une tellement bonne prédiction de ce vers quoi tends l'IA moderne.
    Dernière modification par Nilsou ; 28/03/2019 à 16h49.

  24. #684
    Citation Envoyé par Nilsou Voir le message
    C'est un peu dommage également que ce soit un prix portant le nom de Turing qui lui soit accordé, comme je le décrivait plus haut Turing était l'un des premiers à pointer le fait que "l'outil", le mécanisme derrière l'IA, n'a aucune espèce d'importance. Je me demande ce qu'il penserait d'un mec récompensé d'un prix à son nom pour avoir principalement conçu un algorithme servant d'outil (potentiellement à l'IA mais surtout à d'autres truc) et à priori récompensant surtout l'apport de cet outil et non l'apport de ses travaux à l'IA tel que la concevait Turing. .
    Bien vu, c'est assez cocasse.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  25. #685
    Citation Envoyé par Nilsou Voir le message
    C'est un peu dommage également que ce soit un prix portant le nom de Turing qui lui soit accordé, comme je le décrivait plus haut Turing était l'un des premiers à pointer le fait que "l'outil", le mécanisme derrière l'IA, n'a aucune espèce d'importance. Je me demande ce qu'il penserait d'un mec récompensé d'un prix à son nom pour avoir principalement conçu un algorithme servant d'outil (potentiellement à l'IA mais surtout à d'autres truc) et à priori récompensant surtout l'apport de cet outil et non l'apport de ses travaux à l'IA tel que la concevait Turing.
    Oui enfin, Turing c'est avant tout l'un des très grands pionniers de l'informatique, et c'est de ça que parle le prix Turing. Et si tu commences à dire que l'informatique est un outil, on va pas s'entendre...

    Le prix Turing, c'est comme le Nobel: ça couronne une carrière plutôt qu'un résultat spécifique, donc forcément ça a tendance à tomber sur des gens déjà reconnus.

    Ensuite, quant à savoir ce qui relève ou non de l'IA, je ne vais pas m'avancer. Une bonne partie de mes collègues considèrent que dès que tu produis des systèmes qui prennent tous seuls des décisions, tu fais de l'IA - à ce titre, la moitié de mon labo fait de l'IA, mais un peu comme M. Jourdain.

  26. #686
    Je ne crois pas que Nilsou pensait à l'informatique lorsqu'il parlait d'outil, mais au Deep Learning qui est bien l'objet du prix et qui pour le coup est vraiment un outil ou une technique.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  27. #687
    Citation Envoyé par Shosuro Phil Voir le message
    Le prix Turing, c'est comme le Nobel: ça couronne une carrière plutôt qu'un résultat spécifique, donc forcément ça a tendance à tomber sur des gens déjà reconnus.
    Oui c'est pas faux. Mais on pourrait adresser la même critique au prix Nobel. Pour moi un prix doit avoir une utilité sociale. Notamment celle de reconnaitre la valeur d'un travail nouveau et intéressant pour le mettre en valeur. Si c'est juste pour valider l'accord général de tout le monde, et attribuer un prix à un mec déjà adulée par tous et dont tout le monde est d'accord sur la qualité du taf ... ben l’intérêt du prix est vraiment très faible. Ça ne fait même pas rentrer particulièrement l’intéressé dans l'histoire. Qui y aurait été en bonne place même sans le prix.
    Il est très critiqué sur tout ces points le prix Nobel.

    - - - Mise à jour - - -

    Citation Envoyé par Shosuro Phil Voir le message
    Ensuite, quant à savoir ce qui relève ou non de l'IA, je ne vais pas m'avancer. Une bonne partie de mes collègues considèrent que dès que tu produis des systèmes qui prennent tous seuls des décisions, tu fais de l'IA - à ce titre, la moitié de mon labo fait de l'IA, mais un peu comme M. Jourdain.
    Le problème c'est quand les scientifiques commencent à adopter les classifications qui sont construites par les commerciaux, les publicitaires et les politiques...
    Les domaines qu'aujourd'hui ont fourre-tout dans l'IA ont des noms scientifiques précis (Traitement d'image, neurobiologie, automatismes, etc etc...), dés qu'on essaye d'adopter les définitions des commerciaux ça pourrie toute discussion scientifiques qu'on essaierait d'avoir ensuite avec ...
    Dernière modification par Nilsou ; 30/03/2019 à 14h11.

  28. #688
    Citation Envoyé par Nilsou Voir le message
    Oui c'est pas faux. Mais on pourrait adresser la même critique au prix Nobel. Pour moi un prix doit avoir une utilité sociale. Notamment celle de reconnaitre la valeur d'un travail nouveau et intéressant pour le mettre en valeur. Si c'est juste pour valider l'accord général de tout le monde, et attribuer un prix à un mec déjà adulée par tous et dont tout le monde est d'accord sur la qualité du taf ... ben l’intérêt du prix est vraiment très faible. Ça ne fait même pas rentrer particulièrement l’intéressé dans l'histoire. Qui y aurait été en bonne place même sans le prix.
    Il est très critiqué sur tout ces points le prix Nobel.
    Je suis pas d'accord que ce soit l'unique utilité des prix - il y a de la place pour des récompenses de types différents: pour un résultat important, pour un début de carrière prometteur, pour un résultat qui, à l'aune du temps, se révèle important...

    Après il se trouve que les Nobel sont des prix qui, pour une raison mal identifiée par moi, ont le plus de retentissement médiatique. Mais ça ne suffit pas à les rendre néfastes en soi. En particulier, ils permettent de faire parler un peu de science dans les médias, de temps en temps.

    Au niveau national, le CNRS décerne trois types de médailles (Bronze, Argent, Or), avec clairement une gradation qui fait que la médaille de bronze distingue un chercheur en début de carrière qui semble prometteur, la médaille d'argent, un chercheur établi et reconnu par sa communauté, et la médaille d'or, un vieux qui n'en a plus besoin mais à qui ça fait plaisir (ainsi qu'à sa communauté, à moins que ce soit un sale con j'imagine). L'ensemble me semble plutôt pas mal pensé... avec la restriction que cela ne scrute que le niveau national (et donc pas de "compétition internationale" qui vienne pourrir le truc).

    Le problème c'est quand les scientifiques commencent à adopter les classifications qui sont construites par les commerciaux, les publicitaires et les politiques...
    Les domaines qu'aujourd'hui ont fourre-tout dans l'IA ont des noms scientifiques précis (Traitement d'image, neurobiologie, automatismes, etc etc...), dés qu'on essaye d'adopter les définitions des commerciaux ça pourrie toute discussion scientifiques qu'on essaierait d'avoir ensuite avec ...
    Je suis quand même assez curieux de voir ce que serait ta définition de l'IA - vu d'ici, l'impression que ça donne c'est qu'elle est spécialement conçue pour être hyper resserrée, et pour exclure tout ce qui marche (et qui, dans ma vision de béotien total, relève de l'algorithmique, et donc de l'informatique).

  29. #689
    Citation Envoyé par Shosuro Phil Voir le message
    Je suis quand même assez curieux de voir ce que serait ta définition de l'IA - vu d'ici, l'impression que ça donne c'est qu'elle est spécialement conçue pour être hyper resserrée, et pour exclure tout ce qui marche (et qui, dans ma vision de béotien total, relève de l'algorithmique, et donc de l'informatique).
    On en parlait la page d'avant. On était pas tout à fait d'accord dans les détails, mais non c'est pas un truc hyper resserré. C'est globalement un truc qui répond au test de Turing, et pas au sens restreint d'un chatbot à la con qui fait une simple conversation, mais plutôt au sens réel du test de Turing, c'est-à-dire quelque chose dont on peut établir l'intelligence en interagissant avec, de sorte qu'elle est indistinguable d'une autre forme d'intelligence. Après on était pas tout à fait d'accord sur les détails.

  30. #690
    OK - honnêtement, cette définition me semble trop restrictive. Interagir de manière aussi libre, c'est juste pas réaliste (et même avec une pure conversation textuelle).

    Une définition qui n'inclut pas les IA de jeux qui apprennent à jouer mieux que les humains sans avoir à interagir avec eux pour ça, c'est trop restrictif. Si le programme a un comportement qui, dans une tâche spécifique dont on a envie de dire qu'elle requiert de l'intelligence (et je suis d'accord que je ne suis pas en train de donner une définition objective), le met à un niveau comparable à celui d'un être humain (qui a, sans doute trop longtemps, servi d'étalon de l'intelligence), alors il faut que la définition de l'IA l'englobe.

    Appelons ça de l'IA appliquée, le mot n'est pas sale (et c'est un informaticien théoricien qui le dit).

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •