Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 24 sur 43 PremièrePremière ... 14161718192021222324252627282930313234 ... DernièreDernière
Affichage des résultats 691 à 720 sur 1288
  1. #691
    Citation Envoyé par Janer Voir le message
    On en parlait la page d'avant. On était pas tout à fait d'accord dans les détails, mais non c'est pas un truc hyper resserré. C'est globalement un truc qui répond au test de Turing,
    Donc pour toi IA = Imitation de l'intelligence humaine?

    Personnellement, je trouve ça très restrictif.

  2. #692
    Est-que les Dauphins ont passé le test de Turing ?

  3. #693
    Citation Envoyé par Enyss Voir le message
    Donc pour toi IA = Imitation de l'intelligence humaine?

    Personnellement, je trouve ça très restrictif.
    Personellement ça faisait partie de mes points de désaccord avec Nilsou : un extra terrestre pourraît ne pas passer le test de Turing même si il est intelligent. Donc non pour moi ça ne marche pas comme ça. L'expérience de pensée n'est pas à prendre au pied de la lettre, c'est plutôt l'idée qu'il ne faut pas de focus sur les mécanismes mais sur les interactions de ce dont on test l'intelligence avec son environnement, je développerai mon idée demain, mais en gros, si le "sujet" testé réagit de façon complexe avec son environnement, sans avoir besoin savoir ce qu'il y a sous le capot, on peut le considérer intelligent.

    Et @Shosuro Phil : pour moi j'ajouterai qu'il y a une gradation de bête comme un processus à intelligent, et j'admet aussi les notions d'IA restreinte. Par exemple pour ton exemple du jeu, je te rejoins et on voit clairement dans le cas de Alpha Go Zero qu'il y a quelque chose de différent, il joue de façon presque organique, on sent quelque chose, c'est étrange, c'est alien. Mais d'un autre côté, c'est une intelligence qui s'est développé dans un univers restreint uniquement au jeu de Go. Finalement c'est intéressant, on peut penser qu'une intelligence complexe se développe dans un monde complexe.

  4. #694
    Citation Envoyé par Shosuro Phil Voir le message
    OK - honnêtement, cette définition me semble trop restrictive. Interagir de manière aussi libre, c'est juste pas réaliste (et même avec une pure conversation textuelle).

    Une définition qui n'inclut pas les IA de jeux qui apprennent à jouer mieux que les humains sans avoir à interagir avec eux pour ça, c'est trop restrictif. Si le programme a un comportement qui, dans une tâche spécifique dont on a envie de dire qu'elle requiert de l'intelligence (et je suis d'accord que je ne suis pas en train de donner une définition objective), le met à un niveau comparable à celui d'un être humain (qui a, sans doute trop longtemps, servi d'étalon de l'intelligence), alors il faut que la définition de l'IA l'englobe.

    Appelons ça de l'IA appliquée, le mot n'est pas sale (et c'est un informaticien théoricien qui le dit).
    Je fais de l'IA appliqué et on se réfère quand même à Turing. C'est simplement qu'on fait des tests de Turing dit "dégradés" (limité à un certains contexte). Dans un jeux vidéo c'est simple, si tu arrive à faire jouer une IA de manière à ce que "dans le jeu" elle soit indistinguable d'un humain, alors c'est bon c'est de l'IA au sens Turingien. Et si tu n'y arrive pas mais que le but de ta recherche c'est de le faire alors c'est bon, tu "fais de l'IA".
    Mais si le but de ta recherche c'est de faire un module qui bat l'humain à tout les coups et ne fais que ça. Bon disons qu'il serait plus propre de dire que tu fait un algo d'optimisation visant à résoudre le problème "jeu". amha. Surtout que bien souvent c'est ce que c'est. Donc la définition colle avec la réalité et ça devient une description propre.

    Citation Envoyé par Enyss Voir le message
    Donc pour toi IA = Imitation de l'intelligence humaine?

    Personnellement, je trouve ça très restrictif.
    C'est ce que débat Turing dans son papier, allez le lire il est très intéressant.
    Le soucis c'est que "l'intelligence" par définition ne se définit quasiment que par analogie avec "nous" et jamais autrement. Il est évident qu'une calculette, dans le sens commun "intelligence" n'est pas intelligente malgré le fait qu'elle fait "mieux que l'humain". Ceci suffit à convaincre que le mot intelligence n'est pas forcement sur un niveau de réussite à ceci ou cela, mais plutôt définit comme une analogie à l'humain.

    Bien entendu ça ne résout pas le problème de ce que serait une "intelligence inhumaine" ou une "intelligence extra-terrestre" et ça a longtemps fait débat dans la communauté. Mais malgré tout ces débats le résultats final est le même : on peut imaginer que d'autres "type" d'intelligence existe, mais on ne les définit que par opposition à la notre ("c'est autre chose que ce qu'on peut imaginer") et non précisément. En clair, on est incapable de les définir, par essence.

    Comme on est incapable de définir ces intelligence inhumaine, tant qu'on ne les observe pas il est alors inutile, pour un scientifique, d'en parler (car on ne discute que de ce qu'on sait définir, sinon les raisonnements sont impossible) à plus forte raison quand on doit classifier des disciplines.

    C'est la raison pour laquelle la solution de Turing est la seule qui est, encore aujourd'hui, scientifiquement valable. Même si elle est forcement par essence lourdement incomplète c'est à peu prés le seul truc carré qu'on a.

    Les dérives du termes IA tel qu'employé par les commerciaux et les politiques devraient pourtant vous avoir convaincu du risque qu'il y a a employer ce qu'on veut comme définition... à la fin on obtient un méli-mélo (2.0) de truc qui n'ont plus aucun sens pour personne. Pire, ça enlève du sens au mot. Après avoir été poncé dans tout les sens pour dire tout et n'importe quoi, du briquet intelligent au robot, qui croira encore que le mot I.A à un sens réel...
    Le pire c'est que c'est déjà arrivé dans les années 50 et que ça a aboutit au premier effondrement de toute la discipline. Donc on sait précisément vers quoi ça mène, on en a l’expérience.

    Citation Envoyé par Munshine Voir le message
    Est-que les Dauphins ont passé le test de Turing ?
    Sur des tests de Turing dégradés : très clairement.
    D'ailleurs c'est un très bon exemple : on dis les Dauphin intelligents principalement parce que les Dauphins sont intelligents "comme les humains", d'une manière qui nous permet de les comprendre et de les appréhender. (normal, car leur base de fonctionnement est proche : mammifère, famille etc...)
    Dernière modification par Nilsou ; 31/03/2019 à 00h25.

  5. #695
    Oui, sur le fond on est d'accord - surtout avec Janer d'ailleurs: le coeur de l'expérience de pensée de Turing, c'est de dire que quand on cherche à faire une "machine qui pense", au fond l'objectif c'est plutôt "une machine qu'on n'arrive pas à distinguer de quelque chose qui pense". Cette façon de penser est d'ailleurs aussi présente dans son papier sur "la" machine de Turing (qui est le seul que j'ai lu de lui).

  6. #696
    Citation Envoyé par Janer Voir le message
    Personellement ça faisait partie de mes points de désaccord avec Nilsou : un extra terrestre pourraît ne pas passer le test de Turing même si il est intelligent.
    Le problème c'est que ton "même si il est très intelligent" ne veut rien dire. C'est une approximation. Une façon de parler, mais difficile à définir scientifiquement.
    Si ton extra-terrestre est comme un humain il passera le test de Turing. Si ton extra-terrestre est hautement inhumain, disons, comme un arbre, comment pourra tu dire qu'il est intelligent ? Ton truc est totologique, tu dis en somme "si il est intelligent il est intelligent" mais comment même se rendre compte à la base, quantifier, son intelligence si justement elle est tellement éloigné de toi que tu es incapable de t'en rendre compte ? C'est là qu'il te faut des critères ! Et il n'existe (à ma connaissance) aucun critères absolu qui fonctionne, ils sont tous par analogie avec notre intelligence.

    L'humanité fréquente les arbres tout les jours et commencent à peine à faire des hypothèses d'hypothèse que ça pourrraiiiiiiiiiiiiiiiiit peut-être présenter une forme intelligence. Et encore, les chercheurs font des analogies d'organisation avec les sociétés humaines pour s'y retrouver, donc comme d'habitude c'est par analogie.

    Ça se mort la queue si tu veut :
    -- si ce n'est pas par analogie -> tout et n'importe quoi peut devenir "intelligent" selon le critère, ma calculette par exemple, mon éditeur Word, l'eau qui coule. Il existe peut-être un critère quantitatif qui englobe les être humain et exclu les calculettes tout en englobant pleins de truc qu'on avait pas imaginé (dont ton extra-terrestre) mais personne ne l'a trouvé jusqu'ici. Si tu en a un sous le coude je prends évidemment, et j'irais réclamer le Nobel avec

    -- Si c'est par analogie avec notre intelligence, on revient forcement à une forme du test de Turing (dégradé ou non).


    D'ailleurs c'est rigolo parce que finalement la sagesse populaire marche sur ces histoires de définition. Prenons le Jeux-Vidéo. Il est aisé de faire une "IA" qui gagne à tout les coups en trichant et tout le monde sera d'accord pour dire que c'est une "mauvaise IA", "mécanique" qui ne "pense pas" (car on estime que c'est impossible pour nous de le faire donc qu'elle ne pense pas de notre point de vue du mot "penser"), par contre faites une IA qui fait des erreurs, apprends et donne l'impression d’être clairement humaine (parfois il suffit de peu de chose) et là tout le monde dira que c'est une "bonne IA" et se mettre à en parler comme d'un être plus ou moins intelligent.
    Comme quoi on range automatiquement le mot "IA" telle qu'on l'entends dans une case "proche de moi". D'ailleurs l'IA fantasmée parfaite n'est-elle pas le fantasme de l'homme machine qui parle, pense et à ses problèmes tout comme nous (Comme l'Homme Bicentenaire d'Asimov).

    Ceci devrait vous convaincre que, que ce soit scientifiquement, ou populairement, les deux définitions convergent vers un unique truc, qui est par analogie et non vers une définition absolue. Donc Turing était un malin à ce sujet ! Il avait tout prévu
    Et comme une définition sert principalement : soit à discuter dans les domaines scientifiques, soit à communiquer au reste de l'humanité, les définitions rigoureuses scientifique comme populaire l'emportent sur toutes autres considérations et dans ce cas là ça tombe bien : c'est les mêmes ! La beauté de la chose
    Dernière modification par Nilsou ; 31/03/2019 à 00h21.

  7. #697
    Citation Envoyé par Shosuro Phil Voir le message
    Je suis pas d'accord que ce soit l'unique utilité des prix - il y a de la place pour des récompenses de types différents: pour un résultat important, pour un début de carrière prometteur, pour un résultat qui, à l'aune du temps, se révèle important...
    C'est pas faux ton post, je me suis un peu emporté. J'ai un à priori négatif sur le Nobel car il a, amha, trop dérivé vers des objectifs politiques et non plus scientifiques. Du coups bon je regarde ça avec suspicion.
    Par ailleurs ma critique s'extrait tout de même à beaucoup de prix. Bien souvent des chercheurs véritablement audacieux qui ont emmené de grandes avancés ont plus souvent connu le parcours du combattant pour que leur recherche viennent sur la place publique (par exemple le cas des prions, de mémoire) plutôt qu'avoir été aidé par des prix (quand ils ne sont tout simplement pas mort bien avant que leur recherche soit reconnue comme juste). Alors que ça devrait au moins être le rôle de certains prix de venir détecter les perles rare pour leur offrir une aura et c'est loin d'être le cas actuellement, la plupart des prix se contentant de valider gentiment le consensus.
    Dernière modification par Nilsou ; 31/03/2019 à 00h49.

  8. #698
    Je rejoins Janer et Shoshuro Phil sur le desaccord de la definition de l'IA.

    Ma vision des choses est qu'une intelligence artificielle doit etre capable de conceptualiser des choses d'elle meme. Dans le sens ou elle doit etre capable de creer par elle meme des concepts qui lui soit utiles et pouvoir les appliquer ensuite pour une action X. Ainsi, meme si cela ne ressemble absolument pas a une facon humaine, l'IA serait capable de raisonner par elle meme selon moi.

    Vu que tu es dans le domaine Nilsou, quelle serait la limitation de cette definition que je propose?

  9. #699
    Citation Envoyé par Nilsou Voir le message
    Le problème c'est que ton "même si il est très intelligent" ne veut rien dire. C'est une approximation. Une façon de parler, mais difficile à définir scientifiquement.
    Si ton extra-terrestre est comme un humain il passera le test de Turing. Si ton extra-terrestre est hautement inhumain, disons, comme un arbre, comment pourra tu dire qu'il est intelligent ? Ton truc est totologique, tu dis en somme "si il est intelligent il est intelligent" mais comment même se rendre compte à la base, quantifier, son intelligence si justement elle est tellement éloigné de toi que tu es incapable de t'en rendre compte ? C'est là qu'il te faut des critères ! Et il n'existe (à ma connaissance) aucun critères absolu qui fonctionne, ils sont tous par analogie avec notre intelligence.

    L'humanité fréquente les arbres tout les jours et commencent à peine à faire des hypothèses d'hypothèse que ça pourrraiiiiiiiiiiiiiiiiit peut-être présenter une forme intelligence. Et encore, les chercheurs font des analogies d'organisation avec les sociétés humaines pour s'y retrouver, donc comme d'habitude c'est par analogie.

    Ça se mort la queue si tu veut :
    -- si ce n'est pas par analogie -> tout et n'importe quoi peut devenir "intelligent" selon le critère, ma calculette par exemple, mon éditeur Word, l'eau qui coule. Il existe peut-être un critère quantitatif qui englobe les être humain et exclu les calculettes tout en englobant pleins de truc qu'on avait pas imaginé (dont ton extra-terrestre) mais personne ne l'a trouvé jusqu'ici. Si tu en a un sous le coude je prends évidemment, et j'irais réclamer le Nobel avec

    -- Si c'est par analogie avec notre intelligence, on revient forcement à une forme du test de Turing (dégradé ou non).


    D'ailleurs c'est rigolo parce que finalement la sagesse populaire marche sur ces histoires de définition. Prenons le Jeux-Vidéo. Il est aisé de faire une "IA" qui gagne à tout les coups en trichant et tout le monde sera d'accord pour dire que c'est une "mauvaise IA", "mécanique" qui ne "pense pas" (car on estime que c'est impossible pour nous de le faire donc qu'elle ne pense pas de notre point de vue du mot "penser"), par contre faites une IA qui fait des erreurs, apprends et donne l'impression d’être clairement humaine (parfois il suffit de peu de chose) et là tout le monde dira que c'est une "bonne IA" et se mettre à en parler comme d'un être plus ou moins intelligent.
    Comme quoi on range automatiquement le mot "IA" telle qu'on l'entends dans une case "proche de moi". D'ailleurs l'IA fantasmée parfaite n'est-elle pas le fantasme de l'homme machine qui parle, pense et à ses problèmes tout comme nous (Comme l'Homme Bicentenaire d'Asimov).

    Ceci devrait vous convaincre que, que ce soit scientifiquement, ou populairement, les deux définitions convergent vers un unique truc, qui est par analogie et non vers une définition absolue. Donc Turing était un malin à ce sujet ! Il avait tout prévu
    Et comme une définition sert principalement : soit à discuter dans les domaines scientifiques, soit à communiquer au reste de l'humanité, les définitions rigoureuses scientifique comme populaire l'emportent sur toutes autres considérations et dans ce cas là ça tombe bien : c'est les mêmes ! La beauté de la chose
    Je ne dis pas qu'on serait capable de détecter toutes les intelligences. Si ça se trouve dans caillou il y a une intelligence superhumaine et une riche vie intérieure, mais comme il n'intéragit pas avec son environnement on peut pas savoir. Mais je pense que si on voyait un agent quelconque intéragir de façon très complexe avec son environement, avec capacité d'adaptation, réactions qui prouvent qu'il a internalisé un modèle applicable de son monde, modèle généralisé et généralisable, pas un modèle restreint, on peut raisonablement le qualifier d'intelligent, et la sagesse populaire le trouverait intelligent, et pour moi une certaine approche du test de Turing marcherait : pas besoin de le comparer à des humains sur une tâche similaire, mais plutôt encore une fois, intéragir avec pour en sonder l'intériorité en partant du postulat que l'intériorité est une boite noire, mais que si elle est capable d'interactions complexes et "intelligentes" avec l'environement, c'est que nécessairement elle doit être complexe et "intelligentes". Reste à se mettre d'accord sur les interactions intelligentes mais on peut définir des critères, certes subjectifs mais raisonnables.

    D'ailleurs je remet l'article de la dernière fois parce que je trouve qu'il y a des éléments de réflexion intéressant dedans sur l'intelligence :

    https://www.wired.com/story/karl-fri...-intelligence/

  10. #700
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par Janer Voir le message
    Mais je pense que si on voyait un agent quelconque intéragir de façon très complexe avec son environement, avec capacité d'adaptation, réactions qui prouvent qu'il a internalisé un modèle applicable de son monde, modèle généralisé et généralisable, pas un modèle restreint, on peut raisonablement le qualifier d'intelligent
    Donc les castors et les fourmis sont intelligents.
    Barba non facit philosophum.

  11. #701
    Citation Envoyé par Eradan Voir le message
    Donc les castors et les fourmis sont intelligents.
    Pour les fourmis c'est plus discutable (ou alors au niveau collectif) mais pour les castors indubitablement.

    En fait la question ne se pose même pas, l'intelligence n'est pas quelque chose de binaire (présence/absence) il faut raisonner par gradation.
    Donc oui on peut décrire une forme d’intelligence pour une bonne partie du règne animal.
    Mais ça vaut aussi pour la conscience (dont les limites sont quand même bien casse-gueule à définir), le ressenti de la douleur, et bien d'autres thèmes de neuroscience.
    C'est la faute à Arteis

  12. #702
    Citation Envoyé par Orhin Voir le message
    En fait la question ne se pose même pas, l'intelligence n'est pas quelque chose de binaire (présence/absence) il faut raisonner par gradation.
    Oui, il suffit de penser à Des fleurs pour Algernon et à l’évolution darwinienne.
    une balle, un imp (Newstuff #491, Edge, Duke it out in Doom, John Romero, DoomeD again)
    Canard zizique : q 4, c, d, c, g, n , t-s, l, d, s, r, t, d, s, c, jv, c, g, b, p, b, m, c, 8 b, a, a-g, b, BOF, BOJV, c, c, c, c, e, e 80, e b, é, e, f, f, f, h r, i, J, j, m-u, m, m s, n, o, p, p-r, p, r, r r, r, r p, s, s d, t, t
    Canard lecture

  13. #703
    Citation Envoyé par yanad Voir le message
    Je rejoins Janer et Shoshuro Phil sur le desaccord de la definition de l'IA.

    Ma vision des choses est qu'une intelligence artificielle doit etre capable de conceptualiser des choses d'elle meme. Dans le sens ou elle doit etre capable de creer par elle meme des concepts qui lui soit utiles et pouvoir les appliquer ensuite pour une action X. Ainsi, meme si cela ne ressemble absolument pas a une facon humaine, l'IA serait capable de raisonner par elle meme selon moi.

    Vu que tu es dans le domaine Nilsou, quelle serait la limitation de cette definition que je propose?
    Le problème de cette définition c'est que c'est trop flou. Notamment le mot "concept" ou "conceptualisé". C'est toujours le soucis, ce mot s’entend principalement par ... analogie avec l'être humain. Il est difficile de le définir strictement sans prendre pieds sur l’être humain. Par exemple si tu prends une définition minimaliste de "concept" vu comme "fonder un ensemble d'information indépendante" alors ton "concept" devient ce qu'on appelle plus strictement en science une "catégorie" et le domaine dont on parle est celui de l'étude des classifieurs (domaine des Big Data, Kmean, Kohonen, SVM, analyse en composante principale etc etc...) et un classifieurs seul n'est clairement pas "intelligent" . A la limite on dira qu'il est autonome (on parle de non-supervisé).

    Après des "concepts qui lui soit utile", là aussi, même si on sait définir précisement le mot concept, ce qui n'est pas si facile comme je viens de le montrer, il faut s'attaquer au soucis de comment tu définit que tel ou tel chose est "utile" à une entité que tu ne connais pas et qui, justement, d'après vos hypothèses, réfléchis différement de nous ? C'est impossible. Soit tu prends comme hypothèse que le machin réfléchis comme nous pour définir, par analogie, ce qui te semble lui être "utile". Soit tu fais comme hypothèse qu'elle est très différente de nous et alors comment savoir si tel ou tel truc ne lui est pas "utile".

    Prenons un exemple, tu observe une bestiole qui reste planté le nez en l'air, tu analyse son cerveau/mecanismes/ordi/support et tu te rends compte qu'elle classifie en boucle toutes les étoiles et leur relation entre-elle. Un scientifique du domaine conclura que le truc est buggé car ce qu'il fait ne te semble pas utile. Surtout qu'elle va finir par crever en regardant les étoiles ta bestiole.
    Mais si on suit votre hypothèse (intelligence inhumaine, donc tout est possible) alors en fait si ça se trouve on ne peut exclure l'hypothèse qu'elle a décidé de pondre une œuvre d'art pendant 1000 ans représentant les étoiles, qu'elle est convaincu par sa religion qu'elle ne mourra pas et que donc sa décision logique est de construire des concepts artistique à l'infinie pendant 900 ans des étoiles l'environnant.

    Tu vois le soucis ? Dés qu'on imagine que le truc est potentiellement éloigné de l'humain alors tout comportement observé peut devenir intelligent en prenant ta définition. A l'infiniiiiiiiiiiii. Et on peut difficilement prouver l'inverse. Et si tu part de l'humain pour faire une analogie afin de limiter ta définition, pouf, te reviens à Turing et ça se mort la queue.

    Je sais pas si mon exemple est clair. On va dire que ton exemple est celui d'un roboticien pratique (ce que je suis d'ailleurs) et donc qu'il colle avec ce qu'on imagine un peu au pif en pondant nos robot. Mais jamais il ne pourra être employé pour démontrer ensuite que ton robot (ou ton alien) est intelligent, pour ça il faudra un truc plus carré.
    Ton exemple colle plutôt au mot "autonome" telle qu'on l'utilise dans la littérature.

  14. #704
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par Orhin Voir le message
    Pour les fourmis c'est plus discutable (ou alors au niveau collectif)
    Et comme dit Nilsou, c'est là que votre raisonnement se casse la gueule. Pourquoi considérer l'intelligence de la fourmi individuelle comme discutable, si le modèle d'intelligence sur lequel tu bases ta réflexion n'est pas celui de l'être humain?
    Barba non facit philosophum.

  15. #705
    Citation Envoyé par Janer Voir le message
    Je ne dis pas qu'on serait capable de détecter toutes les intelligences. Si ça se trouve dans caillou il y a une intelligence superhumaine et une riche vie intérieure, mais comme il n'intéragit pas avec son environnement on peut pas savoir. Mais je pense que si on voyait un agent quelconque intéragir de façon très complexe avec son environement, avec capacité d'adaptation, réactions qui prouvent qu'il a internalisé un modèle applicable de son monde, modèle généralisé et généralisable, pas un modèle restreint, on peut raisonablement le qualifier d'intelligent, et la sagesse populaire le trouverait intelligent, et pour moi une certaine approche du test de Turing marcherait : pas besoin de le comparer à des humains sur une tâche similaire, mais plutôt encore une fois, intéragir avec pour en sonder l'intériorité en partant du postulat que l'intériorité est une boite noire, mais que si elle est capable d'interactions complexes et "intelligentes" avec l'environement, c'est que nécessairement elle doit être complexe et "intelligentes". Reste à se mettre d'accord sur les interactions intelligentes mais on peut définir des critères, certes subjectifs mais raisonnables.
    Sur le fond tu a raison, mais ça revient à dire ce que Turing disait, tu le formule simplement différemment. Par exemple quand tu définis l'intelligence dans ta partie en gras, tu calque principalement des capacité humaines sur ta définition. Bien entendu tu extrait des bout de capacité humaine et tu évite de comparer le truc directement à l'humain. Mais néanmoins tu restera limité par l'humain. Tient par exemple, prenons un bout de ta phrase "capacité d'adaptation", comment trancher entre quelque chose qui n'en a pas du tout et quelque chose qui en a suffisamment pour que ce soit intéressant, comment savoir si il s'adapte en positif pour lui, l'agent intelligent (définition d'une adaptation) ou si au contraire il se dégrade négativement pour lui (la simple action de l'entropie n'est pas une adaptation par exemple, alors qu'elle modifie l'agent), ça revient encore une fois à poser la question de ce qui est positif pour lui (voir mon pavé plus haut sur le machin buggé qui regarde le ciel : c'est très difficile à définir).
    En général pour répondre à tout ça on fait des comparaisons de nos agents intelligents avec .... la capacité d'adaptation des humains. Ou quand on veut être un peu plus restreint, à minima des bébé ou des animaux. Donc chaque bout de ta phrase, si on veut le placer sur une échelle pour le mesurer, ce sera forcement par rapport ... à nous... Il est assez difficile de faire autrement.

    Pour ton idée de test de Turing, c'est déjà ce qu'on fait dans les test de Turing dégradé. On diminue suffisamment le test pour que l'humain qui observe puisse raisonnablement se tromper avec le robot, afin de juger du machin. Par exemple on dit à l'observateur : d'un coté dans cette tache vous avez un enfant de 8 ans, de l'autre vous avez une machine. Et l'observateur sachant qu'il est en face d'un gamin de 8 ans dans cette tache va diminuer ses attentes, il jaugera donc de l'adaptabilité du machin (si la tache permet d'en juger) ou de sa capacité à se tirer de tel ou tel situation (si la tache le permet) etc etc... mais en parallèle d'un enfant de 8 ans.
    On peut faire la même avec des animaux etc...

    Citation Envoyé par Orhin Voir le message
    Mais ça vaut aussi pour la conscience (dont les limites sont quand même bien casse-gueule à définir), le ressenti de la douleur, et bien d'autres thèmes de neuroscience.
    "Conscience" ça fait longtemps que le terme est bannis de tout les papiers sérieux et de la communauté scientifique en générale car impossible à définir, justement (sauf de quelques papier exploratoire qui cherchent à définir le terme justement). Contrairement à Intelligence, ou on a l'idée de Turing qui a fais son trou dans la communauté car suffisamment carré.

    Citation Envoyé par Orhin Voir le message
    En fait la question ne se pose même pas, l'intelligence n'est pas quelque chose de binaire (présence/absence) il faut raisonner par gradation.
    La définition Turingienne classique permet sans soucis de raisonner par gradation. (test de Turing dégradés)

  16. #706
    Citation Envoyé par Eradan Voir le message
    Et comme dit Nilsou, c'est là que votre raisonnement se casse la gueule. Pourquoi considérer l'intelligence de la fourmi individuelle comme discutable, si le modèle d'intelligence sur lequel tu bases ta réflexion n'est pas celui de l'être humain?
    Ah mais je n'ai jamais dit que je ne basais pas ma comparaison sur l'être humain.
    C'est la faute à Arteis

  17. #707
    Ha oui mais si tu viens parasiter la discussion en disant à ceux qui sont "camps inhumain" que tu es OK avec eux pour ensuite dire que non ça va pas le faire ! Choisi ton camps

  18. #708
    Citation Envoyé par Eradan Voir le message
    Donc les castors et les fourmis sont intelligents.
    Attention à ne pas mélanger intelligence, vivant et conscience.

    Citation Envoyé par Nilsou Voir le message
    Sur le fond tu a raison, mais ça revient à dire ce que Turing disait, tu le formule simplement différemment. Par exemple quand tu définis l'intelligence dans ta partie en gras, tu calque principalement des capacité humaines sur ta définition. Bien entendu tu extrait des bout de capacité humaine et tu évite de comparer le truc directement à l'humain. Mais néanmoins tu restera limité par l'humain. Tient par exemple, prenons un bout de ta phrase "capacité d'adaptation", comment trancher entre quelque chose qui n'en a pas du tout et quelque chose qui en a suffisamment pour que ce soit intéressant, comment savoir si il s'adapte en positif pour lui, l'agent intelligent (définition d'une adaptation) ou si au contraire il se dégrade négativement pour lui (la simple action de l'entropie n'est pas une adaptation par exemple, alors qu'elle modifie l'agent), ça revient encore une fois à poser la question de ce qui est positif pour lui (voir mon pavé plus haut sur le machin buggé qui regarde le ciel : c'est très difficile à définir).
    En général pour répondre à tout ça on fait des comparaisons de nos agents intelligents avec .... la capacité d'adaptation des humains. Ou quand on veut être un peu plus restreint, à minima des bébé ou des animaux. Donc chaque bout de ta phrase, si on veut le placer sur une échelle pour le mesurer, ce sera forcement par rapport ... à nous... Il est assez difficile de faire autrement.

    Pour ton idée de test de Turing, c'est déjà ce qu'on fait dans les test de Turing dégradé. On diminue suffisamment le test pour que l'humain qui observe puisse raisonnablement se tromper avec le robot, afin de juger du machin. Par exemple on dit à l'observateur : d'un coté dans cette tache vous avez un enfant de 8 ans, de l'autre vous avez une machine. Et l'observateur sachant qu'il est en face d'un gamin de 8 ans dans cette tache va diminuer ses attentes, il jaugera donc de l'adaptabilité du machin (si la tache permet d'en juger) ou de sa capacité à se tirer de tel ou tel situation (si la tache le permet) etc etc... mais en parallèle d'un enfant de 8 ans.
    On peut faire la même avec des animaux etc...



    "Conscience" ça fait longtemps que le terme est bannis de tout les papiers sérieux et de la communauté scientifique en générale car impossible à définir, justement (sauf de quelques papier exploratoire qui cherchent à définir le terme justement). Contrairement à Intelligence, ou on a l'idée de Turing qui a fais son trou dans la communauté car suffisamment carré.


    La définition Turingienne classique permet sans soucis de raisonner par gradation. (test de Turing dégradés)
    C'est normal que je rejoigne Turing, parce que j'accepte le sens du test de Turing, et je pense qu'au final, on est juste pas tout à fait d'accord sur le fait que ce critère est nécessairement humain. Alors oui on est biaisé par notre vision de l'intelligence, on ne fait pas la science dans le vide et à la base l'homme est la mesure de toute chose, tous les formalisme et outils conceptuels qu'on a construit sont le fruits d'une histoire biaisée par notre condition humaine et notre appartenance au réel. Mais d'un autre côté, je ne vois pas en quoi c'est un obstacle à analyser une intelligene non-humaine, alors oui on est biaisé, mais c'est pas une fatalité. Ton exemple de la bestiole je ne le comprends pas, déjà le raisonnement pour rationaliser son comportement et y trouver de l'intelligence utilise une vision totalement humaine (religion, croyance, affect) alors que c'est justement ce dont il s'agit de s'affranchir. Ensuite, dans ton exemple on ne peut pas conclure à son intelligence en faisant des suppositions invérifiables, on en revient à mon exemple du caillou à la riche intériorité, c'est de l'invérifiable. Je suis sûr qu'avec un peu de travail je pourrais te pondre une expérience de pensée d'une intelligence non-humaine. Déjà il faudrait partir d'un point de départ où les contraintes environnementales sont complètement différentes des nôtres, mais dans un univers tout aussi complexe et imprévisible (autant d'entropie intrinsèque), et pour être vérifiable, il doit forcément être en interaction complexe et ovbservable avec son environement (c'est là que notre biais entre en jeu, mais sans pour autant nous limiter à n'apréhender que ce qui est humain.)

    Bref à mon avis, on est bien biaisé par ce qu'on connaôt de l'intelligence et par les analogie est intuitions anthropomorphique qu'on a, on peut facielement postuler l'existence d'une intelligence hypothétique comme mon caillou à la riche intériorité mais c'est invérifiable et sans intérêt, mais c'est c'est vrai finalement de tout le savoir humain, et être biaisé et limité ne nous empêche de construire une compréhension qui va au delà.

    - - - Mise à jour - - -

    Citation Envoyé par Eradan Voir le message
    Et comme dit Nilsou, c'est là que votre raisonnement se casse la gueule. Pourquoi considérer l'intelligence de la fourmi individuelle comme discutable, si le modèle d'intelligence sur lequel tu bases ta réflexion n'est pas celui de l'être humain?
    Parce que la fourmi individuelle a un niveau d'interaction et d'adaptation à son environement moins complexe et plus limitée, ce qui laisse supposé un niveau d'intelligence plus faible. Peut être qu'à l'intérieur elle a une pensée profonde et une imagination super-humaine où elle développe à partir d'axiomes choisi arbitrairement tout une théorie mathématique qui dépasse notre entendement, mais c'est invérifiable donc ça n'a aucun intérêt, ce genre d'intelligence sous-vide fait partie des "unknowables"

  19. #709
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par Janer Voir le message
    Attention à ne pas mélanger intelligence, vivant et conscience.
    Merci pour le procès d'intention, mais je ne fais aucun mélange. Les deux exemples que je donne sont des "agent quelconque intéragir de façon très complexe avec son environement, avec capacité d'adaptation, réactions qui prouvent qu'il a internalisé un modèle applicable de son monde". Pourtant, comme Ohrin l'a montré directement ensuite, la fourmi n'est pas considéré comme un animal intelligent.

    Accessoirement, il n'existe ni modèle ni définition généraux pour le premier et le dernier, et le second est encore aujourd'hui sujet à discussion. Sans définition ni modèle reproductible, il est impossible de raisonner autrement que par analogie.

    Citation Envoyé par Janer Voir le message
    Parce que la fourmi individuelle a un niveau d'interaction et d'adaptation à son environement moins complexe et plus limitée, ce qui laisse supposé un niveau d'intelligence plus faible. Peut être qu'à l'intérieur elle a une pensée profonde et une imagination super-humaine où elle développe à partir d'axiomes choisi arbitrairement tout une théorie mathématique qui dépasse notre entendement, mais c'est invérifiable donc ça n'a aucun intérêt, ce genre d'intelligence sous-vide fait partie des "unknowables"
    Donc tout animal hautement social et coopératif a une intelligence plus faible que celle d'un être humain? Voilà qui va faire plaisir aux communistes
    Barba non facit philosophum.

  20. #710
    Citation Envoyé par Eradan Voir le message
    Donc tout animal hautement social et coopératif a une intelligence plus faible que celle d'un être humain? Voilà qui va faire plaisir aux communistes
    Pas du tout ce que j'ai dit, il peut être à la fois social et coopératif et intelligent individuellement, mais dans le cas de la fourmi l'intelligence collective émerge d'une somme d'intelligence beaucoup plus faibles, c'est un système émergent... L'homme est un animal social et coopératif et hautement intelligent aussi.

    Sinon, oui il existe des modèles pour l'intelligence, par exemple le modèle de l'énergie libre (https://en.wikipedia.org/wiki/Free_energy_principle) qui est à la fois un modèle de l'intelligence et du vivant, vivant défini comme une entité protégé par une couverture de Markov qui minimise son énergie libre : vulgairement ça veut dire essaye de réduire sa surprise en modifiant son modèle du monde et en agissant sur le monde, ce qui a notamment pour effet de réduire l'entropie au sein du système vivant, et pour conséquence, et c'est original parce que ça fait souvent partie de la définition, son aspiration à la reproduction.

    De façon plus simple, la définition que j'ai proposé est une utilisée, compatibles avec le papier de Turing, et oui la fourmi est "agent quelconque intéragir de façon très complexe avec son environement, avec capacité d'adaptation, réactions qui prouvent qu'il a internalisé un modèle applicable de son monde", mais d'un degré moindre qu'un être humain par exemple.

  21. #711
    Citation Envoyé par Janer Voir le message
    "agent quelconque intéragir de façon très complexe avec son environement, avec capacité d'adaptation, réactions qui prouvent qu'il a internalisé un modèle applicable de son monde"
    Vous voulez pas arrêter de C/C cette expression, qui est grammaticalement bancale? "agent quelconque interagir...", il manque un mot quelque part... quand on cherche à poser des définitions, ça la fout mal...

  22. #712
    Citation Envoyé par Shosuro Phil Voir le message
    Vous voulez pas arrêter de C/C cette expression, qui est grammaticalement bancale? "agent quelconque interagir...", il manque un mot quelque part... quand on cherche à poser des définitions, ça la fout mal...
    pardon

    "que si on voyait un agent quelconque intéragir de façon très complexe avec son environement, avec capacité d'adaptation, réactions qui prouvent qu'il a internalisé un modèle applicable de son monde, modèle généralisé et généralisable, pas un modèle restreint, on peut raisonablement le qualifier d'intelligent"

    Il y a quand même une faute d'accord à la fin je crois.

  23. #713
    C'est effectivement beaucoup plus clair (et oui le "peut" devrais sans doute devenir "pourrait", pour l'accord avec le "si on voyait"). Merci.

  24. #714
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par Janer Voir le message
    dans le cas de la fourmi l'intelligence collective émerge d'une somme d'intelligence beaucoup plus faibles, c'est un système émergent
    Prouve-le?
    Barba non facit philosophum.

  25. #715
    Citation Envoyé par Eradan Voir le message
    Prouve-le?
    Euh, l'idée c'est qu'on doit pas prouver que quelque chose est pas intelligent, mais plutôt pouvoir prouver que quelque l'est.

    Sinon :
    https://en.wikipedia.org/wiki/Swarm_intelligence
    https://news.stanford.edu/pr/93/931115Arc3062.html

  26. #716
    Cela me parait abusif de citer des algos d'optimisation de colonies de fourmis artificielles pour justifier l'intelligence de fourmis réelles. Au mieux, cela ne prouve que l'existence de systèmes émergents.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  27. #717
    Citation Envoyé par Helix Voir le message
    Cela me parait abusif de citer des algos d'optimisation de colonies de fourmis artificielles pour justifier l'intelligence de fourmis réelles. Au mieux, cela ne prouve que l'existence de systèmes émergents.
    Je trouve ça bizarre que l'article parle surtout d'applications artificielles d'intelligence collectives et il semble prendre l'intelligence collective dans la nature comme évidente comme le montre cette phrase "Examples of swarm intelligence in natural systems include ant colonies". Pour le coup je serai intéressé par des articles mainstream qui traitent de comment l'intelligence collective des fourmis est le résultat d'un système émergent. Après si ça se trouve on a découvert récemment que les fourmis sont plus intelligentes au niveau individuelles qu'on le pensait ça m'intéresserait aussi.

  28. #718
    Citation Envoyé par Janer Voir le message
    Pour le coup je serai intéressé par des articles mainstream qui traitent de comment l'intelligence collective des fourmis est le résultat d'un système émergent.
    Aucune idée. Mais il faudrait : 1/ montrer que la colonie de fourmis est intelligente et à quel degré, et 2/ montrer que cela résulte du système émergent. A mon avis, y'a du boulot.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  29. #719
    Pour les fourmis j'ai pas tout suivit votre débat mais en tout cas on a tiré de l'étude des colonies des algorithmes qui sont aujourd'hui à la base de la régulation décentralisé d'internet entre serveurs ou de certains algo de communication sans fils décentralisé (zigbee). Donc il y a eu un réel apport à l'étude des fourmis.

    Par contre, comme le dit Helix, ça prouve juste que de règle locale simple on obtient un comportement complexe macroscopique, ce qu'on appelle un comportement "émergent" su coups (car il émerge de truc plus bas sans qu'on ai eu besoin de l'écrire en dur). De là à dire que c'est "intelligent", je pense que ce sont deux questions séparés.

    Je suis convaincu perso que les fourmis présentent une forme d'intelligence collective (et individuelle), même en comparaison à l'humain (capacité d'adaptation des colonies etc...). Pour le prouver c'est une autre histoire. C'est plus un acte de foi de ma part qu'un truc rigoureux.

    Je trouve que c'est quand même les cas les plus difficile les fourmis et les abeilles, justement parce qu'une colonie c'est hautement inhumain comme concept et que jauger de l'intelligence de la colonie comme comparaison à un être humain peut parfois être bancal. Les fourmis c'est un peu comme votre exemple d'extra-terrestre.
    Mais comme on a pas beaucoup mieux pour définir l'intelligence actuellement la question (en science en tout cas) reste un peu en suspens.

    D'ailleurs en vrai quand on parle de ce genre de chose les auteurs sont très prudent et emploient plutôt des termes comme "adaptation" etc... histoire d'éviter une discussion stérile sur le sujet.

  30. #720
    Une petite citation de Piaget, qui je trouve vraiment intéressante pour poser la différence entre IA et Apprentissage articiel. Voir de dépasser le stade de comportements "apparement" intelligents.

    Citation Envoyé par Piaget
    L'intelligence ce n'est pas ce que l'on sait, mais ce que l'on fait quand on ne sait pas.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •