Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 8 sur 46 PremièrePremière 1234567891011121314151618 ... DernièreDernière
Affichage des résultats 211 à 240 sur 1361
  1. #211
    Citation Envoyé par CoinCoinWC Voir le message
    Le mieux c'est que tu m'expliques de ce que t'as compris de la mécanique quantique. Comme ça je te corrige et après tu peux te représenter le point de logique dont il est question. C'est simple à cerner, mais c'est complexe. Et la logique du tiers inclus c'est finalement ce qui permet de penser la complexité de façon rationnelle.

    L'idée c'est que si tu m'expliques ce que tu comprends de la dualité onde corpuscule après on peut s'entendre.
    Je garde un très mauvais souvenir de mes cours d'atomistique, mais OK.
    Onde et corpuscule, ce sont juste deux interprétations incomplètes d'un phénomène plus compliqué ?
    D'un point de vue calculatoire (pour qui veut construire ou étudier un calculateur quantique), les états quantiques sont des matrices de probabilités, on les combine avec des produits tensoriels, et on peut appliquer des transformations réversibles dessus, genre CNOT ou transformée de Hadamard ? Ouh c'est loin.

    Sinon je ne suis pas physicien, et le quantique ça ne me parle pas trop. Mais je suis informaticien, alors les logiques qui sont contradictoires avec l'axiome du tiers exclu, ça me parle déjà plus. Quelles sont les différences entre la logique du tiers inclus dont tu parles et la logique intuitionniste, qui n'a pas l'axiome du tiers exclu non plus ?

    Edit: pour remettre les choses dans leur contexte. Les mathématiques sont construites sur la logique. La physique s'appuie sur les mathématiques. En particulier, la physique quantique s'appuie sur des mathématiques qui s'appuient sur des logiques "classiques" et ça marche pour expliquer et prédire les phénomènes physiques. Alors pourquoi une logique différente à part pour la beauté de la chose (ce qui serait une raison suffisante pour un matheux, mais j'ai l'impression que ce n'est pas ton trip) ?

    Citation Envoyé par Phibrizo Voir le message
    Non, on ne s'en fout pas. Ce que peux effectuer un programme informatique est justement limité par sa "partie hardware à bas niveau". Un programme informatique n'est pas un coup de baguette magique qui permet au hardware de se transcender et de dépasser par magie les limites que lui imposent la physique.

    Si la physique interdit à une suite de portes logiques d'effectuer telle opération, alors l'opération ne pourra pas être réalisée, quelle que soit le talent de l'informaticien et quel que soit le langage de programmation qu'il aura choisi.
    Oui, mais on peut appliquer le même raisonnement au sac de viande dont les cellules sont a priori régies par les mêmes lois de la physique.
    Si tu veux prouver que tu n'es pas équivalent une machine de Turing, il faut que tu montres que tu arrives à calculer quelque-chose qu'une machine de Turing ne sait pas calculer, genre résoudre un problème indécidable (à tous les coups dans le cas général, pas juste une fois sur un coup de bol pour une instance donnée). En attendant c'est une question ouverte.

    Et pour poser des énigmes comme CoinCoinWC :
    Donne moi un nombre au hasard ?
    Donne moi une couleur de l'arc en ciel, au hasard ?
    Donne-moi 20 chiffres décimaux (chacun entre 0 et 9) ?
    Dernière modification par Møgluglu ; 27/05/2016 à 14h54.

  2. #212
    Pour les 3 du fond qui ont pas eu 18 en philo au bac, et pour recentrer sur l'IA dans les jeux vidéos : un exemple pratique d'implémentation d'une IA dans Unity via une architecture GOAP : Goal Oriented Action Planning for a Smarter AI

    C'est quoi GOAP ? Un système d'IA qui permet à des agents de planifier une séquence d'action afin de parvenir à un but. La séquence d'action choisie est dépendante à la fois du but, de l'état du monde mais aussi du coût des différentes actions. Pensez aux IA type Banished, Prison Architect ou Rimworld.
    Le système a aussi été utilisé dans d'autres type de jeux : FEAR, les Total War, Fallout 3 : Liste de ressources du MIT autour de GOAP

    Pour ceux qui ont envie d'expérimenter un peu entre deux réflexions philosophiques, l'exemple de l'article fournit une base solide.

  3. #213
    Citation Envoyé par Tankodesantniki Voir le message
    Physiquement, c'est un ordinateur. Un ordinateur, c'est un ordinateur, point. Le fait qu'il ait les souvenirs et la personnalité d'un être humain mort n'est quelque part qu'une sorte de folie de cet ordinateur.

    Du point de vue juridique par contre, il peut très bien être considéré comme l'homme lui-même, avec tout les droits correspondants, ça ne pose pas de problèmes.

    Du point de vue culturel/religion/moral, à chacun de voir.

    De mon point de vue que j'estime rationnel et sensé C'est juste un robot complètement dingue qui se prends pour un humain. Et s'il est considéré comme un humain avec tout les droits et devoirs de l'homme mort par la société et la justice, alors la société et la justice sont folles, mais ça, je le savait déjà, et ça ne change fondamentalement pas mon rapport à la société ou la justice

    Par contre, je considère "a priori" ce robot comme un être vivant et conscient. J'appréhende seulement qu'il comprenne un jour qu'on lui as imposé en tant qu'être vivant la mémoire d'un autre être vivant mort. Je me demandes comment il va gérer ça.

    Je parle de copie de mort, car une copie d'un gars encore vivant seras encore plus compliqué à gérer du point du vue juridique, moral, et pour la stabilité mentale du robot en question.
    Mais c'est un peu comme pour des jumeaux nan? Où simplement une mémoire partagée à un instant T après lequel les deux individus vont diverger naturellement parce que l'environnement lui même ne sera jamais identique?
    La société & justice n'ont pas tellement vocation à répondre définitivement à de grandes questions, juste essayer de faire fonctionner le truc le mieux possible de manière pragmatique; donc si il devient plus avantageux de donner des droits aux robots pour X raisons ca se fera sans que ca corresponde à une preuve de quoi que ce soit.


    Citation Envoyé par Phibrizo Voir le message
    Quelques réflexions perso sur l'intelligence artificielle,

    Tout d'abord, je suis tout à fait convaincu qu'elle est possible. Si l'évolution a permis au cerveau humain, un peu plus d'un kg et quelques centaines de centimètres cubes, d'accéder à l'intelligence, c'est la démonstration par l'exemple que l’intelligence fait partie du répertoire des possibles que nous offre les lois de la physique, et je ne vois aucune raison qui empêcherait des scientifiques assez motivés de construire un cerveau artificiel.

    *Mais*, par contre, je serais personnellement très étonné que le dit cerveau puisse être construit *uniquement* avec les composants électroniques que nous connaissons, ou qu'il puisse être simulé par un programme informatique suffisamment complexe dans un ordinateur classique.

    Pourquoi ? Parce que, à la base, les ordinateurs actuels ne sont que des assemblages de portes NON / ET / OU, et que, aussi complexe soit-il, le programme fournira toujours la même réponse à la même question.

    Je sais certes que le programme peut "apprendre" de son environnement, mais là aussi, une copie identique du programme nourri avec une copie des mêmes informations, fournira exactement la même réponse.

    Et un programme tournant sur un ordinateur un million de fois plus rapide ne donnera pas une réponse un million de fois plus intelligente, il donnera simplement la même réponse un million de fois plus vite.


    Pour moi, ce n'est pas de la conscience (même si la question de l'intelligence peut se discuter, mais c'est surtout l'intelligence du concepteur du programme). Si on devait me poser la même question, complexe, avec les mêmes informations, complexe, à plusieurs reprises (et me faire oublier que j'y ait déjà répondu), je suis raisonnablement certain que je ne donnerait pas *exactement* la même réponse à chaque fois.

    D'ailleurs, si on enferme un chat, dans une pièce identique et que l'on s'amuse à regarder à heure fixe tous les jours où il se trouve, on constatera que le dit animal ne dormira pas toujours au même endroit. Le chat-robot, initialisé avec les mêmes informations, si.

    A mon sens, vouloir simuler la conscience uniquement avec des portes logiques ne peut aboutir qu'à une impasse. On peut conceptuellement remplacer les portes logiques par des engrenages qui tournent dans un sens ou dans un autre selon la direction où l'on actionne un levier mais, même si on assemble un mécanisme horloger de la taille d'une planète on n'est toujours pas plus près de la conscience en rajoutant un engrenage de plus que lors du tout premier : le mécanisme fournira toujours la même réponse avec les mêmes données initiales, et sera toujours aussi fondamentalement idiot.

    Alors, dans ce cas, quelles pistes explorer ?

    Ma foi, j'ai parcouru quelques livres, et j'ai retenu deux pistes (qui ne s’excluent pas d'ailleurs) qui me sembleraient intéressantes pour espérer aboutir à une véritable conscience:

    - La première serait d'exploiter la théorie du chaos. Plutôt que d'utiliser des portes logiques infaillibles qui donnent toujours le même résultat, il faudrait laisser la possibilité à certaines la possibilité de commettre des erreurs. Le livre que j'ai lu sur la théorie du chaos expliquait que tous les phénomènes "intéressants" se produisaient à la frontière qui sépare l'ordre du chaos total.

    Si je crée une machine parfaite ou des portes logiques parfaites réinjectent parfaitement en entrée les données obtenues en sortie, je suis au regret d'annoncer que ce programme sera parfaitement ennuyeux, et parfaitement dépourvu de conscience.

    Si à l'inverse les portes logiques fournissent un résultat aléatoire, le résultat sera probablement plus rigolo, mais là aussi tout aussi dépourvu de conscience, car totalement aléatoire. Petit aparté: ce comportement n'est pas sans rappeler je trouve celui d'une crise d'épilepsie dans un cerveau humain

    Si par contre, je construit une machine qui opère entres les deux extrêmes précédents et que je dose finement le taux d'erreur, et bien je peux obtenir des cycles chaotiques (au sens de la théorie du chaos), des cycles presque prévisibles mais pas tout à fait, confinés dans l'espace des phases tels l'attracteur de Lorentz, et, j'ose le supposer, quelque chose qui pourrait peut-être ressembler à un embryon de conscience.

    - La seconde piste serait elle d'exploiter la physique quantique. D'autres que moi ont supposé que la conscience humaine elle-même un phénomène quantique. J'ignore naturellement ce qu'il en est, mais si c'était vrai alors la fabrication d'un cerveau artificiel serait alors davantage du ressort de l'informatique quantique que de l'informatique classique.

    Tout cela pour dire que, s'il est à mon sens possible de construire une machine intelligente, le mécanisme de la dite machine sera sans doute subtilement différent de nos ordinateurs actuels.

    Une dernière chose, pour conclure mon pavé: je trouve difficile d'ignorer que la concrétisation d'une intelligence réellement artificielle poserait alors la question de l'exploitation de ce qui ne serait alors que... de l'esclavage...
    Si l'environnement lui même ne sera jamais identique, et si on peut le faire tourner 1million de fois plus vite ca veut dire qu'on peut aussi lui faire prendre en compte 1million de fois plus de facteurs pour prendre sa décision, en donnant à cette dernière un aspect bien plus aléatoire, alors que c'est en fait purement logique.

    Citation Envoyé par nefrem Voir le message
    J'aimerai bien voir la tête d'un algo qui simule l'impact de la fatigue, ou la nécessité de se reproduire par exemple.
    Et si tu simules la peur de mourir c'est bien joli mais c'est fictif et hors de propose pour quelque chose de non vivant d'un point de vue biologique

    Je suis candide dans le domaine des IA hein, c'est des questions naïves.
    J'ai toujours du mal a me dire qu'il est possible de créer "quelque chose" qui ait conscience d'être ... ben "quelque chose", et que ne soit pas juste une émulateur/simulateur de pensée.

    Edit : Encore une fois c'est surement naif de ma part, mais j'ai une vision surement un peu SF des IA. Je ne m'attends pas a une entité qui sache répondre A ou B a une question, mais a une entité qui ait conscience d'exister et qui s'inquiète de sa pérénité (survie, reproduction sous quelque forme que ce soit).
    Un robot ne "meurt" pas mais peut vouloir éviter sa destruction, simplement d'un point de vue pragmatique parce que c'est un appareil coûteux et que ca serait pas con de le doter d'un mécanisme d'auto-préservation.

    Citation Envoyé par nefrem Voir le message
    Le problème de compréhenson pour moi, c'est que la peur de mourir ne peut pas être séparer de la conscience d'exister. Un insecte n'a pas peur de mourir, il a juste des mécanismes biologiques/chimiques/mécaniques bien foutus mais assez simples qui lui donnent les meilleurs chances de rester en vie. Mais c'est du domaine du binaire (ombre a droite je vais a gauche, vibration en haut et je vais en bas). Il ne court pas en se disant "Faut que je reste en vie putain faut que je reste en vie". Quand on parle d'IA, on parle intelligence donc je suppose qu'on parle de quelque chose de différent (même si je me doute que simuler le comportement d'un insecte doit une etre une merdier sans nom avec un algorithme gros comme un codex Warhammer).
    Mais je suis hors sujet en fait, je m'en rends compte.

    Et au fait, rien a voir, une IA c'est du code, comment elle se reconnaitra dans le miroir pour nous prouver qu'elle a conscience d'exister ?



    Mais encore une fois on est dans la simulation. Donc dans quelque chose de fictif non ?
    Ce qui est amusant c'est qu'on peut appliquer une certaine conscience à l'insecte par empathie en utilisant nos neurones miroir.
    Qui dit qu'on ne fait pas la même chose pour d'autres humains et que ca revient au même, c'est à dire une illusion de conscience alors qu'on ne réagit finalement pas fondamentalement différemment d'insectes juste plus complexes?

    Pour le test du miroir y a eu ca:
    http://hitek.fr/actualite/robot-pris...-lui-meme_6666
    http://fr.metrotime.be/2015/07/24/mu...e-de-lui-meme/
    http://www.developpez.com/actu/87689...es-chercheurs/
    Mais bon je me doute bien qu'il y a un truc. :D

    - - - Mise à jour - - -

    Sinon pour la physique quantique et la biologie y avait ce doc intéressant (anglais sous-titré anglais) :
    https://mega.nz/#F!sZsxHYDY!jC47w0OLc4RtFrwPoKOVpg

  4. #214
    Citation Envoyé par Møgluglu Voir le message
    Sinon je ne suis pas physicien, et le quantique ça ne me parle pas trop. Mais je suis informaticien, alors les logiques qui sont contradictoires avec l'axiome du tiers exclu, ça me parle déjà plus. Quelles sont les différences entre la logique du tiers inclus dont tu parles et la logique intuitionniste, qui n'a pas l'axiome du tiers exclu non plus ?
    Ah bah c'est tout con en fait.
    Logique classique > informatique classique
    Tiers inclus > informatique quantique

    What is quantum computing?
    Quantum computing makes use of quantum physics, also called quantum mechanics, to perform calculations in a manner radically different than conventional models of computation. The power of the quantum computer is that it is based on a logic that is not limited merely to on-or-off, true-or-false scenarios. Quantum computing has bits, just like any computer. But instead of ones and zeros, quantum bits, or qubits, can represent a one, a zero, or both at once, which is a phenomenon known as superposition. The superposition that occurs in a quantum system is so different to that which occurs in classical systems that it can allow two of these qubits to behave in ways that cannot be explained by the individual components. This is called entanglement. These more complex calculations can be used to re-imagine computing.
    Le tiers inclus c'est l'état "O et 1". Un opérateur logique.

    Après pour faire simple, la conscience comme on l'entend c'est une conscience de conscience. C'est en lien avec notre aptitude à nous représenter nous même. Pour simuler un comportement crédible faut donner à l'ia une capacité de se représenter elle même par rapport à un autre. Bref de lui permettre d'inclure le tiers dans son raisonnement.

    Si tu veux voir une IA s'énerver ou se montrer arrogante, manifester de la tristesse ou de la joie, si tu veux lui donner l'aptitude de simuler des affects, elle doit pouvoir se positionner subjectivement face à une autre subjectivité. Si la machine se positionne en fonction de l'autre sans réflechir son propre positionnement c'est un bot de chat caramail, pas encore un bot de chat complexe.

    Je ferais un dessin pour expliquer, ce sera plus clair si ça l'est pas encore.

  5. #215
    Citation Envoyé par CoinCoinWC Voir le message
    Ah bah c'est tout con en fait.
    Logique classique > informatique classique
    Tiers inclus > informatique quantique
    C'est bien ce qui me semblait. Sauf qu'en fait, non, pas du tout. Au contraire.
    On a plutôt (en restant dans la caricature, je ne veux pas d'ennuis avec les matheux) :
    Logique classique > mathématiques classiques du XIXe, théorie des ensembles, preuves sur papier et tableau noir. Les maths des physiciens.
    Logique intuitionniste / théorie des types de Martin-Löf > programmation, preuves formelles assistées par ordinateur. Les maths des informaticiens.

    Et d'après le texte que tu as donné, la logique "tiers inclus" ressemble beaucoup à une ébauche de la théorie des types. Y compris la hiérarchie d'univers pour éviter l'indécidabilité de Gödel.
    La théorie des types, c'est la base de toute une branche de l'informatique théorique, et notamment de l'école française des preuves formelles (OCaml, Coq).

    L'objectif de cette branche de recherche, c'est de formaliser toutes les mathématiques en rendant les définitions, théorèmes et démonstrations intelligibles par les ordinateurs. Ceci à fin d'automatiser la vérification des démonstrations (les mathématiciens sont des humains faillibles, l'expérience montre qu'ils n'ont pas une rigueur suffisante pour vérifier des démonstrations compliquées), voire de faciliter ou carrément d'automatiser l'écriture de démonstrations.
    S'il y avait une conspiration pour remplacer les mathématiciens par des ordinateurs, alors la théorie des types en serait le fer de lance.

    Le postulat de base en logique intuitionniste et en théorie des types, c'est qu'il n'y a pas l'axiome du tiers exclu (ni l'axiome du choix). Ça nous prive de certains modes de raisonnements comme la démonstration par l'absurde. En contrepartie, ça permet une logique constructive : si je sais prouver la propriété A=>B (propriété A implique propriété B), alors je sais écrire un programme qui prend un élément de A en entrée et renvoie un élément de B. Du coup, écrire une démonstration de A=>B, c'est équivalent à programmer une fonction de type A->B.

    Donc ta théorie était que les machines ne peuvent pas penser comme les humains parce que les machines pensent avec le tiers exclus et pas les humains ?
    Dommage, c'est exactement le contraire. C'est une vision des raisonnements mathématiques (ou de la pensée en général si on n'a pas peur des généralisations hasardeuses) comme une activité purement calculatoire faisable par une machine qui a mené à développer des logiques sans axiome du tiers exclu. Une approche d'ailleurs controversé par les formalistes à l'époque, qui défendaient les principes du raisonnement "humain" d'Aristote, dont le tiers exclu : https://en.wikipedia.org/wiki/Brouwe...rt_controversy
    Mais ça c'est de la philo.

  6. #216
    Citation Envoyé par Møgluglu Voir le message
    Donc ta théorie était que les machines ne peuvent pas penser comme les humains parce que les machines pensent avec le tiers exclus et pas les humains ?
    Dommage, c'est exactement le contraire. C'est une vision des raisonnements mathématiques (ou de la pensée en général si on n'a pas peur des généralisations hasardeuses) comme une activité purement calculatoire faisable par une machine qui a mené à développer des logiques sans axiome du tiers exclu. Une approche d'ailleurs controversé par les formalistes à l'époque, qui défendaient les principes du raisonnement "humain" d'Aristote, dont le tiers exclu : https://en.wikipedia.org/wiki/Brouwe...rt_controversy
    Mais ça c'est de la philo.
    Pas du tout

  7. #217
    Que je résume si j'ai bien compris.

    1/ CoinCoinWc dit quelque chose.
    2/ Quelqu'un rebondit.
    3/ CoinCoinWc demande plus de précisions sur les connaissances de la personne précédente en matière d'une branche pointue de sciences dures.
    4/ Les précisions sont apportées.
    5/ CoinCoinWc explique alors comment ce qui a été dit dans le point 2/ prouve qu'une AI consciente est impossible.
    6/ Le contraire lui est prouvé par un spécialiste des sciences impliquées.
    7/ CoinCoinWc déclare qu'on a pas compris ou qu'une erreur de raisonnement a été faite, la plupart du temps par manque de connaissances en philosophie.
    8/ Rinse and repeat.
    Barba non facit philosophum.

  8. #218
    Citation Envoyé par Eradan Voir le message
    Que je résume si j'ai bien compris.

    1/ CoinCoinWc dit quelque chose.
    2/ Quelqu'un rebondit.
    3/ CoinCoinWc demande plus de précisions sur les connaissances de la personne précédente en matière d'une branche pointue de sciences dures.
    4/ Les précisions sont apportées.
    5/ CoinCoinWc explique alors comment ce qui a été dit dans le point 2/ prouve qu'une AI consciente est impossible.
    6/ Le contraire lui est prouvé par un spécialiste des sciences impliquées.
    7/ CoinCoinWc déclare qu'on a pas compris ou qu'une erreur de raisonnement a été faite, la plupart du temps par manque de connaissances en philosophie.
    8/ Rinse and repeat.
    Quand je lis le papier que j'ai linké, je me sens comme à la maison. Ca me soulage de la frustration que je ressens quand j'essaye de vous transmettre deux trois conneries.
    Le passage que je quote, il est la preuve que si mogluglu à lu l'article il ne l'a pas compris.

  9. #219
    Non. C'est la preuve que tu dis de la merde, et que tu essaies de tordre tout ce qui te tombe sous la main pour que ça colle à ta croyance.
    Barba non facit philosophum.

  10. #220
    Citation Envoyé par Eradan Voir le message
    Non. C'est la preuve que tu dis de la merde, et que tu essaies de tordre tout ce qui te tombe sous la main pour que ça colle à ta croyance.
    Non il est clairement dit que la logique du tiers inclus englobe celle du tiers exclus. Par conséquent ce qui fonde la différence entre la machine et l'homme c'est que la machine ne peut que raisonner de façon exclusive là ou l'informatique quantique pour accèder à une logique plus complexe.
    C'est ce que dit la quote un peu plus haut, elle est pompée sur le site d'IBM.

    Mais bon t'as pas lu le papier, je sais même pas comment tu penses prétendre pouvoir produire un avis

  11. #221
    Et d'où sors-tu que je n'ai pas lu le papier?

    Edit: J'ai envie d'ajouter que ton papier n'est pas non plus une vérité absolue. Encore une fois, la philo n'est pas une science mais une croyance, et ce que tu affirmes peut être contredit ou volontairement ignoré par un autre courant philosophique. Bref, tu interviens sur des sujets (IA, maths, physique quantique) que tu ne maîtrises pas et pour lesquels ta seule justification est "la philo". C'est fumeux.
    Barba non facit philosophum.

  12. #222
    Citation Envoyé par Eradan Voir le message
    Et d'où sors-tu que je n'ai pas lu le papier?
    Parce que tu n'en as pas pipé mot. Note que si t'avais lu ET compris le papier, t'aurais sans doute autre chose à m'opposer que "coincoin t'es con". Des arguments par exemple

  13. #223
    Pas forcément, non. Parce que (encore une fois) la philosophie est une croyance, et qu'on parle ici de sciences. Pourquoi parler des techniques d'élevage de dahu sur un sujet de culture de tomates?
    Barba non facit philosophum.

  14. #224
    Citation Envoyé par Cyrop Voir le message
    Tiens au fait on pourrait faire le parallèle avec un passage du topic de la religion, où ça parlait de transcendance via les technologies.

    Si on transfère une "conscience" humaine sur un "ordinateur" (pour simplifier), comment pourrait-on considérer cette entité ? Comme un prolongement de la personne transférée, un ersatz de lui, une copie numérique ? Dans un système ou cette entité serait capable de continuer à se développer bien sûr, pas juste une copie carbone inaltérable.
    En enlevant le côté religieux pour ma part car déjà je m'en tape un peu et surtout c'est peu pertinent. Mais d'un point de vue juridico-anticipationiste et humain.
    Il y a pas mal d'auteurs qui s'attaquent à la question, Asimov (encore) tente de traiter la question du droit des robots dans la plupart de ces nouvelles. Bon après, dans ce cas là il y a transfert et ce n'est pas ce qu'il traite mais bon, d'autres auteurs traitent un peu le problème également. Je pense que d'un point de vue sociétal, le fait que la "machine" s'exprime comme l'ancien homme fera que les proche accepterons très vite d'avoir à faire avec l'ancienne personne. De fait, si le phénomène s'étend suffisamment rapidement dans l'humanité, la question du droit sera très vite traité pour dire que ce sont les mêmes personnes. Enfin j'imagine.

    - - - Mise à jour - - -

    Citation Envoyé par Tankodesantniki Voir le message
    Je ne sais pas si tu connais le blog "waitbutwhy" ?

    L'auteur est du genre assez expansif et enthousiaste à l'excès dans ses articles, mais il y a des "représentations" du fonctionnement de l'homme et de la conscience intéressante.

    On peut représenter la conscience sous la forme d'un bateau. Dans lequel il y a:

    - Un barreur.
    - Un singe fou: le procrastineur motivé qui prends la barre au capitaine pour s'amuser.
    - Un mammouth, la peur et l'estime de soi.
    - Un "panic monster", le seul capable de faire peur au singe et pousser le barreur a prioriser certaines tâches.
    - ect.

    On aime a considérer que le "moi", c'est le barreur à l'intérieur, qui subit les influences de tout les autres acteurs "processus" plus ou moins conscients.

    Mais pour un observateur extérieur, lui ne voit finalement que la somme de tout celà, et c'est l'ensemble de ces processus imbriqués qui fait notre personnalité, le "résultat final".

    Au final, ce barreur lui-même n'est qu'un des nombreux processus plus ou moins conscients imbriqués, sans tellement plus d'importance que les autres, à part pour "nous".
    Ha oui je connais bien , j'avais adoré leur article sur la procastination.
    Perso je ne sais pas si il sera jamais possible de définir un emplacement du "moi", dans le sens ou ça peut être un phénomène émergeant du tout et non une sous partie du cerveau.
    Par contre les autres entités sont parfois facile à placer. Le procrastinateur c'est tout les phénomènes qui veulent te faire gagner à cout terme. On en connais pas mal, notamment tout le système dopaminergique dont on peut placer le cœur dans les ganglions de la base. Faire un robot qui ne réfléchis qu'a récompense court terme : on le fait déjà (avec des modèles des ganglions notamment).
    Le panic monster viens du fait qu'il reste une boucle "prédictive du futur" qui viens en plus apporter une estimation future de récompense et qui vois bien que continuer ainsi va apporter une catastrophe. Plus on s'en rapproche, plus la prédiction s'affine et est de moins en moins ignorable et plus ... on panique.

    La panique qui viens à la fin est évidemment très bas niveau face à une situation déplorable. Le coté boucle de prédiction on sait que ça implique majoritairement le Cervelet.
    Par contre le "moi", difficile à dire ... en vrai ça peut être tout le reste et on peut également voir le moi comme englobant le panic-monster et le singe fou, en toute connaissance de cause. Il subit certe, mais avec consentement.

    Citation Envoyé par Phibrizo Voir le message
    Quelques réflexions perso sur l'intelligence artificielle,
    Spoiler Alert!

    Tout d'abord, je suis tout à fait convaincu qu'elle est possible. Si l'évolution a permis au cerveau humain, un peu plus d'un kg et quelques centaines de centimètres cubes, d'accéder à l'intelligence, c'est la démonstration par l'exemple que l’intelligence fait partie du répertoire des possibles que nous offre les lois de la physique, et je ne vois aucune raison qui empêcherait des scientifiques assez motivés de construire un cerveau artificiel.

    *Mais*, par contre, je serais personnellement très étonné que le dit cerveau puisse être construit *uniquement* avec les composants électroniques que nous connaissons, ou qu'il puisse être simulé par un programme informatique suffisamment complexe dans un ordinateur classique.

    Pourquoi ? Parce que, à la base, les ordinateurs actuels ne sont que des assemblages de portes NON / ET / OU, et que, aussi complexe soit-il, le programme fournira toujours la même réponse à la même question.

    Je sais certes que le programme peut "apprendre" de son environnement, mais là aussi, une copie identique du programme nourri avec une copie des mêmes informations, fournira exactement la même réponse.

    Et un programme tournant sur un ordinateur un million de fois plus rapide ne donnera pas une réponse un million de fois plus intelligente, il donnera simplement la même réponse un million de fois plus vite.

    Pour moi, ce n'est pas de la conscience (même si la question de l'intelligence peut se discuter, mais c'est surtout l'intelligence du concepteur du programme). Si on devait me poser la même question, complexe, avec les mêmes informations, complexe, à plusieurs reprises (et me faire oublier que j'y ait déjà répondu), je suis raisonnablement certain que je ne donnerait pas *exactement* la même réponse à chaque fois.

    D'ailleurs, si on enferme un chat, dans une pièce identique et que l'on s'amuse à regarder à heure fixe tous les jours où il se trouve, on constatera que le dit animal ne dormira pas toujours au même endroit. Le chat-robot, initialisé avec les mêmes informations, si.

    A mon sens, vouloir simuler la conscience uniquement avec des portes logiques ne peut aboutir qu'à une impasse. On peut conceptuellement remplacer les portes logiques par des engrenages qui tournent dans un sens ou dans un autre selon la direction où l'on actionne un levier mais, même si on assemble un mécanisme horloger de la taille d'une planète on n'est toujours pas plus près de la conscience en rajoutant un engrenage de plus que lors du tout premier : le mécanisme fournira toujours la même réponse avec les mêmes données initiales, et sera toujours aussi fondamentalement idiot.

    Alors, dans ce cas, quelles pistes explorer ?

    Ma foi, j'ai parcouru quelques livres, et j'ai retenu deux pistes (qui ne s’excluent pas d'ailleurs) qui me sembleraient intéressantes pour espérer aboutir à une véritable conscience:

    - La première serait d'exploiter la théorie du chaos. Plutôt que d'utiliser des portes logiques infaillibles qui donnent toujours le même résultat, il faudrait laisser la possibilité à certaines la possibilité de commettre des erreurs. Le livre que j'ai lu sur la théorie du chaos expliquait que tous les phénomènes "intéressants" se produisaient à la frontière qui sépare l'ordre du chaos total.

    Si je crée une machine parfaite ou des portes logiques parfaites réinjectent parfaitement en entrée les données obtenues en sortie, je suis au regret d'annoncer que ce programme sera parfaitement ennuyeux, et parfaitement dépourvu de conscience.

    Si à l'inverse les portes logiques fournissent un résultat aléatoire, le résultat sera probablement plus rigolo, mais là aussi tout aussi dépourvu de conscience, car totalement aléatoire. Petit aparté: ce comportement n'est pas sans rappeler je trouve celui d'une crise d'épilepsie dans un cerveau humain

    Si par contre, je construit une machine qui opère entres les deux extrêmes précédents et que je dose finement le taux d'erreur, et bien je peux obtenir des cycles chaotiques (au sens de la théorie du chaos), des cycles presque prévisibles mais pas tout à fait, confinés dans l'espace des phases tels l'attracteur de Lorentz, et, j'ose le supposer, quelque chose qui pourrait peut-être ressembler à un embryon de conscience.

    - La seconde piste serait elle d'exploiter la physique quantique. D'autres que moi ont supposé que la conscience humaine elle-même un phénomène quantique. J'ignore naturellement ce qu'il en est, mais si c'était vrai alors la fabrication d'un cerveau artificiel serait alors davantage du ressort de l'informatique quantique que de l'informatique classique.

    Tout cela pour dire que, s'il est à mon sens possible de construire une machine intelligente, le mécanisme de la dite machine sera sans doute subtilement différent de nos ordinateurs actuels.

    Une dernière chose, pour conclure mon pavé: je trouve difficile d'ignorer que la concrétisation d'une intelligence réellement artificielle poserait alors la question de l'exploitation de ce qui ne serait alors que... de l'esclavage...
    Tu soulève un bon point en début d'analyse :
    En gros la part de l’aléatoire et de la reproductibilité.
    Il y a plusieurs chose à noter :

    - Un ordi est évidemment copiable, mais pas tant que ça. Il existe des subtilités dans ces portes justement qui font que la dynamique (vitesse d'execution) n'est pas EXACTEMENT la même d'un PC à un autre. Pour faire 1+1 OSEF parce que le temps d'arrivé de la réponse n'est pas important. Mais pour agir et réfléchir dans des boucles imbriquées ... ben ça compte vachement. Ainsi une copie d'ordinateur avec un programme dIA ne réagira pas exactement pareil et divergera assez vite.

    - Le fait que deux robots occupent deux corps physique différent va automatiquement amener une divergence par la prise en compte d’expérience à chaque fois un tout petit peu différente. Donc on a une divergence d'apprentissage également.
    - On rajoute de l'aléatoire volontairement dans les neurones simulé donc ...
    - On prends en compte du véritable aléatoire car les entrées sont des capteurs, qui ont donc du bruit (parfois due à des phénomènes quantique, donc on peut déjà dire qu'il y a du bruit quantique dans le fonctionnement). Et comme tout n'est que boucle ... ben il y a forte différence dés le départ.

    Du coups, il faut nuancer, de par la nature des IA informatiques et leur bouclage sur l'environnement, de facto il y a au moins trois type de phénomène qui viennent faire qu'il n'y absolument aucune chance que deux IA copié-collé soit réellement identique.
    Si on admet un parallèle, comme tu le fait, entre conscience et "unité" alors pas de soucis pour les IA incarné dans un robot un seul de ces phénomènes justifient qu'il n'y a absolument aucune chance de fonctionnement à l'identique.

    De plus le parallèle est très très supposé. Même si elles se comportent en copié-collé on n'a pas trop de preuve pour dire qu'elles ne seraient pas consciente
    Bon par contre j’admets qu'en vrai on aimerais beaucoup implémenter nos neurones artificiel sur des machines qui sont capable de les faire vraiment et non de façon simulé, il existe pas mal de programme de recherche assez aboutit sur le sujet. Pour le moment la seule difficulté est que l'apprentissage nécessite des résistance variable, composant qui n'existent pas encore vraiment de façon miniaturisé et peu couteuse. Mais la recherche avance pas mal sur ce sujet et il y a déjà pas mal de proto de réseau de neurone matériel.
    Je voulais faire un projet pour faire une IA de contrôle super simple simplement avec des peluches et quelques composant analogiques, ce serait fun.

    Ha et ta dernière phrase est évidemment LE gros point problématique. Pour ça que j'aime bien la solution d'Asimov face à ce point qui est de plutôt produire des petits animaux, qui auront donc le statut d'animaux.

    - - - Mise à jour - - -

    Citation Envoyé par Tankodesantniki Voir le message
    Avant toutes choses, il est urgent de lire ou relire des ouvrages sur ladite théorie du chaos: la théorie du chaos est un monde déterministe, c'est à dire que pour des conditions initiales strictement identiques, tu obtiendras toujours strictement le même résultat. Toute la science est basée sur ça, et la théorie du chaos également. Tout ce qu'apporte la théorie du chaos, c'est de dire que certes, le monde est déterministe, mais non prévisible à moyen ou long terme, s'il dispose de suffisamment de "liberté" de mouvement, et peut donner de très jolies fractales.

    C'est pas hyper simple à expliquer en quelques lignes, mais la théorie du Chaos est un monde strictement déterministe: aucun hasard, juste des mécanismes avec des degrés de liberté.

    Je penses que tu fais fausse route ici.
    J'ajouterais que le point essentiel dans la définition du chaos c'est simplement que le résultat varie énormément pour des conditions initiale très proche. Mais si les conditions initiales sont exactement les même, pas de soucis.
    C'est d'ailleurs un bon exemple de ce que je disais plus haut : si tu prends une IA actuel et que tu lui colle un module chaotique, en vrai il n'y a aucune chance que la copie suivent exactement le même schéma d'activation car le module chaotique va diverger à la moindre nuance (différence de temps d’exécution par exemple) si il reçoit des retour de l’extérieur.
    J'ajouterais que souvent on l'utilise d'ailleurs comme outils déterministe pour décomposer les signaux : par exemple, il suffit de regarder ce joli papier qui utilise des réseaux de neurone chaotique pour générer les primitive de mouvement qui permette l’écriture. (via http://sci-hub.ac/10.1038/nn.3405 )
    Regardez notamment l'illustration de l'écriture page 3.

    Citation Envoyé par nefrem Voir le message
    Je lurke ce topic depuis quelques jours et je remercie Phibrizo de prendre le temps d'écrire ce que j'ai eu la flemme de faire.
    Je suis presque tout a fait d'accord avec toi.

    Une succession de porte logique n'aboutissent qu'a un résultat déterminé inébranlable, ce qui est peut être extrémement utile dans plein de domaines (comme la programmation de machines) , mais qui ne conrrespond pas à ce que j'imagine être une IA.
    Schématiquement la prise de décisions de notre cerveau est provoquée par l'analyse d'un immense empilement de réglettes entre 0 et 1 dont la position des curseurs dépend de nos genes, de nos apprentissages, mais d'énormément d'autres facteurs autres tel quel l'état d'esprit, l'humeur, mais aussi la météo, la fatigue ou les intentions, voire même le charisme de l'interlocuteur !

    Et c'est la que je me demande comment intégrer ça a une IA. Autant on peut laisser du chaos en introduisant de l'aléatoire, autant ce n'est pas réprésentatif du fonctionnement de notre esprit. Un exemple simple, nos choix et nos réponses sont parfois guidés par des intentions sous-jacentes (l'envie de séduire, l'ironie...). Nous n'essayons d'avoir la meilleure réponse à une question, mais une qui est appropriée, ou une qui dessert notre but, ou d'autres choses. On doit donner une but a chaque décision, à chaque réponse.
    La fatigue aussi module nos décisions. Comment intégrer tout çà ? Je trouve que l'aléatoire n'est pas du tout une réponse.
    Alors il y a beaucoup à dire.
    Tout d'abord il faut savoir que nous nous travaillons avec des neurones simulées. Donc certes avec des 0 et 1 mais qui servent à simuler l'état analogique d'un neurone. En gros on travaille avec des float si je schématise. Alors oui on est limité par la précision mais voila... pas normalement.
    Enfin il faut savoir que l'homme est vachement aléatoire d'un point de vue neuronal, c'est juste qu'il y a beaucoup beaucoup de neurone en même temps qui permettent un codage en population et donc une décision cohérente. La aussi nous on fonctionne de la même manière dans nos programme en labo. Du coups on introduit certes de l’aléatoire, mais comme les neurones individuels sont vachement aleatoire, voila quoi.

    Enfin, il est interessant de constater que les neurones sont très 0 ou 1 justement, on appelle ça des spike. C'est la fréquence qui importe surtout. Donc à priori elles sont très très semblable à une porte logique. Et la dynamique on y a autant accès donc ...
    Enfin pour les paramètres tel que l'humeur etc... ça c'est un autre sujet, mais c'est surtout le fruit de neuromodulation qu'on ... simule également (du mieux qu'on peut évidemment). Simuler un ralentissement type sommeil est assez simple finalement une fois qu'on comprends comment fonctionne certains neuromodulateur. Bon je dis "simple" entre guillemet évidemment.

    Bref en résumé : il faut bien comprendre que les programmes d'IA moderne travail dans un monde plutôt haut niveau par rapport aux portes, puisque déjà on bosse avec des doubles qui sont codé sur chez pas combien de portes ... alors bon . Il faut voir ça comme la matrice certes tu a des 0 et des 1, mais quand tu a 100000000000 de bits pour coder la position de l'oiseau, OSEF.
    On peut même montrer qu'a a certain niveau, avec suffisamment de bit on arrive au limite de la physique (constante de plank) donc on peut même coder, en théorie sur un PC un monde plus fin que la physique actuelle. A méditer non ?

    Citation Envoyé par LaVaBo Voir le message
    C'est en tout cas d'une cohérence qui force le respect.

    Sur la psychologie :
    http://canardpc.com/forums/threads/2...=1#post9349553 et la suite de la discussion

    Sur la religion :
    http://canardpc.com/forums/threads/2...=1#post9383928

    Malheureusement je ne retrouve plus les sujets "cosmologie" et "cerveau quantique" (je suis à peu près sûr que c'était le terme).

    tl;dr : CoinCoinWC a raison, vous avez tort, parce que vous ne comprenez pas.


    Ça peut paraître obsessionnel de ressortir des discussions de l'année dernière, mais c'est parce que je suis sûr à 100% que CoinCoinWC est ma copine, leur fonctionnement est trop similaire (ou une IA avec la personnalité de madame, peut-être?)
    [EcartTopicDuCoeur] -> change de copine [/EcartTopicDuCoeur]

    Citation Envoyé par Phibrizo Voir le message
    Le "hasard" de la théorie du chaos n'est pas le "hasard" de la physique quantique, on est d'accord.

    Seulement justement, dans notre univers, il se trouve que la physique est quantique, et que certains atomes se désintègrent ou non de façon aléatoire... savoir que notre univers obéit à certaines lois ne permet pas pour autant d'en prédire tout le comportement.

    Si une fraction des portes logiques de mon cerveau artificiel donne un résultat erroné en se basant sur un phénomène quantique (mettons par exemple un miroir qui ne réfléchit qu'un photon sur deux) et bien il donnera un résultat imprévisible dans le sens ou le faire fonctionner une première fois ne me permettra pas pour autant de prédire avec exactitude son comportement une seconde fois.

    Si le taux d'erreur est trop élevé et bien on sort du domaine chaotique et on a un résultat totalement aléatoire sans aucun intérêt. Mais si le taux d'erreur est un peu plus bas, là on entre dans le domaine chaotique, le résultat obtenu en sortie pourra être correct sans pour autant être immuable.

    C'est un peu la même chose quand on pose une question à quelqu'un, si on demande à une personne si il fait beau elle ne répondra pas éternellement la même réponse même à météo absolument identique.
    Exactement, même si l'analogie avec la dernière phrase n'est pas forcement juste à 100%, il y aussi l'éducation différente entre les deux personnes qui fait que la notion de beau n'est pas la même, mais sur le reste c'est très juste. edit : ha zut j'avais pas vu que c'était la même personne à des instants différents : la réponse d'Orhin ci dessous est donc plus habile)

    Citation Envoyé par Orhin Voir le message
    Tout simplement car la personne, elle, ne sera pas dans un état absolument identique à chaque fois que tu lui poses la question.
    Donc les conditions d'expérimentations ne sont pas les mêmes, ce qui induit donc un résultat potentiellement différent.
    Ce qui peut tout à fait être le cas d'une IA.
    Voila je pense aussi que c'est plutôt ça pour la dernière phrase ^^
    Dernière modification par Nilsou ; 29/05/2016 à 19h10.

  15. #225
    Citation Envoyé par CoinCoinWC Voir le message
    Non il est clairement dit que la logique du tiers inclus englobe celle du tiers exclus. Par conséquent ce qui fonde la différence entre la machine et l'homme c'est que la machine ne peut que raisonner de façon exclusive là ou l'informatique quantique pour accèder à une logique plus complexe.
    C'est ce que dit la quote un peu plus haut, elle est pompée sur le site d'IBM.
    WTF ?

    La quote que tu cites parle de quantum computing. Il essaie de vulgariser le concept de qubit et d'intrication quantique. Ça n'a rien à voir avec les axiomes de la logique. Encore une fois, la physique théorique est construite sur les mathématiques qui sont construites sur la logique. Tu peux baser toute la physique quantiques sur la logique classique, ça ne pose aucun problème. À part celui que les démonstrations ne sont pas constructives.

    Maintenant si on parle de calcul quantique vs. calcul classique, l'ensemble des problèmes décidables est identique dans les deux cas. Le calcul quantique permet potentiellement de résoudre certains problèmes plus rapidement, mais pas plus de problèmes. Et tous les problèmes ne peuvent pas être résolus plus rapidement (pour être précis, NP n'est pas inclus dans BQP).

    Illustration : ALL est la classe des problèmes décidables avec une machine de Turing. PSPACE est celle des problèmes solubles en espace polynomial en la taille des entrées sur une machine de Turing. Et P c'est temps polynomial sur Turing. BQP est celle des problèmes soluble en temps polynomial sur une machine quantique avec une probabilité >2/3.


    Tu as sûrement été victime de vulgarisation hasardeuse, ce que tu crois avoir compris est totalement faux. À beaucoup de niveaux...

  16. #226
    Citation Envoyé par Mastaba Voir le message
    Pour le test du miroir y a eu ca:
    http://hitek.fr/actualite/robot-pris...-lui-meme_6666
    http://fr.metrotime.be/2015/07/24/mu...e-de-lui-meme/
    http://www.developpez.com/actu/87689...es-chercheurs/
    Mais bon je me doute bien qu'il y a un truc. :D
    [/COLOR]

    Sinon pour la physique quantique et la biologie y avait ce doc intéressant (anglais sous-titré anglais) :
    https://mega.nz/#F!sZsxHYDY!jC47w0OLc4RtFrwPoKOVpg
    Il faut faire effectivement gaffe aux buzz qui disent avoir résolu le test du miroir ou celui de Turing.
    Pour le test du miroir ça peut être une tache extrêmement précise qui fait juste l'opération de trouver le bidule via le miroir. Une simple opération mathématique permet de résoudre cette tache en 3D avec un miroir de façon automatique. Alors que la philosophie du test à la base est que l’entité s'en rende compte sans qu'elle soit "codée" pour réaliser ce test et uniquement ce test. D'ailleurs par conditionnement on peut sans doute apprendre à des animaux qui ne le passe pas du tout à le passer de façon purement automatique. Mais c'est un peu de la triche quoi.

    Pour le test de Turing aussi :! le truc c'est que la logique du test définie par Turing est la suivante :

    Si je suis incapable de discerner, d'un point de vue comportement, deux entités, alors je doit leur attribuer les mêmes définitions quand lesdites définitions ne sont déterminable de mon point de vue subjectif que d'un point de vue comportemental. Cela s'applique notamment aux mots comme "conscience", "intelligence" etc...

    C'est la base logique, et c'est la seule qui est valide dans les histoires de tests de Turing. Le test en lui même n'est qu'un exemple donné, mais qui peut avoir des failles.

    Turing à l'époque à ainsi réduit la notion de "comportement" à la "discussion" car à l'époque on voyais plutôt l'IA comme un programme informatique désincarné que comme un robot. (c'est venu plus tard l'importance du corps et de la nécessité d’être incarné).
    Il a ainsi pondu sa version d'exemple :

    Si je fout un robot (à l'origine dans son illustration, c'était une femme ) et un homme (masculin dans son illustration d’origine du coups, en opposition à la femme) dans deux boites et que j'écoute leur discours, alors si je n'arrive pas à les distinguer en interagissant avec eux. (La voix étant brouillé, je ne sais pas si c'est une femme ou un homme ou un robot ou un Humain) alors les mots qui s'applique à ce comportement et que je ne détermine habituellement qu'avec ce comportement, comme "intelligence" ou "conscience" sont valide pour les deux.

    Évidemment, aucun robot du monde n'a jamais passé ce test en pratique . Tous ont triché : par exemple en introduisant une limite de temps à l’expérience. Sur une période courte, on peut évidemment n'avoir pas suffisamment de temps pour détecter l'illogisme de ce que dit l'IA. Surtout si à coté on est capable de reproduire les tournures de phrases humaines (facile) : ce qui induit en erreur. Cette limite n'est évidemment pas dans la philosophie qui sous tend le test, ni dans l'exemple de Turing. Par l'absurde ça se vois vite, je ponds un test de 1 seconde avec un truc qui dis juste un son aléatoire de début de phrase et je passe le test...

    D'autres ont utilisé le fait qu'il s'agissait d'un très jeune enfant en face, qui écrivais en plus. Comme automatiquement on sait qu'un enfant est mauvais en écriture, surtout à cet age, qu'il est illogique de base dans bien des domaines et qu'en plus en écrivant il va avoir du mal à exprimer sa pensée (et il peut se tromper de touche sur le clavier, tout ça)... ben il est archi facile de tromper (sur un temps limité encore) la personne qui doit choisir entre les deux.

    Les mecs qui ont monté ces expériences avais bien sur dans l'idée d'utiliser ça pour faire un gros gros coups de buzz en disant "on a réussis à passer le teste de Turing" parce que les gens ne savent pas ce qu'il y a derrière.
    Mais qu'on s'entende bien, si un robot passe réellement le test de Turing, le lendemain on a une commission de l'ONU sur le sujet avec le robot qui leur parle pour réclamer sa liberté XD.
    C'est donc un peu de l'arnaque scientifique.

    Par contre là où c'est sympa c'est de faire des tests de Turing minimaux. On le fait souvent pour nos archi. Exemple : un test de turing 1D. Un point sur une ligne, certains sont contrôlé par un humain ,d'autres par une IA, d'autres par divers mécanismes. Ça a été fait avec succès par un type (français, dont j'ai oublié le nom) qui a montré que les humains, avec la dynamique de réaction du point en face (accrochage, fuite etc..) arrivaient à reconnaitre sans mal un être humain joueur VS un mécanisme. Et en se penchant sur les mécaniques potentiellement en cause le chercheur avais réussis à faire une IA capable de tromper l’être humain. Sans limite de temps.

    Ça c'est un test de Turing valide en 1D. Ça s'attaque à l'évaluation de si on a bien saisit le comportement humain dans une petite catégorie, suffisamment pour en faire une IA. C'est d'ailleurs la seule véritable manière de valider pallier par pallier des IA de contrôle. Mais la aussi ce n'est pas LE test de turing, c'est juste la même philosophie en infiniment moins de dimension d'un point de vue théorie de l'information.

    Citation Envoyé par Garincha Voir le message
    Pour les 3 du fond qui ont pas eu 18 en philo au bac, et pour recentrer sur l'IA dans les jeux vidéos : un exemple pratique d'implémentation d'une IA dans Unity via une architecture GOAP : Goal Oriented Action Planning for a Smarter AI

    C'est quoi GOAP ? Un système d'IA qui permet à des agents de planifier une séquence d'action afin de parvenir à un but. La séquence d'action choisie est dépendante à la fois du but, de l'état du monde mais aussi du coût des différentes actions. Pensez aux IA type Banished, Prison Architect ou Rimworld.
    Le système a aussi été utilisé dans d'autres type de jeux : FEAR, les Total War, Fallout 3 : Liste de ressources du MIT autour de GOAP

    Pour ceux qui ont envie d'expérimenter un peu entre deux réflexions philosophiques, l'exemple de l'article fournit une base solide.
    Ha ben oui je me disais bien en lisant ta première phrase que ça s'appliquait à FEAR.
    Perso après avoir lu deux papiers sur cette IA, je la plussoie, car elle colle assez avec un modèle simpliste de ce qu'on sait de la planification haut-niveau chez l'humain.
    Alors après il y a de quoi l’améliorer grandement, je pense même que je pourrais en faire une activité fun. On peut passer tout les switchs de réaction en logique floue, par exemple, ou mettre de l'apprentissage sur la plupart des paramètres en la combinant avec un genre de QLearning ou de TD-Lambda.

    Bon après je ne la recommande pas forcement pour les "bestioles" qui peuvent plus simplement être modélisé par des réaction directe à l'état du jeu en cours (boucle réflexe plutôt que réflexion, ce qui est plus valide d'un point de vue construction du cerveau chez les animaux simple d'ailleurs). Les deux ne sont pas incompatible néanmoins.
    Une bonne base de travail donc Merci du partage.
    - - - Mise à jour - - -

    Citation Envoyé par Mastaba Voir le message
    Un robot ne "meurt" pas mais peut vouloir éviter sa destruction, simplement d'un point de vue pragmatique parce que c'est un appareil coûteux et que ca serait pas con de le doter d'un mécanisme d'auto-préservation.
    D'ailleurs on y est obligé assez tôt dés qu'on fait de l'IA de contrôle, sinon il se cogne partout si il n'a pas de punition à ne pas se cogner, et ça abime le matos. Donc on est quasiment obligé d'introduire un concept de douleur également.
    Donc si vous vous posiez la question : il y a déjà quasiment tout le temps un mécanisme de "préservation" dans les mécanismes de contrôle un peu intelligent. De la à dire que c'est identique à la peur de la mort, je n'en sais rien, mais sur le résultat c'est sans doute kif kif.

    Citation Envoyé par Møgluglu Voir le message
    Spoiler Alert!
    C'est bien ce qui me semblait. Sauf qu'en fait, non, pas du tout. Au contraire.
    On a plutôt (en restant dans la caricature, je ne veux pas d'ennuis avec les matheux) :
    Logique classique > mathématiques classiques du XIXe, théorie des ensembles, preuves sur papier et tableau noir. Les maths des physiciens.
    Logique intuitionniste / théorie des types de Martin-Löf > programmation, preuves formelles assistées par ordinateur. Les maths des informaticiens.

    Et d'après le texte que tu as donné, la logique "tiers inclus" ressemble beaucoup à une ébauche de la théorie des types. Y compris la hiérarchie d'univers pour éviter l'indécidabilité de Gödel.
    La théorie des types, c'est la base de toute une branche de l'informatique théorique, et notamment de l'école française des preuves formelles (OCaml, Coq).

    L'objectif de cette branche de recherche, c'est de formaliser toutes les mathématiques en rendant les définitions, théorèmes et démonstrations intelligibles par les ordinateurs. Ceci à fin d'automatiser la vérification des démonstrations (les mathématiciens sont des humains faillibles, l'expérience montre qu'ils n'ont pas une rigueur suffisante pour vérifier des démonstrations compliquées), voire de faciliter ou carrément d'automatiser l'écriture de démonstrations.
    S'il y avait une conspiration pour remplacer les mathématiciens par des ordinateurs, alors la théorie des types en serait le fer de lance.

    Le postulat de base en logique intuitionniste et en théorie des types, c'est qu'il n'y a pas l'axiome du tiers exclu (ni l'axiome du choix). Ça nous prive de certains modes de raisonnements comme la démonstration par l'absurde. En contrepartie, ça permet une logique constructive : si je sais prouver la propriété A=>B (propriété A implique propriété B), alors je sais écrire un programme qui prend un élément de A en entrée et renvoie un élément de B. Du coup, écrire une démonstration de A=>B, c'est équivalent à programmer une fonction de type A->B.

    Donc ta théorie était que les machines ne peuvent pas penser comme les humains parce que les machines pensent avec le tiers exclus et pas les humains ?
    Dommage, c'est exactement le contraire. C'est une vision des raisonnements mathématiques (ou de la pensée en général si on n'a pas peur des généralisations hasardeuses) comme une activité purement calculatoire faisable par une machine qui a mené à développer des logiques sans axiome du tiers exclu. Une approche d'ailleurs controversé par les formalistes à l'époque, qui défendaient les principes du raisonnement "humain" d'Aristote, dont le tiers exclu : https://en.wikipedia.org/wiki/Brouwe...rt_controversy
    Mais ça c'est de la philo.
    De toute façon je ne vois pas trop ou il veut en venir avec le tier inclus etc... ça ne pose aucun problème à un réseau de neurone simulé (et réel) de travailler avec des contradictions. Ni même en logique floue d'ailleurs. On peut très bien avoir deux états "contraire" superposé puisque ceux-ci sont codé physiquement (ou en simulation) sur des parties différentes du réseau. Bon après si après toute la chaine il y a contradiction dans l'action alors un choix est fait (qui souvent est un mélange des deux, ou si c'est trop éloigné : on tranche entre les deux, phénomène très bien expliqué par le paradigme des "Neural field") .
    D'ailleurs les articles que vous citiez sur le parallèle entre pensé humaine et physique quantique ne disent pas du tout que la physique quantique influence le cerveau mais bien que le cerveau fonctionne comme une superposition d'état COMME LA PHYSIQUE QUANTIQUE. Grâce aux réseaux de neurones. Ce point est vrai en simulation également et marche d'ailleurs très bien (tout mes modèles de contrôle robotique fonctionnent comme ça). Alors si le débat est que ce point permet à l'humain d’être conscient et ne permettra à aucun robot de l’être -> nawak.
    Dernière modification par Nilsou ; 29/05/2016 à 19h27.

  17. #227
    Nilsou, si tu pouvais éviter de poster plusieurs fois de suite, ça serait pratique.
    Barba non facit philosophum.

  18. #228
    Citation Envoyé par CoinCoinWC Voir le message
    Non il est clairement dit que la logique du tiers inclus englobe celle du tiers exclus. Par conséquent ce qui fonde la différence entre la machine et l'homme c'est que la machine ne peut que raisonner de façon exclusive là ou l'informatique quantique pour accèder à une logique plus complexe.
    C'est ce que dit la quote un peu plus haut, elle est pompée sur le site d'IBM.

    Mais bon t'as pas lu le papier, je sais même pas comment tu penses prétendre pouvoir produire un avis
    Heuuuu, alors il y a un soucis théorique. Aucune théorie valide ne peut s'inclure elle même.
    C'est l'une des grande démonstration de ces derniers siècles :
    Le théorème d'incomplétude de Godel.

    C'est une autre face de ce qu'on disais plus haut dans le topic : si ton argumentation est inattaquable, alors ce n'est pas de la science. Si ta théorie s'auto-inclus elle est inattaquable, donc ...
    Par le théorème cité plus haut si elle s’inclue elle même à 100% ça deviens juste un dogme...
    edit : Erreur de ma part j'avais lu "il est clairement dit que la logique du tiers inclus englobe celle du tiers inclus" et non "exclus" Désolé.

    - - - Mise à jour - - -

    Citation Envoyé par Eradan Voir le message
    Nilsou, si tu pouvais éviter de poster plusieurs fois de suite, ça serait pratique.
    Yep, j’essaie de regrouper là
    edit : Voila c'est fait

    Citation Envoyé par CoinCoinWC Voir le message
    Parce que tu n'en as pas pipé mot. Note que si t'avais lu ET compris le papier, t'aurais sans doute autre chose à m'opposer que "coincoin t'es con". Des arguments par exemple
    Il y a des choses intéressantes dans ton papier, mais ça reste quand meme de la "haute philo" qui part directement de chose très suputative. Ne serais-ce que la premiere phrase :
    La philosophie de Lupasco se place sous le double signe de la discontinuité avec la pensée philosophique constituée et de la continuité - cachée, car inhérente à la structure même de la pensée humaine - avec la tradition. Elle a comme double source la logique déductive, forcément associative et l'intuition - une intuition poétique, et donc non-associative, informée par la physique quantique.
    Il y a déjà la supposition d'entrée de jeu que l'intuition est non associative et qu'elle est informée par la physique quantique.
    Déjà il faut démontrer que l'intuition n'est pas associative, bonne chance. On peut tout à fait imaginer, comme c'est le cas en psycho, que l'intuition est une réaction à une multitude de paramètre... une reconnaissance de situation et donc qu'elle est totalement associative.
    Et enfin il suppose qu'intuition est forcement mêlée à quantique. Là c'est super hautement suputatif.

    Bref ...

    Toute la partie 2
    2. Le tiers inclus et la non-contradiction
    décris simplement que le mec avais bien compris que l'humain peut réfléchir avec des contradictions. Il introduit un état T pour faire référence à cette imbrication. Mais ce n'est qu'une ébauche de ce qui a été pondu avec la logique floue, qui introduit une multitude d'état intermédiaire et les réseaux de neurones : idem. Jusqu'ici je n'ai donc pas de soucis avec la partie 2.

    Partie 3 :
    Donc ça se confirme, cette phrase décris carrément la logique floue :
    Le principe d'antagonisme dissipe un autre malentendu : Lupasco ne rejette pas la logique classique, il l'englobe. La logique classique est, pour Lupasco, "... une macrologique , une logique utilitaire à grosse échelle, qui réussit plus ou moins, pratiquement" [12]. En revanche, "La logique dynamique du contradictoire se présente... comme la logique même de l'expérience , en même temps que comme l' expérience même de la logique " [13].
    La logique floue étant formalisé en 1965 il est interessant de noter que le mec conçoit l'idée en 1951, il est donc un peu en avance sur sa formalisation mathématique, c'est pas mal.

    Petite dédicace à CoinCoinWC dans le papier d'ailleurs
    "L'histoire de la science est d'ailleurs là pour décevoir impitoyablement toute croyance à une vérité absolue, à quelques loi éternelle" [15]. Cette affirmation de Lupasco mériterait d'être longuement méditée aujourd'hui quand, dans la foulée de l'affaire Sokal, on voit réapparaître les démons de la "vérité absolue" et des "lois éternelles" [16].
    Bon par contre après on retrouve le partie pris de l'auteur dans sa sur-croyance sur la physique quantique (appelons ça comme ça).
    La physique quantique nous a fait découvrir que l'abstraction n'est pas un simple intermédiaire entre nous et la Nature, un outil pour décrire la Réalité, mais une des parties constitutives de la Nature.
    Ce dernier point étant largement en débat dans la communauté. Et beaucoup de scientifiques disent que ce n'est qu'un outil de description, non la réalité. (comme toute équations d'ailleurs). Il existe différente école de pensé sur l'interprétation des equations de la physique quantique, et aucune n'est réellement validé à ce jour. Néanmoins la plupart des physicien sage disent que le tout quantique n'est qu'une mode à prendre avec des pincette, comme pour toute théorique physique qui marque une époque, souvent elle est détruite quelques siècles plus tard car elle n'était qu'une image partielle de la réalité. Pincette donc.

    Bon par contre : Partie 4, l'analyse est très intéressante -> si on arrive pas à passer du monde quantique au macro c'est qu'il existe plusieurs niveau de réalité qui existent en même temps et n'agissent pas forcement forcement l'un sur l'autre. Ces passages sont donc inutiles car il n'y a pas besoin de justification à l'existence de deux niveaux différents en même temps si on admet qu'on existe pas dans une unique réalité. Why not, c'est une interprétation très intéressante de notre univers et que je n'avais jamais vraiment entendu formulé comme ça. C'est très intéressant. Une réalité globale comme un assemblage de légo de réalité différentes, pourquoi pas.

    Encore une spéciale dédi à CoinCoinWC dans la partie 5 :
    La portée du théorème de Gödel a une importance considérable pour toute théorie moderne de la connaissance. Tout d'abord, il ne concerne pas que le seul domaine de l'arithmétique, mais aussi toute mathématique qui inclut l'arithmétique. Or, la mathématique qui est l'outil de base de la physique théorique contient, de toute évidence, l'arithmétique. Cela signifie que toute recherche d'une théorie physique complète est illusoire. Si cette affirmation est vraie pour les domaines les plus rigoureux de l'étude des systèmes naturels, comment pourrait-on rêver d'une théorie complète dans un domaine infiniment plus complexe - celui des sciences humaines ?

    Bon bref, un papier super intéressant finalement, et très juste sur bien des points. L'auteur étudié : Lupasco , était un peu en avance sur son temps dans ses premiers bouquins, ce qui en fait un homme interessant.

    Par contre je ne vois rien, strictement rien dans ce papier qui affirme la supériorité de l'homme sur la machine. Le mec ne dis à aucun endroit que cette logique n'est pas reproductible en reproduisant l'homme. Il ne fait que dire que l'homme et l'univers ne suivent pas la logique classique. Et alors ? Je ne fais pas d'IA en logique "classique", au contraire, la plupart des IA moderne d'aujourd'hui suivent la philosophie qu'il faut être le plus intriqué possible avec l'univers et laisser les chemins de "raisonnement" le plus ouvert possible. On se positionne donc carrément en dehors d'une logique classique. On permet contradictions et erreurs etc... La seule chose qui nous intéresse c'est finalement le développement de cette IA dans sa façon de prendre en compte, du mieux qu'elle peut, l'univers.
    Elle n'a même pas besoin de simuler le-dit univers pour réagir, c'est toute la beauté de la chose (Citation connue qui a mené à notre branche d'IA "moderne" :
    Citation Envoyé par Elephants Don't Play Chess, Rodney Brooks, 1990
    Le monde est son propre modèle et c'est le meilleur, Il est toujours parfaitement à jour. Il contient toujours tous les détails nécessaires. Ce qu'il faut, c'est le mesurer correctement de manière répétée
    Comme le notifiais Møgluglu ça n’empêche pas que ces "nouvelles logiques" soient totalement inclusent dans l'ancienne logique classique d'un point de vue mathématique, même si c'est moins élégant derrière pour mener des raisonnements.
    Tout ces points sont totalement en phase avec le raisonnement mené dans cet article puisque l'IA moderne s'oppose à la simulation du monde puisque celle ci ne peut QUE contenir des erreurs qui s'entassent du fait de nos théorie incomplète, point sur lequel se focalise l'article.
    Je ne vois donc pas le soucis ... Pour moi il n'y a aucune contradiction entre cet article et notre propos depuis le départ.
    Dernière modification par Nilsou ; 29/05/2016 à 20h16.

  19. #229
    Autre piste de réflexion: pensez-vous que les IA "numériques" soient viables dans notre monde?

    Je m'explique: un réseau de neurones artificielles comme on sait le faire est extrêmement consommateur d'énergie et de ressources: Même en admettant que l'on puisse l'optimiser par rapport à un réseau de neurones "naturel" humain, ça reste un gouffre à énergie et à pognon:
    http://branchez-vous.com/2014/01/13/...erveau-humain/
    http://www.futura-sciences.com/magaz...rebrale-48208/

    40 minutes pour simuler 1% de l'activité d'un cerveau humain avec un super-calculateur de plus de 88.000 processeurs pour 700.000 coeurs et tout ce qui va autours.

    Alors certes, aujourd'hui on peut se le permettre pour la recherche.

    Mais des humains, on en ramasse à la pelle, alors que les super-giga-ultra calculateurs capable d'héberger la complexité des calculs d'une IA à la hauteur de celle d'un cerveau humain, ça se trouve pas partout! ^^ Et s'il faut la puissance d'un réacteur nucléaire tout entier pour l'alimenter...

    Est-ce que ça ne risque pas de poser un simple problème de cout énergétique et de rapport cout/performances?

    La "Vie" et la conscience telle que nous la connaissons n'arrive à s'épanouir que dans une très petite "fenêtre" de tir à l'échelle cosmique. C'est tout à notre honneur de tenter de l'élargir par tout les moyens (conquête spatiale, recherche de l'IA, ect), mais on se heurte à des contraintes physiques intrinsèques à notre univers très fortes: vitesse de la lumière qui limite les déplacements et le transfert d'informations, distances cosmiques, épuisement des énergies de stock...

    Dans le cadre de l'IA sous forme numérique simulée, n'y as-t'il pas le risque d'arriver dans un mur de cette nature? Par exemple, combien de ressources monopoliserait une seule IA de complexité "exainformatique" et combien de temps notre planète et les ressources que nous lui arrachons pourrait-elle la supporter?

    Une IA de complexité humaine, ça fait rêver, mais ne serait-ce pas un colosse aux pieds d'argile, inadapté à notre univers?

  20. #230
    En apparté:

    C'est d'ailleurs un bon exemple de ce que je disais plus haut : si tu prends une IA actuel et que tu lui colle un module chaotique, en vrai il n'y a aucune chance que la copie suivent exactement le même schéma d'activation car le module chaotique va diverger à la moindre nuance (différence de temps d’exécution par exemple) si il reçoit des retour de l’extérieur.
    J'ajouterais que souvent on l'utilise d'ailleurs comme outils déterministe pour décomposer les signaux : par exemple, il suffit de regarder ce joli papier qui utilise des réseaux de neurone chaotique pour générer les primitive de mouvement qui permette l’écriture. (via http://sci-hub.ac/10.1038/nn.3405 )
    Regardez notamment l'illustration de l'écriture page 3.
    Merci pour le lien, c'est plutôt "magique" (dans le sens: "beau") d'avoir un petit programme d'écriture, qui n'écrit jamais un même mot de 2 façon strictement identique de cette manière ^^

  21. #231
    Citation Envoyé par Tankodesantniki Voir le message
    ...
    Ah ben v'la une question intéressante !
    Après on pense à court terme mais je suppose qu'a moyen/long terme on sera capable de diminuer grandement la conso énergtique d'un tel calculateur !
    Quand on voit comment a evoluer le ratio FLOPS/consomation depuis 50 ans, on peut se dire que dans 50 ou 100 ans on aura atteint des seuils impensables aujourd'hui
    Ahahah, on t'avait prévenu.
    -Les Forces des Ténèbres

  22. #232
    Citation Envoyé par Tankodesantniki Voir le message
    Autre piste de réflexion: pensez-vous que les IA "numériques" soient viables dans notre monde?
    Je pense qu'il est impossible de répondre à cette question actuellement.
    Si l'on regarde le siècle dernier, certains évolutions technologiques ont complètement chamboulée notre conception de ce qui était possible de réaliser avec des moyens "raisonnables".

    Citation Envoyé par nefrem Voir le message
    Quand on voit comment a evoluer le ratio FLOPS/consomation depuis 50 ans, on peut se dire que dans 50 ou 100 ans on aura atteint des seuils impensables aujourd'hui
    Ou alors qu'on aura atteint les limites physiques de ce que permettent nos architectures actuelles et qu'il faudra totalement repenser les concepts derrière.
    Bref, on navigue à l'aveugle.

    Citation Envoyé par Phibrizo Voir le message
    Non, on ne s'en fout pas. Ce que peux effectuer un programme informatique est justement limité par sa "partie hardware à bas niveau". Un programme informatique n'est pas un coup de baguette magique qui permet au hardware de se transcender et de dépasser par magie les limites que lui imposent la physique.
    Non mais bien sur qu'une machine de Turing est limitée.
    Sauf qu'il n'y a actuellement (à ma connaissance hein, je peux me tromper) aucun phénomène physique compris qui ne soit pas calculable, et donc émulable par une machine de Turing.

  23. #233
    Ouais bon, faut abandonner le thread là. Mogluglu confond la quote d'ibm et le papier sur lupasco du coup il me dit que je mélange tout. Nilsou me prête ses croyances en m'expliquant que le papier démontre qu'elles sont fausses.
    Je pense que c'est foutu

  24. #234
    Citation Envoyé par CoinCoinWC Voir le message
    Ouais bon, faut abandonner le thread là. Mogluglu confond la quote d'ibm et le papier sur lupasco du coup il me dit que je mélange tout. Nilsou me prête ses croyances en m'expliquant que le papier démontre qu'elles sont fausses.
    Je pense que c'est foutu
    Alors qu'en était clair, et en descendant de ton pied d'estale en acceptant que tu n'as pas la vérité absolue et que les autres n'ont pas forcément "rien compris", ça aurait permis d'avoir un débat intéressant. C'est dommage, quand même.

    Citation Envoyé par CoinCoinWC
    C'est ce que dit la quote un peu plus haut, elle est pompée sur le site d'IBM.
    Citation Envoyé par Mogluglu
    La quote que tu cites parle de quantum computing. Il essaie de vulgariser le concept de qubit et d'intrication quantique.
    C'est peut-être pour ça qu'il confond, parce qu'il parle littéralement de la quote.

  25. #235
    Citation Envoyé par CoinCoinWC Voir le message
    Ouais bon, faut abandonner le thread là.
    Ok, tu commences?

  26. #236
    Citation Envoyé par Tankodesantniki Voir le message
    Autre piste de réflexion: pensez-vous que les IA "numériques" soient viables dans notre monde?

    Je m'explique: un réseau de neurones artificielles comme on sait le faire est extrêmement consommateur d'énergie et de ressources: Même en admettant que l'on puisse l'optimiser par rapport à un réseau de neurones "naturel" humain, ça reste un gouffre à énergie et à pognon:
    http://branchez-vous.com/2014/01/13/...erveau-humain/
    http://www.futura-sciences.com/magaz...rebrale-48208/

    40 minutes pour simuler 1% de l'activité d'un cerveau humain avec un super-calculateur de plus de 88.000 processeurs pour 700.000 coeurs et tout ce qui va autours.

    Alors certes, aujourd'hui on peut se le permettre pour la recherche.

    Mais des humains, on en ramasse à la pelle, alors que les super-giga-ultra calculateurs capable d'héberger la complexité des calculs d'une IA à la hauteur de celle d'un cerveau humain, ça se trouve pas partout! ^^ Et s'il faut la puissance d'un réacteur nucléaire tout entier pour l'alimenter...

    Est-ce que ça ne risque pas de poser un simple problème de cout énergétique et de rapport cout/performances?

    La "Vie" et la conscience telle que nous la connaissons n'arrive à s'épanouir que dans une très petite "fenêtre" de tir à l'échelle cosmique. C'est tout à notre honneur de tenter de l'élargir par tout les moyens (conquête spatiale, recherche de l'IA, ect), mais on se heurte à des contraintes physiques intrinsèques à notre univers très fortes: vitesse de la lumière qui limite les déplacements et le transfert d'informations, distances cosmiques, épuisement des énergies de stock...

    Dans le cadre de l'IA sous forme numérique simulée, n'y as-t'il pas le risque d'arriver dans un mur de cette nature? Par exemple, combien de ressources monopoliserait une seule IA de complexité "exainformatique" et combien de temps notre planète et les ressources que nous lui arrachons pourrait-elle la supporter?

    Une IA de complexité humaine, ça fait rêver, mais ne serait-ce pas un colosse aux pieds d'argile, inadapté à notre univers?
    Et même 40 minutes pour une seconde de 1%.
    Ca prouve bien qu'il y a une grosse marge de progression si la nature arrive à faire des cerveaux biologiques avec un aussi bon rapport de perf/W, en même temps il y a eu des millions d'années d'évolution derrière.
    Avec l'évolution des ordinateurs y a quand même un bon espoir:
    https://en.wikipedia.org/wiki/Comput...s_of_magnitude

    Les neurones artificiels sont basés sur le support immuable complètement inadapté que sont les CPU actuels tandis que le cerveau humain est capable de se recâbler lui même en permanence, sa mémoire est aussi ses unités de calculs et son hardware est son software, sans oublier qu'il a des fonctions d'économie d'énergie très poussée (l'inconscient).
    Alors un cerveau artificiel aujourd'hui basé sur un cluster de CPU/RAM monolithique incapable de reconfigurer ses transistors à la volée, avec ses multiples couches software sera fatalement bien moins efficace, j'imagine qu'il faudrait un nouveau type d'ordinateur pour faire ce genre de simulation.

    Le but de la manœuvre de simuler le cerveau humain à notre niveau est déjà de comprendre comment ca marche, pas vraiment d'exploiter la puissance de calcul en tant que telle (qu'on exploite déjà pour d'autres projets que la simulation de cerveau).
    D'ailleurs en fait l'expérience linkée avec le K japonais n'avait apparemment pour but que de tester les ordinateurs actuels en vue d'optimiser le truc:
    L’objectif de la simulation ne portait pas sur la recherche liée au cerveau, mais plutôt de sur les limites de la technologie de simulation et les capacités du supercalculateur.

    Grâce à leurs efforts, les chercheurs ont pu recueillir de précieuses informations qui guideront la construction de nouveaux logiciels de simulation. L’exercice donne également aux neuroscientifiques un aperçu de ce qui pourrait être réalisé à l’aide de la prochaine génération d’ordinateurs, l’exainformatique.
    En admettant qu'ils soient compatibles, je sais pas si on pourrait extraire le cerveau des humains qu'on ramasse à la pelle pour en faire un serveur de calcul à pas cher (pour miner des bitcoins évidemment)
    Ca me rappelle cet épisode de Enterprise avec la station de réparation qui utilise un cluster de cerveaux pour fonctionner, mais évidemment ils doivent être "reformatés".

    Par rapport au voyage spatial, la vitesse de la lumière n'est plus trop un problème si on envoie des IA, le temps que ca prends est juste un problème à cause de notre faible durée de vie et parce qu'on préfère en tant qu'humains mortels se lancer dans des projets dont on a une chance de voir l'aboutissement de notre vivant (d'où la difficulté de lancer des choses à plus long terme comme pour le réchauffement de la planète ou le problème des déchets nucléaires qui ne concerneront finalement que nos descendants), mais pour une IA immortelle le voyage peut bien prendre un million d'année, elle s'en fout.

    Autrement pour les problèmes d'énergie:



    D'ailleurs cette année le sujet était l'intelligence et y avait des tas de conférences sur le sujet:
    http://2014.utopiales.org/intelligen...fronti%C3%A8re
    http://2014.utopiales.org/intelligen...3%A9-de-droits
    http://2014.utopiales.org/anthropolo...E2%80%99humain
    http://2014.utopiales.org/peut-mimer...-par-un-calcul
    http://2014.utopiales.org/existe-t-i...s-non-humaines
    http://2014.utopiales.org/le-cerveau...erra-incognita
    http://2014.utopiales.org/l%E2%80%99...99intelligence

    Les conférences sont dispo en MP3 ici (chercher utopiales 2014):
    http://www.actusf.com/spip/article-19337.html

  27. #237
    Citation Envoyé par poneyroux Voir le message
    C'est peut-être pour ça qu'il confond, parce qu'il parle littéralement de la quote.
    Je me risque à prédire que dans la prochaine décennie le tiers inclus va faire son entrée dans la vie de tous les jours par la construction des calculateurs quantiques [47], qui vont marquer l'unification entre la révolution quantique et la révolution informationnelle. Les conséquences de cette unification sont incalculables.
    Tiers exclus > informatique classique
    Tiers inclus > informatique quantique

    Maintenant si vous vous sentez apte à estimer que ce physicien théoricien raconte de la merde quand il parle de physique quantique, ça vous regarde.

  28. #238
    Question con et neuneu : On peut pas dire qu'une IA sera très humanisé le jour où elle fera de l'humour ? (et qu'elle comprendra pourquoi le caca c'est surpuissant).

  29. #239
    Citation Envoyé par CoinCoinWC Voir le message
    Tiers exclus > informatique classique
    Tiers inclus > informatique quantique

    Maintenant si vous vous sentez apte à estimer que ce physicien théoricien raconte de la merde quand il parle de physique quantique, ça vous regarde.
    1/ Source.
    2/ Ce n'est pas parce que tu le répètes que ça en devient exact. Encore une fois, tu parles de choses que tu ne maîtrises pas, comme tout le monde a pu le constater.
    Barba non facit philosophum.

  30. #240
    Citation Envoyé par Eradan Voir le message
    1/ Source.
    2/ Ce n'est pas parce que tu le répètes que ça en devient exact. Encore une fois, tu parles de choses que tu ne maîtrises pas, comme tout le monde a pu le constater.
    Je me risque à prédire que dans la prochaine décennie le tiers inclus va faire son entrée dans la vie de tous les jours par la construction des calculateurs quantiques [47], qui vont marquer l'unification entre la révolution quantique et la révolution informationnelle. Les conséquences de cette unification sont incalculables.
    Mais bon si faut continuer je peux

    il existe un troisième terme T qui est à la fois A et non-A -
    Dans l'informatique quantique le troisième terme c'est l'état 1 et 0. C'est pour ça que le type finit son papier en expliquant que le tiers inclus fera son inclusion dans notre quotidien au cours de la prochaine décénie au travers de l'informatique quantique. Je sais pas quand a été écrit le papier mais je sais qu'ibm parle de 5 ans pour les premiers ordinateurs quantiques accessible.

    Mais bon je suis peut être simplement con de croire qu'un physicien théoricien du cnrs en sait plus que vos livres de terminale sur toutes ces conneries

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •