Ce qui me gène la dedans c'est que finalement, ce n'est qu'un système aléatoire ou l'on détermine la part d'aléatoire. Un bon vieux jet de dés ou on choisit juste le nombre de dés.
La pensée humaine ne fonctionne pas comme ça. Elle est extrémement variable parce qu'elle est impactée par un nombre infini de facteurs qui forment un tout et amène à une prise de décision. Les différences viennent des variations de cette infinité de facteurs, pas d'une combinaison d'élements aléatoires.
Il n'est de plus pas possible de séparer le cerveau du reste du corps. Je ne réfléchis pareil si j'ai froid, si j'ai faim, si je suis tout nu... pour l'instant j'ai l'impression qu'on ne pense IA qu'en terme algorithmique, mais l'intelligence humaine n'est pas dissociable d'autres éléments qui ne sont pas liés au processus de pensée même, mais à d'autres processus physiques, environnementaux.
Edit : et quid des pressions de notre cerveau reptilien : la peur de mourir, le besoin de se reproduire. La survie est un mécanisme fondamental qui impacte énormément nos prise de décisions. Aucun algorithme ne peut donner l'instinct de conservation de l'espèce. Et personnellement je trouve que c'est la qu'on commencera a avoir une IA cohérente, quand elle s'inquietera de sa pérénité.
Désolé si je suis hors sujet, je suis neurobio de formation (il y a longtemps), et je suis intrigué de savoir s'il est possible de simuler des comportements aussi multi-factoriels dans des machines. Et d'ailleurs, a quelle moment ce n'est plus de la simulation ?
Dernière modification par nefrem ; 26/05/2016 à 15h16.
Ahahah, on t'avait prévenu.
-Les Forces des Ténèbres
Tout simplement car la personne, elle, ne sera pas dans un état absolument identique à chaque fois que tu lui poses la question.
Donc les conditions d'expérimentations ne sont pas les mêmes, ce qui induit donc un résultat potentiellement différent.
Ce qui peut tout à fait être le cas d'une IA.
Sauf qu'on s'en fout de la partie hardware à bas niveau.
Si à partir de ça tu peux simuler des états multiples et des valeurs non entières (ce qui se fait depuis des lustres), tu peux représenter (et donc émuler) les états chimiques réels.
Non.
1) Il n'y a pas que les entrées externes, il faut prendre aussi en compte l'état interne de ton programme.
Comme pour ta mémoire en fait.
2) Son fonctionnement peut tout à fait être modifié dynamiquement, par le programme lui même.
Tout comme le cerveau qui réorganise en permanence ses neurones.
Un peu comme un transistor, quoi ?
(Voir le phénomène de métastabilité.)
En passant, la machine avec laquelle tu postes a probablement un générateur aléatoire matériel qui utilise du bruit thermique pour générer de l'aléa. Construit à 100% avec des portes logiques.
Un peu comme le réseau de neurones d'un algo de deep learning quoi ?
Sérieusement, s'il y a bien quelque chose de facile à faire en IA, c'est bien tout ce qui est réactions instinctives, émotions, et cerveau reptilien. Tant que c'est de la chimie et des boucles de rétroaction, ça se simule très bien avec du soft, pour peu qu'on connaisse les bons paramètres. Avec des algos déterministes ou stochastiques, peu importe, on sait faire les deux. (Simuler un système complexe chaotique se fait bien, tant qu'on essaie pas de prédire son évolution à long terme. On sait même l'analyser en termes d'attracteurs, de bassin de stabilité et tout ça.)
C'est de faire émerger un raisonnement rationnel à partir d'un blob de neurones qui est un problème ouvert pour encore un moment.
Peut-être que l'expert du topic pourra nous éclairer un peu plus, mais il n'y a pas que les systèmes binaires pour faire de l'IA, il y a aussi les réseaux de neurones analogiques.
Contrairement aux système informatique classiques qui ne fonctionnnent qu'avec des portes logiques fortement synchronisées, l'idée est de faire des circuits asynchrones dont le comportement électrique et similaire à celui d'un neurone (et non pas une simulation de ce comportement), Intel planche sur une puce accélératrice basée sur ce concept d'ailleurs.
De ce que j'ai retenu, les avantages sont qu'on a une efficacité très supérieure (à la fois en vitesse de traitement et en énergie), mais par contre ça a un côté "boîte noire" car on ne peut pas contrôler précisément ce qui se passe au sein du réseau à un instant donné.
J'aimerai bien voir la tête d'un algo qui simule l'impact de la fatigue, ou la nécessité de se reproduire par exemple.
Et si tu simules la peur de mourir c'est bien joli mais c'est fictif et hors de propose pour quelque chose de non vivant d'un point de vue biologique
Je suis candide dans le domaine des IA hein, c'est des questions naïves.
J'ai toujours du mal a me dire qu'il est possible de créer "quelque chose" qui ait conscience d'être ... ben "quelque chose", et que ne soit pas juste une émulateur/simulateur de pensée.
Edit : Encore une fois c'est surement naif de ma part, mais j'ai une vision surement un peu SF des IA. Je ne m'attends pas a une entité qui sache répondre A ou B a une question, mais a une entité qui ait conscience d'exister et qui s'inquiète de sa pérénité (survie, reproduction sous quelque forme que ce soit).
Ahahah, on t'avait prévenu.
-Les Forces des Ténèbres
C'est l'une des questions les plus traitées dans la SF, les IA qui ont peur de la mort/destruction. C'est d'ailleurs souvent le détonateur qui rend le robot agressif envers les humains.
De HAL9000 au robot d'I, Robot, en passant par les replicants ou skynet, il y a foule d'exemples.
C'est vraiment deux niveaux d'"intelligence" très différents. Tu n'as pas besoin d'être conscient (disons, au sens d'avoir conscience d'être quelque chose) pour ressentir la fatigue, vouloir te reproduire ou avoir peur de mourir. Du point de vue robotique, la fatigue et la peur sont des entrées de capteurs et détecteurs, la reproduction est un objectif câblé en dur. Avec ça on peut tout à fait reproduire le comportement d'un animal simple, genre un insecte ou même un reptile. Il pourra adapter son comportement à la charge de sa batterie (fatigue) et au danger perçu (peur) et chercher à se reproduire. On n'a pas besoin de jouer la carte "conscience" pour faire ça.
Après, pour reproduire une bestiole plus complexe, genre un primate qui passe le stade du miroir (pour ne pas parler de conscience humaine), c'est beaucoup plus compliqué et on ne sait pas faire pour l'instant.
Pour ça faut doter la machine d'un ersatz d'image de soi. La conscience elle se signe par l'aptitude à se représenter soi même. Rapport au corps.
Jamais un robot ne pourra se représenter lui même, par contre on peut lui créer une fonction qui lui permette d'avoir une image de l'autre et de la comparer à l'image qu'il a de lui même. Ca lui permettrait de traiter l'information émotionnelle qui lui parvient de l'autre et de la mettre en perspective avec son état émotionnel artificiel afin de s'adapter en fonction de son identité. Tout en adaptant son identité à son état émotionnel.
C'est par le biais de cet ersatz d'image de soi que tu peux amener un robot à prétendre se soucier de sa pérénité.
Le problème de compréhenson pour moi, c'est que la peur de mourir ne peut pas être séparer de la conscience d'exister. Un insecte n'a pas peur de mourir, il a juste des mécanismes biologiques/chimiques/mécaniques bien foutus mais assez simples qui lui donnent les meilleurs chances de rester en vie. Mais c'est du domaine du binaire (ombre a droite je vais a gauche, vibration en haut et je vais en bas). Il ne court pas en se disant "Faut que je reste en vie putain faut que je reste en vie". Quand on parle d'IA, on parle intelligence donc je suppose qu'on parle de quelque chose de différent (même si je me doute que simuler le comportement d'un insecte doit une etre une merdier sans nom avec un algorithme gros comme un codex Warhammer).
Mais je suis hors sujet en fait, je m'en rends compte.
Et au fait, rien a voir, une IA c'est du code, comment elle se reconnaitra dans le miroir pour nous prouver qu'elle a conscience d'exister ?
Mais encore une fois on est dans la simulation. Donc dans quelque chose de fictif non ?
Ahahah, on t'avait prévenu.
-Les Forces des Ténèbres
Totalement. Mais la fiction peut être suffisament crédible pour donner une illusion de conscience.
Par contre en absence de corps, tu pourras jamais parler de conscience. Par contre je serais pas étonné qu'on soit un jour capable de créer un bout de viande et de l'associer à une IA. De réaliser un frankenstein.
Je ne crois pas que c'est hors sujet. Il me semble que si tu as vraiment peur, genre panique, les mécanismes de survie de ton cerveau reptilien prennent le dessus sur ta réflexion consciente, et le fonctionnement est a priori le même que celui du reptile, justement. Grosso-modo, l'IA actuelle en est là.
C'est quand tu n'as pas peur que tu peux réfléchir consciemment et faire de la philo sur ta condition d'humain et ta place dans l'univers. Sinon tu coures le plus vite possible, c'est tout.
Bah tu lui peins un tache sur l'écran, et tu regardes s'il essaie de se gratter avec son bras robotisé USB quand il voit son reflet à travers la webcam, facile.Et au fait, rien a voir, une IA c'est du code, comment elle se reconnaitra dans le miroir pour nous prouver qu'elle a conscience d'exister ?
"Oui mais le vrai chien, qu'est-ce qui te dis qu'il ne fait pas semblant ?"Mais encore une fois on est dans la simulation. Donc dans quelque chose de fictif non ?
Comme dit Nilsou cette question est philosophique et on ne peut y répondre que par le dogme. La question scientifique, c'est si on peut obtenir le même comportement observable.
La philo ca reste de l'abstraction. J'ai du mal a croire qu'il y ait des vérités universelles, du coup de la à savoir qui a raison et qui a tort...
Ahahah, on t'avait prévenu.
-Les Forces des Ténèbres
http://ciret-transdisciplinarity.org...tin/b13c11.php
C'est de la philo, mais bon ce truc bien précis il est indispensable pour penser de l'IA de façon pertinente.
Du moins une IA forte.
Pourquoi, comment, si vous comprenez pas, vous demandez.
Quand 90% de tes références c'est toi et ton collègue, j'ai tendance a penser que tu bosses sur un sujet de niche. Mais passons
J'essaye de lire un peu mais je suis pas bien cablé pour.
Du coup pourquoi, comment, je demande !
Ahahah, on t'avait prévenu.
-Les Forces des Ténèbres
C'est en tout cas d'une cohérence qui force le respect.
Sur la psychologie :
http://canardpc.com/forums/threads/2...=1#post9349553 et la suite de la discussion
Sur la religion :
http://canardpc.com/forums/threads/2...=1#post9383928
Malheureusement je ne retrouve plus les sujets "cosmologie" et "cerveau quantique" (je suis à peu près sûr que c'était le terme).
tl;dr : CoinCoinWC a raison, vous avez tort, parce que vous ne comprenez pas.
Ça peut paraître obsessionnel de ressortir des discussions de l'année dernière, mais c'est parce que je suis sûr à 100% que CoinCoinWC est ma copine, leur fonctionnement est trop similaire (ou une IA avec la personnalité de madame, peut-être?)
Le mieux c'est que tu m'expliques de ce que t'as compris de la mécanique quantique. Comme ça je te corrige et après tu peux te représenter le point de logique dont il est question. C'est simple à cerner, mais c'est complexe. Et la logique du tiers inclus c'est finalement ce qui permet de penser la complexité de façon rationnelle.
L'idée c'est que si tu m'expliques ce que tu comprends de la dualité onde corpuscule après on peut s'entendre.
Non, on ne s'en fout pas. Ce que peux effectuer un programme informatique est justement limité par sa "partie hardware à bas niveau". Un programme informatique n'est pas un coup de baguette magique qui permet au hardware de se transcender et de dépasser par magie les limites que lui imposent la physique.
Si la physique interdit à une suite de portes logiques d'effectuer telle opération, alors l'opération ne pourra pas être réalisée, quelle que soit le talent de l'informaticien et quel que soit le langage de programmation qu'il aura choisi.
Par exemple, le problème de l'arrêt de Turing est une limite fondamentale qui ne dépend pas de l’implémentation de la machine de Turing.
Je pense aussi au fait qu'une suite de nombres pseudo-aléatoires est finie et se répète au bout d'un certain temps. Mais il y a sans doute d'autres "artefacts" plus ou moins cachés qui sont justement causés par la "partie hardware à bas niveau", autrement dit par le fait qu'un ordinateur est un empilement de portes logiques.
Et alors ? Tu complexifie ta machine de Turing, tu augmentes la taille de son ruban, ou celui de ses engrenages, ou celui de ses transistors, mais tu as toujours une machine de Turing.Non.
1) Il n'y a pas que les entrées externes, il faut prendre aussi en compte l'état interne de ton programme.
Comme pour ta mémoire en fait.
2) Son fonctionnement peut tout à fait être modifié dynamiquement, par le programme lui même.
Tout comme le cerveau qui réorganise en permanence ses neurones.
Chaque machine de Turing est conceptuellement à toutes les autres, autrement dit un ordinateur peut toujours en émuler un autre
Si une opération est permise (ou interdite) sur l'une, elle le sera aussi sur toutes les autres.
Je ne vois toujours pas comment ajouter "encore une porte logique" ou "encore un engrenage supplémentaire" peut faire émerger la conscience. Le résultat obtenu en sortie sera, encore et toujours, immuable. ça me semble le contraire de la conscience.
Tu as déjà eu une discussion sur la physique quantique avec Møgluglu (à partir de http://canardpc.com/forums/threads/2...=1#post9270509).
Où tu nous avais précisé ceci :
Ouais le prof voulait que j'ai 20 de moyenne, moi ça me gonflait. J'ai lâché les maths.
Par contre au bac j'ai eu 14 en philo alors que comme tu le soulignais le lycée je l'ai pas beaucoup fréquenté. Là il s'agit de l'interprétation à donner aux résultats des équations de la mécanique quantique, pas de les faire. C'est pour ça que je demande à Mogluglu de m'éclairer sur son interprétation des résultats de la mécanique quantique.
Au moins j'ai la réponse à la question que je posais sur le topic des quotes
Je boucle un peu mais, CoinCoinWC, accepterais-tu de synthétiser pour des néophytes pourquoi on ne peut enviser d'IA pertinente sans poser une pied dans la "théorie du tiers inclus".
C'est vraiment sans arrière pensée, je pense que tout point de vue est bon écouter.
Ahahah, on t'avait prévenu.
-Les Forces des Ténèbres