Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 7 sur 43 PremièrePremière 12345678910111213141517 ... DernièreDernière
Affichage des résultats 181 à 210 sur 1288
  1. #181
    Citation Envoyé par CoinCoinWC Voir le message
    par contre je sais que ce que je te dis est juste.
    CQFD...

    Citation Envoyé par CoinCoinWC Voir le message
    Ils peuvent pas ressentir de blessure si tu remets trop vivement leurs avis en cause. Ils sont pas câblés pour ça.
    C'est le topic de l'IA, pas le topic des machines-outils...

  2. #182
    Citation Envoyé par Phibrizo Voir le message
    Le "hasard" de la théorie du chaos n'est pas le "hasard" de la physique quantique, on est d'accord.

    Seulement justement, dans notre univers, il se trouve que la physique est quantique, et que certains atomes se désintègrent ou non de façon aléatoire... savoir que notre univers obéit à certaines lois ne permet pas pour autant d'en prédire tout le comportement.

    Si une fraction des portes logiques de mon cerveau artificiel donne un résultat erroné en se basant sur un phénomène quantique (mettons par exemple un miroir qui ne réfléchit qu'un photon sur deux) et bien il donnera un résultat imprévisible dans le sens ou le faire fonctionner une première fois ne me permettra pas pour autant de prédire avec exactitude son comportement une seconde fois.

    Si le taux d'erreur est trop élevé et bien on sort du domaine chaotique et on a un résultat totalement aléatoire sans aucun intérêt. Mais si le taux d'erreur est un peu plus bas, là on entre dans le domaine chaotique, le résultat obtenu en sortie pourra être correct sans pour autant être immuable.

    C'est un peu la même chose quand on pose une question à quelqu'un, si on demande à une personne si il fait beau elle ne répondra pas éternellement la même réponse même à météo absolument identique.
    Ce qui me gène la dedans c'est que finalement, ce n'est qu'un système aléatoire ou l'on détermine la part d'aléatoire. Un bon vieux jet de dés ou on choisit juste le nombre de dés.
    La pensée humaine ne fonctionne pas comme ça. Elle est extrémement variable parce qu'elle est impactée par un nombre infini de facteurs qui forment un tout et amène à une prise de décision. Les différences viennent des variations de cette infinité de facteurs, pas d'une combinaison d'élements aléatoires.

    Il n'est de plus pas possible de séparer le cerveau du reste du corps. Je ne réfléchis pareil si j'ai froid, si j'ai faim, si je suis tout nu... pour l'instant j'ai l'impression qu'on ne pense IA qu'en terme algorithmique, mais l'intelligence humaine n'est pas dissociable d'autres éléments qui ne sont pas liés au processus de pensée même, mais à d'autres processus physiques, environnementaux.

    Edit : et quid des pressions de notre cerveau reptilien : la peur de mourir, le besoin de se reproduire. La survie est un mécanisme fondamental qui impacte énormément nos prise de décisions. Aucun algorithme ne peut donner l'instinct de conservation de l'espèce. Et personnellement je trouve que c'est la qu'on commencera a avoir une IA cohérente, quand elle s'inquietera de sa pérénité.

    Désolé si je suis hors sujet, je suis neurobio de formation (il y a longtemps), et je suis intrigué de savoir s'il est possible de simuler des comportements aussi multi-factoriels dans des machines. Et d'ailleurs, a quelle moment ce n'est plus de la simulation ?
    Dernière modification par nefrem ; 26/05/2016 à 15h16.
    Ahahah, on t'avait prévenu.
    -Les Forces des Ténèbres

  3. #183
    Citation Envoyé par Phibrizo Voir le message
    C'est un peu la même chose quand on pose une question à quelqu'un, si on demande à une personne si il fait beau elle ne répondra pas éternellement la même réponse même à météo absolument identique.
    Tout simplement car la personne, elle, ne sera pas dans un état absolument identique à chaque fois que tu lui poses la question.
    Donc les conditions d'expérimentations ne sont pas les mêmes, ce qui induit donc un résultat potentiellement différent.
    Ce qui peut tout à fait être le cas d'une IA.

  4. #184
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par CoinCoinWC Voir le message
    Ouais enfin quand tu dis "présence de l'autre" ou "le fait de penser à l'autre" c'est un peu simpliste.
    Mais l'objectif c'était pas tellement de connaître ce qui conditionne la production d'endorphine que de souligne que la production d'endorphine ET le sentiment amoureux étaient les deux manifestations d'un même phénomène.
    Non, encore une fois tu dis de la merde. Ce que nous appelons sentiment amoureux est une réaction à une drogue naturelle.

    En fait, tu aurais ta place chez les plus dogmatiques des augustiniens.
    Barba non facit philosophum.

  5. #185
    Citation Envoyé par Phibrizo Voir le message
    Pourquoi ? Parce que, à la base, les ordinateurs actuels ne sont que des assemblages de portes NON / ET / OU,
    Sauf qu'on s'en fout de la partie hardware à bas niveau.
    Si à partir de ça tu peux simuler des états multiples et des valeurs non entières (ce qui se fait depuis des lustres), tu peux représenter (et donc émuler) les états chimiques réels.

    Citation Envoyé par Phibrizo Voir le message
    et que, aussi complexe soit-il, le programme fournira toujours la même réponse à la même question.
    Non.
    1) Il n'y a pas que les entrées externes, il faut prendre aussi en compte l'état interne de ton programme.
    Comme pour ta mémoire en fait.

    2) Son fonctionnement peut tout à fait être modifié dynamiquement, par le programme lui même.
    Tout comme le cerveau qui réorganise en permanence ses neurones.

  6. #186
    Citation Envoyé par Phibrizo Voir le message
    Si une fraction des portes logiques de mon cerveau artificiel donne un résultat erroné en se basant sur un phénomène quantique (mettons par exemple un miroir qui ne réfléchit qu'un photon sur deux) et bien il donnera un résultat imprévisible dans le sens ou le faire fonctionner une première fois ne me permettra pas pour autant de prédire avec exactitude son comportement une seconde fois.
    Un peu comme un transistor, quoi ?
    (Voir le phénomène de métastabilité.)

    En passant, la machine avec laquelle tu postes a probablement un générateur aléatoire matériel qui utilise du bruit thermique pour générer de l'aléa. Construit à 100% avec des portes logiques.

    Citation Envoyé par nefrem Voir le message
    Une succession de porte logique n'aboutissent qu'a un résultat déterminé inébranlable, ce qui est peut être extrémement utile dans plein de domaines (comme la programmation de machines) , mais qui ne conrrespond pas à ce que j'imagine être une IA.
    Schématiquement la prise de décisions de notre cerveau est provoquée par l'analyse d'un immense empilement de réglettes entre 0 et 1 dont la position des curseurs dépend de nos genes, de nos apprentissages, mais d'énormément d'autres facteurs autres tel quel l'état d'esprit, l'humeur, mais aussi la météo, la fatigue ou les intentions, voire même le charisme de l'interlocuteur !
    Un peu comme le réseau de neurones d'un algo de deep learning quoi ?

    Sérieusement, s'il y a bien quelque chose de facile à faire en IA, c'est bien tout ce qui est réactions instinctives, émotions, et cerveau reptilien. Tant que c'est de la chimie et des boucles de rétroaction, ça se simule très bien avec du soft, pour peu qu'on connaisse les bons paramètres. Avec des algos déterministes ou stochastiques, peu importe, on sait faire les deux. (Simuler un système complexe chaotique se fait bien, tant qu'on essaie pas de prédire son évolution à long terme. On sait même l'analyser en termes d'attracteurs, de bassin de stabilité et tout ça.)

    C'est de faire émerger un raisonnement rationnel à partir d'un blob de neurones qui est un problème ouvert pour encore un moment.

  7. #187
    Citation Envoyé par Phibrizo Voir le message
    *Mais*, par contre, je serais personnellement très étonné que le dit cerveau puisse être construit *uniquement* avec les composants électroniques que nous connaissons, ou qu'il puisse être simulé par un programme informatique suffisamment complexe dans un ordinateur classique.

    Pourquoi ? Parce que, à la base, les ordinateurs actuels ne sont que des assemblages de portes NON / ET / OU, et que, aussi complexe soit-il, le programme fournira toujours la même réponse à la même question.
    Peut-être que l'expert du topic pourra nous éclairer un peu plus, mais il n'y a pas que les systèmes binaires pour faire de l'IA, il y a aussi les réseaux de neurones analogiques.

    Contrairement aux système informatique classiques qui ne fonctionnnent qu'avec des portes logiques fortement synchronisées, l'idée est de faire des circuits asynchrones dont le comportement électrique et similaire à celui d'un neurone (et non pas une simulation de ce comportement), Intel planche sur une puce accélératrice basée sur ce concept d'ailleurs.

    De ce que j'ai retenu, les avantages sont qu'on a une efficacité très supérieure (à la fois en vitesse de traitement et en énergie), mais par contre ça a un côté "boîte noire" car on ne peut pas contrôler précisément ce qui se passe au sein du réseau à un instant donné.
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  8. #188
    J'aimerai bien voir la tête d'un algo qui simule l'impact de la fatigue, ou la nécessité de se reproduire par exemple.
    Et si tu simules la peur de mourir c'est bien joli mais c'est fictif et hors de propose pour quelque chose de non vivant d'un point de vue biologique

    Je suis candide dans le domaine des IA hein, c'est des questions naïves.
    J'ai toujours du mal a me dire qu'il est possible de créer "quelque chose" qui ait conscience d'être ... ben "quelque chose", et que ne soit pas juste une émulateur/simulateur de pensée.

    Edit : Encore une fois c'est surement naif de ma part, mais j'ai une vision surement un peu SF des IA. Je ne m'attends pas a une entité qui sache répondre A ou B a une question, mais a une entité qui ait conscience d'exister et qui s'inquiète de sa pérénité (survie, reproduction sous quelque forme que ce soit).
    Ahahah, on t'avait prévenu.
    -Les Forces des Ténèbres

  9. #189
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Rends le hardware périssable et la peur de la mort devient beaucoup moins fictive.
    Barba non facit philosophum.

  10. #190
    C'est l'une des questions les plus traitées dans la SF, les IA qui ont peur de la mort/destruction. C'est d'ailleurs souvent le détonateur qui rend le robot agressif envers les humains.

    De HAL9000 au robot d'I, Robot, en passant par les replicants ou skynet, il y a foule d'exemples.

  11. #191
    Citation Envoyé par nefrem Voir le message
    J'aimerai bien voir la tête d'un algo qui simule l'impact de la fatigue, ou la nécessité de se reproduire par exemple.
    Et si tu simules la peur de mourir c'est bien joli mais c'est fictif et hors de propose pour quelque chose de non vivant d'un point de vue biologique

    Je suis candide dans le domaine des IA hein, c'est des questions naïves.
    J'ai toujours du mal a me dire qu'il est possible de créer "quelque chose" qui ait conscience d'être ... ben "quelque chose", et que ne soit pas juste une émulateur/simulateur de pensée.
    C'est vraiment deux niveaux d'"intelligence" très différents. Tu n'as pas besoin d'être conscient (disons, au sens d'avoir conscience d'être quelque chose) pour ressentir la fatigue, vouloir te reproduire ou avoir peur de mourir. Du point de vue robotique, la fatigue et la peur sont des entrées de capteurs et détecteurs, la reproduction est un objectif câblé en dur. Avec ça on peut tout à fait reproduire le comportement d'un animal simple, genre un insecte ou même un reptile. Il pourra adapter son comportement à la charge de sa batterie (fatigue) et au danger perçu (peur) et chercher à se reproduire. On n'a pas besoin de jouer la carte "conscience" pour faire ça.

    Après, pour reproduire une bestiole plus complexe, genre un primate qui passe le stade du miroir (pour ne pas parler de conscience humaine), c'est beaucoup plus compliqué et on ne sait pas faire pour l'instant.

  12. #192
    Citation Envoyé par nefrem Voir le message
    J'aimerai bien voir la tête d'un algo qui simule l'impact de la fatigue, ou la nécessité de se reproduire par exemple.
    Et si tu simules la peur de mourir c'est bien joli mais c'est fictif et hors de propose pour quelque chose de non vivant d'un point de vue biologique

    Je suis candide dans le domaine des IA hein, c'est des questions naïves.
    J'ai toujours du mal a me dire qu'il est possible de créer "quelque chose" qui ait conscience d'être ... ben "quelque chose", et que ne soit pas juste une émulateur/simulateur de pensée.

    Edit : Encore une fois c'est surement naif de ma part, mais j'ai une vision surement un peu SF des IA. Je ne m'attends pas a une entité qui sache répondre A ou B a une question, mais a une entité qui ait conscience d'exister et qui s'inquiète de sa pérénité (survie, reproduction sous quelque forme que ce soit).
    Pour ça faut doter la machine d'un ersatz d'image de soi. La conscience elle se signe par l'aptitude à se représenter soi même. Rapport au corps.
    Jamais un robot ne pourra se représenter lui même, par contre on peut lui créer une fonction qui lui permette d'avoir une image de l'autre et de la comparer à l'image qu'il a de lui même. Ca lui permettrait de traiter l'information émotionnelle qui lui parvient de l'autre et de la mettre en perspective avec son état émotionnel artificiel afin de s'adapter en fonction de son identité. Tout en adaptant son identité à son état émotionnel.

    C'est par le biais de cet ersatz d'image de soi que tu peux amener un robot à prétendre se soucier de sa pérénité.

  13. #193
    Citation Envoyé par Møgluglu Voir le message
    C'est vraiment deux niveaux d'"intelligence" très différents. Tu n'as pas besoin d'être conscient (disons, au sens d'avoir conscience d'être quelque chose) pour ressentir la fatigue, vouloir te reproduire ou avoir peur de mourir. Du point de vue robotique, la fatigue et la peur sont des entrées de capteurs et détecteurs, la reproduction est un objectif câblé en dur. Avec ça on peut tout à fait reproduire le comportement d'un animal simple, genre un insecte ou même un reptile. Il pourra adapter son comportement à la charge de sa batterie (fatigue) et au danger perçu (peur) et chercher à se reproduire. On n'a pas besoin de jouer la carte "conscience" pour faire ça.

    Après, pour reproduire une bestiole plus complexe, genre un primate qui passe le stade du miroir (pour ne pas parler de conscience humaine), c'est beaucoup plus compliqué et on ne sait pas faire pour l'instant.
    Le problème de compréhenson pour moi, c'est que la peur de mourir ne peut pas être séparer de la conscience d'exister. Un insecte n'a pas peur de mourir, il a juste des mécanismes biologiques/chimiques/mécaniques bien foutus mais assez simples qui lui donnent les meilleurs chances de rester en vie. Mais c'est du domaine du binaire (ombre a droite je vais a gauche, vibration en haut et je vais en bas). Il ne court pas en se disant "Faut que je reste en vie putain faut que je reste en vie". Quand on parle d'IA, on parle intelligence donc je suppose qu'on parle de quelque chose de différent (même si je me doute que simuler le comportement d'un insecte doit une etre une merdier sans nom avec un algorithme gros comme un codex Warhammer).
    Mais je suis hors sujet en fait, je m'en rends compte.

    Et au fait, rien a voir, une IA c'est du code, comment elle se reconnaitra dans le miroir pour nous prouver qu'elle a conscience d'exister ?

    Citation Envoyé par CoinCoinWC Voir le message
    Pour ça faut doter la machine d'un ersatz d'image de soi. La conscience elle se signe par l'aptitude à se représenter soi même. Rapport au corps.
    Jamais un robot ne pourra se représenter lui même, par contre on peut lui créer une fonction qui lui permette d'avoir une image de l'autre et de la comparer à l'image qu'il a de lui même. Ca lui permettrait de traiter l'information émotionnelle qui lui parvient de l'autre et de la mettre en perspective avec son état émotionnel artificiel afin de s'adapter en fonction de son identité. Tout en adaptant son identité à son état émotionnel.

    C'est par le biais de cet ersatz d'image de soi que tu peux amener un robot à prétendre se soucier de sa pérénité.
    Mais encore une fois on est dans la simulation. Donc dans quelque chose de fictif non ?
    Ahahah, on t'avait prévenu.
    -Les Forces des Ténèbres

  14. #194
    Citation Envoyé par nefrem Voir le message
    Mais encore une fois on est dans la simulation. Donc dans quelque chose de fictif non ?
    Totalement. Mais la fiction peut être suffisament crédible pour donner une illusion de conscience.
    Par contre en absence de corps, tu pourras jamais parler de conscience. Par contre je serais pas étonné qu'on soit un jour capable de créer un bout de viande et de l'associer à une IA. De réaliser un frankenstein.

  15. #195
    Citation Envoyé par nefrem Voir le message
    Le problème de compréhenson pour moi, c'est que la peur de mourir ne peut pas être séparer de la conscience d'exister. Un insecte n'a pas peur de mourir, il a juste des mécanismes biologiques/chimiques/mécaniques bien foutus mais assez simples qui lui donnent les meilleurs chances de rester en vie. Mais c'est du domaine du binaire (ombre a droite je vais a gauche, vibration en haut et je vais en bas). Il ne court pas en se disant "Faut que je reste en vie putain faut que je reste en vie". Quand on parle d'IA, on parle intelligence donc je suppose qu'on parle de quelque chose de différent (même si je me doute que simuler le comportement d'un insecte doit une etre une merdier sans nom avec un algorithme gros comme un codex Warhammer).
    Mais je suis hors sujet en fait, je m'en rends compte.
    Je ne crois pas que c'est hors sujet. Il me semble que si tu as vraiment peur, genre panique, les mécanismes de survie de ton cerveau reptilien prennent le dessus sur ta réflexion consciente, et le fonctionnement est a priori le même que celui du reptile, justement. Grosso-modo, l'IA actuelle en est là.
    C'est quand tu n'as pas peur que tu peux réfléchir consciemment et faire de la philo sur ta condition d'humain et ta place dans l'univers. Sinon tu coures le plus vite possible, c'est tout.

    Et au fait, rien a voir, une IA c'est du code, comment elle se reconnaitra dans le miroir pour nous prouver qu'elle a conscience d'exister ?
    Bah tu lui peins un tache sur l'écran, et tu regardes s'il essaie de se gratter avec son bras robotisé USB quand il voit son reflet à travers la webcam, facile.

    Mais encore une fois on est dans la simulation. Donc dans quelque chose de fictif non ?
    "Oui mais le vrai chien, qu'est-ce qui te dis qu'il ne fait pas semblant ?"
    Comme dit Nilsou cette question est philosophique et on ne peut y répondre que par le dogme. La question scientifique, c'est si on peut obtenir le même comportement observable.

  16. #196
    Citation Envoyé par Møgluglu Voir le message
    Je ne crois pas que c'est hors sujet. Il me semble que si tu as vraiment peur, genre panique, les mécanismes de survie de ton cerveau reptilien prennent le dessus sur ta réflexion consciente, et le fonctionnement est a priori le même que celui du reptile, justement. Grosso-modo, l'IA actuelle en est là.
    C'est quand tu n'as pas peur que tu peux réfléchir consciemment et faire de la philo sur ta condition d'humain et ta place dans l'univers. Sinon tu coures le plus vite possible, c'est tout.



    Bah tu lui peins un tache sur l'écran, et tu regardes s'il essaie de se gratter avec son bras robotisé USB quand il voit son reflet à travers la webcam, facile.



    "Oui mais le vrai chien, qu'est-ce qui te dis qu'il ne fait pas semblant ?"
    Comme dit Nilsou cette question est philosophique et on ne peut y répondre que par le dogme. La question scientifique, c'est si on peut obtenir le même comportement observable.
    C'est trop triste de rien piger à la philo à ce point là
    Vraiment hein.

  17. #197
    La philo ca reste de l'abstraction. J'ai du mal a croire qu'il y ait des vérités universelles, du coup de la à savoir qui a raison et qui a tort...
    Ahahah, on t'avait prévenu.
    -Les Forces des Ténèbres

  18. #198
    Citation Envoyé par nefrem Voir le message
    La philo ca reste de l'abstraction. J'ai du mal a croire qu'il y ait des vérités universelles, du coup de la à savoir qui a raison et qui a tort...
    http://ciret-transdisciplinarity.org...tin/b13c11.php

    C'est de la philo, mais bon ce truc bien précis il est indispensable pour penser de l'IA de façon pertinente.
    Du moins une IA forte.

    Pourquoi, comment, si vous comprenez pas, vous demandez.

  19. #199
    Quand 90% de tes références c'est toi et ton collègue, j'ai tendance a penser que tu bosses sur un sujet de niche. Mais passons
    J'essaye de lire un peu mais je suis pas bien cablé pour.

    Du coup pourquoi, comment, je demande !
    Ahahah, on t'avait prévenu.
    -Les Forces des Ténèbres

  20. #200
    Citation Envoyé par CoinCoinWC Voir le message
    Pourquoi, comment, si vous comprenez pas, vous demandez.
    Je ne vois pas le rapport avec l'IA pour l'instant, mais admettons, je veux bien essayer de suivre le raisonnement pas à pas. Tu aurais un résumé clair des axiomes et propriétés qui en découlent pour cette logique du tiers inclus ?

  21. #201
    Citation Envoyé par CoinCoinWC Voir le message
    http://ciret-transdisciplinarity.org...tin/b13c11.php [...]Pourquoi, comment, si vous comprenez pas, vous demandez.
    C'est clair! . . . . Désolé pas pu m'en empêcher, je prends vite la porte.

  22. #202
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par CoinCoinWC Voir le message
    C'est trop triste de rien piger à ma philo à ce point là
    Vraiment hein.
    Fixed. Parce que ta conception de la philosophie n'est pas LA philosophie, qui par définition n'existe pas. Accessoirement, la philo n'est pas une science.

    C'est trop triste d'être à côté de la plaque à ce point-là. Vraiment hein
    Barba non facit philosophum.

  23. #203
    Citation Envoyé par Eradan Voir le message
    Fixed. Parce que ta conception de la philosophie n'est pas LA philosophie, qui par définition n'existe pas. Accessoirement, la philo n'est pas une science.

    C'est trop triste d'être à côté de la plaque à ce point-là. Vraiment hein
    C'est en tout cas d'une cohérence qui force le respect.

    Sur la psychologie :
    http://canardpc.com/forums/threads/2...=1#post9349553 et la suite de la discussion

    Sur la religion :
    http://canardpc.com/forums/threads/2...=1#post9383928

    Malheureusement je ne retrouve plus les sujets "cosmologie" et "cerveau quantique" (je suis à peu près sûr que c'était le terme).

    tl;dr : CoinCoinWC a raison, vous avez tort, parce que vous ne comprenez pas.


    Ça peut paraître obsessionnel de ressortir des discussions de l'année dernière, mais c'est parce que je suis sûr à 100% que CoinCoinWC est ma copine, leur fonctionnement est trop similaire (ou une IA avec la personnalité de madame, peut-être?)

  24. #204
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Ça se trouve, c'est un multi de kenshironeo.
    Barba non facit philosophum.

  25. #205
    Citation Envoyé par Møgluglu Voir le message
    Je ne vois pas le rapport avec l'IA pour l'instant, mais admettons, je veux bien essayer de suivre le raisonnement pas à pas. Tu aurais un résumé clair des axiomes et propriétés qui en découlent pour cette logique du tiers inclus ?
    Le mieux c'est que tu m'expliques de ce que t'as compris de la mécanique quantique. Comme ça je te corrige et après tu peux te représenter le point de logique dont il est question. C'est simple à cerner, mais c'est complexe. Et la logique du tiers inclus c'est finalement ce qui permet de penser la complexité de façon rationnelle.

    L'idée c'est que si tu m'expliques ce que tu comprends de la dualité onde corpuscule après on peut s'entendre.

  26. #206
    Citation Envoyé par Orhin Voir le message
    Sauf qu'on s'en fout de la partie hardware à bas niveau.
    Si à partir de ça tu peux simuler des états multiples et des valeurs non entières (ce qui se fait depuis des lustres), tu peux représenter (et donc émuler) les états chimiques réels.
    Non, on ne s'en fout pas. Ce que peux effectuer un programme informatique est justement limité par sa "partie hardware à bas niveau". Un programme informatique n'est pas un coup de baguette magique qui permet au hardware de se transcender et de dépasser par magie les limites que lui imposent la physique.

    Si la physique interdit à une suite de portes logiques d'effectuer telle opération, alors l'opération ne pourra pas être réalisée, quelle que soit le talent de l'informaticien et quel que soit le langage de programmation qu'il aura choisi.


    Par exemple, le problème de l'arrêt de Turing est une limite fondamentale qui ne dépend pas de l’implémentation de la machine de Turing.

    Je pense aussi au fait qu'une suite de nombres pseudo-aléatoires est finie et se répète au bout d'un certain temps. Mais il y a sans doute d'autres "artefacts" plus ou moins cachés qui sont justement causés par la "partie hardware à bas niveau", autrement dit par le fait qu'un ordinateur est un empilement de portes logiques.

    Non.
    1) Il n'y a pas que les entrées externes, il faut prendre aussi en compte l'état interne de ton programme.
    Comme pour ta mémoire en fait.

    2) Son fonctionnement peut tout à fait être modifié dynamiquement, par le programme lui même.
    Tout comme le cerveau qui réorganise en permanence ses neurones.
    Et alors ? Tu complexifie ta machine de Turing, tu augmentes la taille de son ruban, ou celui de ses engrenages, ou celui de ses transistors, mais tu as toujours une machine de Turing.

    Chaque machine de Turing est conceptuellement à toutes les autres, autrement dit un ordinateur peut toujours en émuler un autre

    Si une opération est permise (ou interdite) sur l'une, elle le sera aussi sur toutes les autres.

    Je ne vois toujours pas comment ajouter "encore une porte logique" ou "encore un engrenage supplémentaire" peut faire émerger la conscience. Le résultat obtenu en sortie sera, encore et toujours, immuable. ça me semble le contraire de la conscience.

  27. #207
    Citation Envoyé par CoinCoinWC Voir le message
    Le mieux c'est que tu m'expliques de ce que t'as compris de la mécanique quantique. Comme ça je te corrige et après tu peux te représenter le point de logique dont il est question. C'est simple à cerner, mais c'est complexe. Et la logique du tiers inclus c'est finalement ce qui permet de penser la complexité de façon rationnelle.

    L'idée c'est que si tu m'expliques ce que tu comprends de la dualité onde corpuscule après on peut s'entendre.
    Tu as déjà eu une discussion sur la physique quantique avec Møgluglu (à partir de http://canardpc.com/forums/threads/2...=1#post9270509).

    Où tu nous avais précisé ceci :
    Citation Envoyé par CoinCoinWC Voir le message
    J'ai arrêté les maths en quatrième. Au collège y'a pas de spécialisation.

  28. #208
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    La question, c'est de savoir comment il a pu accéder au lycée sans faire de maths en troisième
    Barba non facit philosophum.

  29. #209
    Citation Envoyé par LaVaBo Voir le message
    Tu as déjà eu une discussion sur la physique quantique avec Møgluglu (à partir de http://canardpc.com/forums/threads/2...=1#post9270509).

    Où tu nous avais précisé ceci :
    Ouais le prof voulait que j'ai 20 de moyenne, moi ça me gonflait. J'ai lâché les maths.
    Par contre au bac j'ai eu 14 en philo alors que comme tu le soulignais le lycée je l'ai pas beaucoup fréquenté. Là il s'agit de l'interprétation à donner aux résultats des équations de la mécanique quantique, pas de les faire. C'est pour ça que je demande à Mogluglu de m'éclairer sur son interprétation des résultats de la mécanique quantique.

    Au moins j'ai la réponse à la question que je posais sur le topic des quotes

  30. #210
    Je boucle un peu mais, CoinCoinWC, accepterais-tu de synthétiser pour des néophytes pourquoi on ne peut enviser d'IA pertinente sans poser une pied dans la "théorie du tiers inclus".
    C'est vraiment sans arrière pensée, je pense que tout point de vue est bon écouter.
    Ahahah, on t'avait prévenu.
    -Les Forces des Ténèbres

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •