Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 11 sur 43 PremièrePremière ... 34567891011121314151617181921 ... DernièreDernière
Affichage des résultats 301 à 330 sur 1288
  1. #301
    Citation Envoyé par Longwelwind Voir le message
    Je suis pas sur de poser la question au bonne endroit, mais j'en ai pas trouvé
    J'ai eu un cours de Calculabilité ce quadrimestre, et l'un des résultats qu'on nous a présentés est qu'il est impossible de faire un modèle de calculabilité plus puissant que la Machine de Turing en n'utilisant que la mécanique Newtonienne.
    Puisqu'il y a très peu de chances que le cerveau humain utilise des mécanismes de la physique quantique, est-ce que ça ne prouve pas indirectement qu'il est possible de faire un humain à partir d'une machine ?
    Oui et non. Le papier cité par Darkpoulp discute bien de ça.
    Oui, du point de vue de la calculabilité : l'ensemble des problèmes pour lesquels il existe un algorithme qui le résout en temps fini est le même. (Et encore mieux, cet ensemble reste le même même si tu fais appel à la physique quantique : tu peux simuler un ordinateur quantique avec une machine de Turing
    Spoiler Alert!
    si tu attends assez longtemps
    .)

    Non, du point de vue de la complexité. Savoir qu'il existe un algorithme pour résoudre un problème en temps fini, c'est bien beau, mais ça ne nous aide pas beaucoup. Ce qu'on voudrait, c'est : 1. connaître cet algorithme et 2. que le temps d'exécution et la mémoire nécessaire ne soient pas simplement finis mais aussi raisonnables, genre inférieur à la durée de vie et à la taille de l'univers.

    La théorie de la complexité tente de répondre à la question 2 en classant les problèmes en catégories et notamment :
    - la catégorie P des problèmes de taille n qu'on sait résoudre en temps polynomial en n (ex. l'addition, la multiplication ou le tri),
    - la catégorie NP des problèmes dont on peut vérifier la solution en temps polynomial (ex. le Sudoku),
    - la catégorie PSPACE pour ceux dont on connaît un algo en espace polynomial
    - EXP ceux pour lequel on connaît des algorithmes en temps exponentiel par rapport à n.

    La catégorie des problèmes solubles en pratique est P. Beaucoup de problèmes intéressants sont dans NP.
    On voit facilement que P ⊆ NP ⊆ PSPACE ⊆ EXP : qui peut le plus peut le moins. Il est aussi prouvé que P ≠ EXP, donc au moins une des inclusions est stricte. On pense que P ≠ NP, mais c'est une question ouverte.
    Et l'analogue de "il n'existe pas plus puissant que la machine de Turing en mécanique Newtonienne" du point de vue de la complexité n'existe pas (n'est pas prouvé) à ma connaissance. On peut juste observer empiriquement que les humains ne font pas mieux que les ordinateurs sur les problèmes "difficiles" du point de vue de la théorie de la complexité, genre les Échecs ou le Go.

    Et même si on arrive à répondre à la question 2, il reste la question 1 : sommes-nous assez intelligents pour savoir construire une machine aussi intelligente que nous (et qui pourrait donc réinventer une autre machine, et ainsi de suite à l'infini) ? Ou bien y a t-il de la perte en ligne ?
    Ce n'est pas évident du tout : intuitivement il est plus facile de résoudre un problème (être intelligent) que d'écrire un algorithme qui sache résoudre toute la classe de problèmes similaires (construire une machine intelligente).
    Dernière modification par Møgluglu ; 11/06/2016 à 11h41.

  2. #302
    Citation Envoyé par Møgluglu Voir le message
    Et même si on arrive à répondre à la question 2, il reste la question 1 : sommes-nous assez intelligents pour savoir construire une machine aussi intelligente que nous (et qui pourrait donc réinventer une autre machine, et ainsi de suite à l'infini) ? Ou bien y a t-il de la perte en ligne ?
    Ce n'est pas évident du tout : intuitivement il est plus facile de résoudre un problème (être intelligent) que d'écrire un algorithme qui sache résoudre toute la classe de problèmes similaires (construire une machine intelligente).
    A cette question on pourrait répondre qu'une des solutions n'est pas de construire directement une machine aussi intelligente que nous, mais plutôt de comprendre les mécanisme qui nous rendent intelligents (que ce soit directement au niveau cognitifs via l'apprentissage ou à une échelle plus globale via la sélection naturelle) afin de construire une machine qui deviendrait intelligente.
    Bref, construire des bébés machines et les éduquer.

  3. #303
    Citation Envoyé par Orhin Voir le message
    Bref, construire des bébés machines et les éduquer.
    Eduquer des bébés qui pensent comme des humains, quoi. Ce que l'humanité fait depuis des millions d'années.

  4. #304
    Citation Envoyé par Orhin Voir le message
    A cette question on pourrait répondre qu'une des solutions n'est pas de construire directement une machine aussi intelligente que nous, mais plutôt de comprendre les mécanisme qui nous rendent intelligents (que ce soit directement au niveau cognitifs via l'apprentissage ou à une échelle plus globale via la sélection naturelle) afin de construire une machine qui deviendrait intelligente.
    Bref, construire des bébés machines et les éduquer.
    Du point de vue de la théorie de la complexité, le training correspond grosso-modo à une réduction : on a un algorithme qui sait résoudre un problème X et on l'utilise pour résoudre un problème Y en transformant Y en X. La machine "inculte" est déjà intrinsèquement assez intelligente pour résoudre Y, mais a besoin d'être reconfigurée ou de se re-configurer pour X.
    De ce point de vue, il faut impérativement compter le training dans le temps d'exécution de l'algorithme. Sinon, on peut tricher en utilisant un temps voire un espace exponentiel pour le training. Par exemple "apprendre" à un singe à jouer la symphonie de Beethoven en le mettant devant un piano et en attendant assez longtemps. Une définition complexi-théoriste de l'IA serait un algo de complexité polynomiale qui est capable de résoudre l'ensemble des problèmes solubles par des humains, après un temps de training polynomial en la taille du problème.

    Bien entendu l'argument se mord la queue : si c'est possible ça implique qu'on peut éduquer une IA à éduquer des bébés IA, et on n'a plus qu'à partir un vacances. Mais au final on n'est toujours pas sorti de la classe de complexité P des problèmes qu'on savait déjà résoudre au départ.

  5. #305
    Une définition complexi-théoriste de l'IA serait un algo de complexité polynomiale qui est capable de résoudre l'ensemble des problèmes solubles par des humains, après un temps de training polynomial en la taille du problème.
    Pour que ta définition soit intéressante, il fait considérer la complexité non pas en fonction de la taille du problème, mais en fonction du temps mis par un humain à résoudre le problème (idem pour le training, c'est pas en fonction de la taille du problème, mais du temps de training de l'humain).

    Parce que l'homme est parfaitement capable de résoudre des problèmes NP ou EXP de taille raisonnable, il faut donc que la machine soit aussi capable de résoudre ces même problèmes, mais dans un temps comparable à celui de l'Homme

  6. #306
    Le problème si on entre là-dedans, c'est que "taille raisonnable" et "temps comparable" deviennent dépendants de critères technologiques d'un côté et sociaux de l'autre, et on perd toute généralité et toute possibilité prédictive. Ça devient juste un concours de bite entre algos spécialisés et optimisés et humains sélectionnés et surentrainés.
    Et pour tous les problèmes bien posés (échecs, go, etc.), c'est l'ordinateur qui finit par gagner, mais ça n'a pas convaincu les sceptiques pour autant. À juste titre.

  7. #307
    Citation Envoyé par Møgluglu Voir le message
    Oui et non. Le papier cité par Darkpoulp discute bien de ça.
    Oui, du point de vue de la calculabilité : l'ensemble des problèmes pour lesquels il existe un algorithme qui le résout en temps fini est le même. (Et encore mieux, cet ensemble reste le même même si tu fais appel à la physique quantique : tu peux simuler un ordinateur quantique avec une machine de Turing
    Spoiler Alert!
    si tu attends assez longtemps
    .)

    Non, du point de vue de la complexité. Savoir qu'il existe un algorithme pour résoudre un problème en temps fini, c'est bien beau, mais ça ne nous aide pas beaucoup. Ce qu'on voudrait, c'est : 1. connaître cet algorithme et 2. que le temps d'exécution et la mémoire nécessaire ne soient pas simplement finis mais aussi raisonnables, genre inférieur à la durée de vie et à la taille de l'univers.

    La théorie de la complexité tente de répondre à la question 2 en classant les problèmes en catégories et notamment :
    - la catégorie P des problèmes de taille n qu'on sait résoudre en temps polynomial en n (ex. l'addition, la multiplication ou le tri),
    - la catégorie NP des problèmes dont on peut vérifier la solution en temps polynomial (ex. le Sudoku),
    - la catégorie PSPACE pour ceux dont on connaît un algo en espace polynomial
    - EXP ceux pour lequel on connaît des algorithmes en temps exponentiel par rapport à n.

    La catégorie des problèmes solubles en pratique est P. Beaucoup de problèmes intéressants sont dans NP.
    On voit facilement que P ⊆ NP ⊆ PSPACE ⊆ EXP : qui peut le plus peut le moins. Il est aussi prouvé que P ≠ EXP, donc au moins une des inclusions est stricte. On pense que P ≠ NP, mais c'est une question ouverte.
    Et l'analogue de "il n'existe pas plus puissant que la machine de Turing en mécanique Newtonienne" du point de vue de la complexité n'existe pas (n'est pas prouvé) à ma connaissance. On peut juste observer empiriquement que les humains ne font pas mieux que les ordinateurs sur les problèmes "difficiles" du point de vue de la théorie de la complexité, genre les Échecs ou le Go.

    Et même si on arrive à répondre à la question 2, il reste la question 1 : sommes-nous assez intelligents pour savoir construire une machine aussi intelligente que nous (et qui pourrait donc réinventer une autre machine, et ainsi de suite à l'infini) ? Ou bien y a t-il de la perte en ligne ?
    Ce n'est pas évident du tout : intuitivement il est plus facile de résoudre un problème (être intelligent) que d'écrire un algorithme qui sache résoudre toute la classe de problèmes similaires (construire une machine intelligente).
    Dans le cours, on avait distinctement fait la différence entre la calculabilité et la complexité et du coup, je demandais pas d'un point de vue complexité, mais d'un point de vue calculabilité. Je comprends bien les concepts de P, NP et tuti quanti et notamment le fait que NP n'est pas exactement le fait de pouvoir vérifier une solution en temps polynomial, mais plutôt de pouvoir faire un programme non-deterministe qui résouds le problème en temps polynomial.
    Du coup, je comprends qu'au dela du fait de savoir si il est possible de faire un algorithme humain, il faudrait aussi voir dans quel classe de complexité il se trouverait.
    Mais je voulais surtout savoir si il était déjà "prouvé" qu'il était possible de faire un tel algorithme, c-à-d si la fonction était calculable.

    Edit:
    Et par contre, du coup, pour quels raisons NP est inclut dans PSPACE ?
    Il me semblait qu'un algorithme non-deterministe de complexité f pouvait être décrit par un algorithme deterministe de complexité c^f (La decomposition des "choix" non-deterministe). Il me semble aussi qu'il existe une implication directe entre la complexité temporelle et spatiale tel que un algo de complexité temporelle f est au maximum de complexité spatiale f. Dois bien y'en avoir un qui est de complexité spatiale exponentielle ?
    Edit2:
    Bah, du coup, je réponds à ma propre question:
    Un algorithme déterminant un ensemble NP n'aura jamais une complexité spatiale au dela de temporelle puisque qu'une "branche" de l'algorithme n'aura jamais besoin de la mémoire d'une autre "branche". Du coup, l'algortihme n'utilisera jamais en même temps plus d'une complexité spatiale polynomiale.
    Dernière modification par Longwelwind ; 11/06/2016 à 18h22.
    Citation Envoyé par oll Voir le message
    Et allez, un de plus qui me fout dans sa signature...
    longwelwind.net

  8. #308
    Citation Envoyé par Mastaba Voir le message
    Tu présupposes donc que la pensée consciente de l'humain n'est pas générée uniquement par le cerveau physique, mais qu'une autre chose extérieur prends aussi part au processus.
    D'abord qu'est-ce qui te laisse croire cela? Quels éléments viennent étayer cette hypothèse?
    Ensuite, comment est-ce que tu peux prouver l'existence de cette chose?

    Qu'est-ce qui empêcherait le cerveau de fabriquer la conscience tout seul de lui même avec ses petits neurones et ses petites synapses? Qu'est-ce qui interdit la conscience d'être le résultat d'un processus de calcul purement matériel issu des réactions bio-chimiques et bio-électriques, elles même résultant de la mécanique on ne peut plus logique de l'évolution et de la génétique?

    Quelle différence entre les réflexes instinctifs automatiques tel que retirer sa main du feu (qui n'arrivent même pas jusqu'au cerveau) et la pensée consciente si ce n'est le degré de complexité des boucles de rétroactions et la richesse de la base de donnée génétique innée (comme la peur de l'inconnu ou le dégoût pour la saveur amère) mise à jour par l'acquis des conséquences des expériences passées, et qui est utilisée pour déterminer le poids de chaque valeur dans les équations de prises de décisions futures?
    Non, je considère que la conscience c'est une propriété émergente, qui à rapport avec la complexité du cerveau (pour dire les choses vulguairement). C'est une conception des choses qui n'a rien de choquante, elle est largement partagée et y'a pas besoin de faire appel à la pensée magique pour ça. Etonnant hein?

    Maintenant y'a une vraie différence entre la pensée consciente et les reflexes instinctifs qui appartiennent au registre de l'inconscient. Et pour penser le rapport conscience/inconscient par le prisme du phénomène de la pensée, c'est mieux d'en passer par la psychanalyse. Après le dégout de la saveur amère et la peur de l'inconnu, j'ai du mal avec l'idée de l'associer au registre de la génétique. Je connais pas assez la biologie pour me prononcer là dessus, mais si c'est le cas ça signifie qu'on est capable de faire évoluer notre patrimoine génétique par la seule activité de la conscience. Pourquoi pas, j'en sais rien.
    Ce que je sais par contre c'est que les gouts et les couleurs peuvent évoluer au cours d'une vie et que la peur de l'inconnu peut se surmonter.

    Le soucis c'est que vous me prêtez des tas d'idées de merde au lieu de vous concentrer sur ce que je dis, du coup on perd un temps pas possible dans des querelles de zizi et répétitions de débats sans fin.

  9. #309
    Citation Envoyé par CoinCoinWC Voir le message
    Non, je considère que la conscience c'est une propriété émergente, qui à rapport avec la complexité du cerveau (pour dire les choses vulguairement). C'est une conception des choses qui n'a rien de choquante, elle est largement partagée et y'a pas besoin de faire appel à la pensée magique pour ça.
    C'est quoi pour toi une propriété émergente ?

  10. #310
    Citation Envoyé par Møgluglu Voir le message
    Et l'analogue de "il n'existe pas plus puissant que la machine de Turing en mécanique Newtonienne" du point de vue de la complexité n'existe pas (n'est pas prouvé) à ma connaissance. On peut juste observer empiriquement que les humains ne font pas mieux que les ordinateurs sur les problèmes "difficiles" du point de vue de la théorie de la complexité, genre les Échecs ou le Go.
    Tu sais ce qui rend un programme informatique si efficace aux échecs ou au Go? C'est le fait qu'il soit pas sujet aux affects.
    Un joueur humain peut avoir faim, être stressé, angoissé, triste, avoir envie d'uriner, être amoureux et tout ça peut influer sur sa prise de décision en venant amoindrir ses capacités de réflexions. Même un maître d'échec au maximum de sa concentration peut voir sa lecture du jeu impacté par des processus inconscients qui viendront faire obstacle à la réalité objective. La peur de perdre la face devant une ligne de programme alors que le monde entier suivra le résultat de la partie d'échec ça peut pousser le joueur à prendre des risques inconsidérés ou au contraire à se montrer bien trop prudent.

    Un programme informatique lui il s'en cogne. Y'a une situation objective, il la définit logiquement. Que ses "géniteurs" soient présents ou que la partie se joue dans un total anonymat son état d'esprit sera le même : inexistant.

    C'est pas un détail, c'est pas un truc qui se surmonte avec une bd dogmatique, c'est ce qui fonde toute la complexité de l'identité humaine cette idée d'affect et si y'a des rapprochements à faire entre la physique quantique et le cerveau humain, il se noue autour de l'affect. En tout cas pour penser une IA forte, une IA capable de simuler la complexité du comportement humain.

    Je cite wikipedia, mais si la définition pose un problème faut la reformuler afin de poser une nouvelle base et pas la railler stérilement,

    Le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais d’éprouver une impression d'une réelle conscience de soi, de « vrais sentiments » (quoi qu’on puisse mettre derrière ces mots), et « une compréhension de ses propres raisonnements »11.
    C'est pour ça que la question de l'affect est incontournable, c'est cette notion d'affect qui génère l'apparent aléatoire du comportement humain et c'est c'est l'existence de l'affect qui soutient l'existence de la conscience. Tu veux tromper un humain dans une interaction homme/machine? Faut qu'il soit capable de "penser" la notion d'affect, plus exactement faut extraire la logique qui se dégage des effets de l'affect sur nos comportements afin de pouvoir l'intégrer dans dans le fonctionnement du programme informatique.

    Grosso modo faut trouver le moyen de donner un égo à la machine, qu'elle puisse se sentir flatter ou blessée et par la même duper l'homme qui dialogue avec elle. De simuler les effets des affects.

    C'est pas parce qu'on crée un semblant de réseaux neuronnes complexe qu'on fera émerger un ersatz de conscience par l'opération du saint esprit, encore moins une conscience réelle. Ca c'est de la pensée magique.

  11. #311
    Citation Envoyé par Longwelwind Voir le message
    Mais je voulais surtout savoir si il était déjà "prouvé" qu'il était possible de faire un tel algorithme, c-à-d si la fonction était calculable.
    Oui : par exemple si tu veux un algo qui répond correctement à un test de Turing de longueur n, tu codes toutes les réponses qu'un humain ferait pour toutes les O(e^n) questions possibles dans une grande table, et le programme a juste à récupérer la réponse qui correspond. C'est un algo dans EXP. On est d'accord que ça ne fait absolument pas avancer le schmilblick, mais c'est calculable.

    Les problèmes qui ne sont pas calculables sont ceux qui portent sur les programmes eux-même : on prouve la non-calculabilité par diagonalisation, en supposant qu'il existe un programme qui résout le problème, puis on exhibe une contradiction en appliquant ce programme à lui-même ou une variante de lui-même. On n'est pas dans ce cas-là ici, on ne demande pas à l'IA de savoir prédire le futur ou autre question menant à un paradoxe.

    - - - Mise à jour - - -

    Citation Envoyé par CoinCoinWC Voir le message
    Non, je considère que la conscience c'est une propriété émergente, qui à rapport avec la complexité du cerveau (pour dire les choses vulguairement).
    Citation Envoyé par CoinCoinWC Voir le message
    C'est pas parce qu'on crée un semblant de réseaux neuronnes complexe qu'on fera émerger un ersatz de conscience par l'opération du saint esprit, encore moins une conscience réelle. Ca c'est de la pensée magique.
    Du coup la conscience est une propriété émergente d'un réseau de neurones complexe ou pas ?

  12. #312
    Citation Envoyé par CoinCoinWC Voir le message
    C'est pas parce qu'on crée un semblant de réseaux neuronnes complexe qu'on fera émerger un ersatz de conscience par l'opération du saint esprit, encore moins une conscience réelle. Ca c'est de la pensée magique.
    Citation Envoyé par CoinCoinWC Voir le message
    Non, je considère que la conscience c'est une propriété émergente, qui à rapport avec la complexité du cerveau (pour dire les choses vulguairement).
    Donc la conscience est une propriété émergente du cerveau mais on ne pourrait pas en faire émerger à partir d'un réseau de neurone.
    A moins de montrer que le cerveau est autre chose qu'un réseau de neurone, ça me parait difficilement défendable comme position.

    edit: grillé par Møgluglu

  13. #313
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par CoinCoinWC Voir le message
    Tu sais ce qui rend un programme informatique si efficace aux échecs ou au Go? C'est le fait qu'il soit pas sujet aux affects.
    Non. La différence, c'est qu'un être humain pense et qu'un ordinateur calcule.

    Par ailleurs, la faim et l'envie de pisser ne sont pas des affects mais des besoins corporels, purement physiques. Pour simplifier à un niveau qui te sera compréhensible, une fois ta vessie remplie au-delà d'un certain seuil, un signal nerveux spécifique est envoyé au cerveau qui le traduit par le besoin de relâcher certains muscles et d'en contracter d'autres pour évacuer l'urine. De la même manière (toujours simplifié pour ton niveau de compréhension), quand le niveau d'énergie global dans tes cellules baisse sous un certain seuil, un signal nerveux est envoyé au cerveau qui le traduit par le besoin d'ingérer de la nourriture.

    Bref, encore une fois, tu dis de la merde. Ta constance est impressionnante.
    Barba non facit philosophum.

  14. #314
    Citation Envoyé par Møgluglu Voir le message
    Le problème si on entre là-dedans, c'est que "taille raisonnable" et "temps comparable" deviennent dépendants de critères technologiques d'un côté et sociaux de l'autre, et on perd toute généralité et toute possibilité prédictive. Ça devient juste un concours de bite entre algos spécialisés et optimisés et humains sélectionnés et surentrainés.
    Et pour tous les problèmes bien posés (échecs, go, etc.), c'est l'ordinateur qui finit par gagner, mais ça n'a pas convaincu les sceptiques pour autant. À juste titre.
    Oui, enfin d'après la définition définition que tu proposes, une IA qui ne serrait pas capable de résoudre un truc aussi simple qu'un sudoku (qui est un problème NP-complet) ne serrait pas forcément exclue... Au final, j'ai bien l'impression que la majorité des problèmes que résout l'Homme sont NP (ou plus), mais simplement sur des entrées petites.

    D'autant que si l'Homme peut résoudre un problème EXP (ce qui est le cas), alors ta définition est vide : il n'existe pas de tels algo

  15. #315
    Citation Envoyé par Møgluglu Voir le message
    Oui : par exemple si tu veux un algo qui répond correctement à un test de Turing de longueur n, tu codes toutes les réponses qu'un humain ferait pour toutes les O(e^n) questions possibles dans une grande table, et le programme a juste à récupérer la réponse qui correspond. C'est un algo dans EXP. On est d'accord que ça ne fait absolument pas avancer le schmilblick, mais c'est calculable.

    Les problèmes qui ne sont pas calculables sont ceux qui portent sur les programmes eux-même : on prouve la non-calculabilité par diagonalisation, en supposant qu'il existe un programme qui résout le problème, puis on exhibe une contradiction en appliquant ce programme à lui-même ou une variante de lui-même. On n'est pas dans ce cas-là ici, on ne demande pas à l'IA de savoir prédire le futur ou autre question menant à un paradoxe.

    - - - Mise à jour - - -





    Du coup la conscience est une propriété émergente d'un réseau de neurones complexe ou pas ?
    Oui. Mais le fait que ce soit une propriété émergente ça dit justement que toi, en tant qu'être conscient, t'es pas les structures cognitives de ton cerveau, t'es pas non plus le réseaux de neuronnes. T'en es le produit, le résultat.
    Et ton réseaux de neuronnes, une de ses tâches c'est quand même de gérer les affects. Donc soit tu dotes ton IA d'une aptitude à traiter l'affect, soit t'espères que le réseau de neuronne va composer avec l'affect par l'opération du saint esprit. La pensée magique.

  16. #316
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par Enyss Voir le message
    Oui, enfin d'après la définition définition que tu proposes, une IA qui ne serrait pas capable de résoudre un truc aussi simple qu'un sudoku (qui est un problème NP-complet) ne serrait pas forcément exclue
    Certaines personnes en sont incapables.
    Barba non facit philosophum.

  17. #317
    Citation Envoyé par Eradan Voir le message
    Certaines personnes en sont incapables.
    Oui, tout comme certaines personnes sont incapables de communiquer avec le monde extérieur... Mais je ne vois pas en quoi ça fait avancer le truc

  18. #318
    Citation Envoyé par Eradan Voir le message
    Non. La différence, c'est qu'un être humain pense et qu'un ordinateur calcule.

    Par ailleurs, la faim et l'envie de pisser ne sont pas des affects mais des besoins corporels, purement physiques. Pour simplifier à un niveau qui te sera compréhensible, une fois ta vessie remplie au-delà d'un certain seuil, un signal nerveux spécifique est envoyé au cerveau qui le traduit par le besoin de relâcher certains muscles et d'en contracter d'autres pour évacuer l'urine. De la même manière (toujours simplifié pour ton niveau de compréhension), quand le niveau d'énergie global dans tes cellules baisse sous un certain seuil, un signal nerveux est envoyé au cerveau qui le traduit par le besoin d'ingérer de la nourriture.

    Bref, encore une fois, tu dis de la merde. Ta constance est impressionnante.
    Imagine que t'es en bagnole, t'es sur l'autoroute, les routiers font la grève. T'es bloqué. T'as envie de faire caca. Besoin corporel, purement physique. Certes. Mais ça fait dix heures que t'es bloqué, t'es sur les nerfs. Là en plus t'as le cigare au bout des lèvres depuis quatre heures, et le cigare est tout mou. Tu chies tu taches tout. Le besoin corporel, purement physique, il est pas assouvi et ça finit par te taper sur le système. Tu craques, tu finis par te chier dessus.

    Après le processus de la pensée c'est du calcul, enfin faudrait sans doute prendre le temps de s'entendre sur la notion de calcul. Mais grosso modo c'est un calcul. L'ordinateur pense aussi. La différence c'est qu'il est pas conscient de son activité de pensée, c'est un phénomène purement physique. Détaché de tout besoin corporel et purement physique.

    Note qu'on peut aller plus loin avec l'histoire du caca. Tu t'es fais caca dessus, tout le monde l'a vu. Ton besoin corporel est assouvi, tu retrouves l'équilibre. Par contre y'a un nouveau déséquilibre qui s'est produit. Ton analyse de la situation engendre un nouvelle affect, la honte. Se chier dessus en public c'est embarassant.
    Ce qui génère cet affect, c'est ton évaluation de la situation, la conscience que tu as de toi même et ce que ça te renvoie comme image de toi même. Tout le monde se fout que tu te sois chié dessus, mais rien que la peur que quelqu'un l'ait remarqué de te force à te faire tout petit. Ca c'est lié à la conscience de soi. Un programme informatique à pas de conscience de lui même par contre, du coup il est pas prêt de se chier dessus. Il est logique, froidement, tout le temps. Et si tu lui dis qu'il te raconte de la merde, il s'en cogne, il en tient pas compte. Y'a pas d'affect.

  19. #319
    Citation Envoyé par CoinCoinWC Voir le message
    Donc soit tu dotes ton IA d'une aptitude à traiter l'affect, soit t'espères que le réseau de neuronne va composer avec l'affect par l'opération du saint esprit. La pensée magique.
    Sauf que personne de sérieux dans l'IA n'a prétendu que balancer une soupe de neurone et juste regarder le résultat serait suffisant pour en voir émerger une conscience.
    Ce serait bien d'éviter les procès d'intention et les petites piques de ce type.

  20. #320
    Un programme informatique à pas de conscience de lui même par contre, du coup il est pas prêt de se chier dessus. Il est logique, froidement, tout le temps. Et si tu lui dis qu'il te raconte de la merde, il s'en cogne, il en tient pas compte. Y'a pas d'affect.
    Quelle preuve tu as qu'un programme informatique (complexe) ne peut pas avoir "conscience" de lui même?

  21. #321
    Citation Envoyé par Møgluglu Voir le message
    Oui : par exemple si tu veux un algo qui répond correctement à un test de Turing de longueur n, tu codes toutes les réponses qu'un humain ferait pour toutes les O(e^n) questions possibles dans une grande table, et le programme a juste à récupérer la réponse qui correspond. C'est un algo dans EXP. On est d'accord que ça ne fait absolument pas avancer le schmilblick, mais c'est calculable.

    Les problèmes qui ne sont pas calculables sont ceux qui portent sur les programmes eux-même : on prouve la non-calculabilité par diagonalisation, en supposant qu'il existe un programme qui résout le problème, puis on exhibe une contradiction en appliquant ce programme à lui-même ou une variante de lui-même. On n'est pas dans ce cas-là ici, on ne demande pas à l'IA de savoir prédire le futur ou autre question menant à un paradoxe.
    Y'as pas d'autres moyens de prouver la non-calculabilité de certaines fonctions ?
    Si je me gourre pas, même si HALT est prouvé non-récursif par diagonalisation, la généralisation de HALT, le théorème de RICE, et la généralisation du théorème de Rice, le théorème du point fixe n'utilise pas de diagonalisation. (J'arrive pas à retrouver ces noms sur Google, donc ça se peut que ce que j'ai vu dans mon cursus soit pas exactement les termes exacts)



    Citation Envoyé par CoinCoinWC Voir le message
    Tu sais ce qui rend un programme informatique si efficace aux échecs ou au Go? C'est le fait qu'il soit pas sujet aux affects.
    Un joueur humain peut avoir faim, être stressé, angoissé, triste, avoir envie d'uriner, être amoureux et tout ça peut influer sur sa prise de décision en venant amoindrir ses capacités de réflexions. Même un maître d'échec au maximum de sa concentration peut voir sa lecture du jeu impacté par des processus inconscients qui viendront faire obstacle à la réalité objective. La peur de perdre la face devant une ligne de programme alors que le monde entier suivra le résultat de la partie d'échec ça peut pousser le joueur à prendre des risques inconsidérés ou au contraire à se montrer bien trop prudent.

    Un programme informatique lui il s'en cogne. Y'a une situation objective, il la définit logiquement. Que ses "géniteurs" soient présents ou que la partie se joue dans un total anonymat son état d'esprit sera le même : inexistant.

    C'est pas un détail, c'est pas un truc qui se surmonte avec une bd dogmatique, c'est ce qui fonde toute la complexité de l'identité humaine cette idée d'affect et si y'a des rapprochements à faire entre la physique quantique et le cerveau humain, il se noue autour de l'affect. En tout cas pour penser une IA forte, une IA capable de simuler la complexité du comportement humain.

    Je cite wikipedia, mais si la définition pose un problème faut la reformuler afin de poser une nouvelle base et pas la railler stérilement,



    C'est pour ça que la question de l'affect est incontournable, c'est cette notion d'affect qui génère l'apparent aléatoire du comportement humain et c'est c'est l'existence de l'affect qui soutient l'existence de la conscience. Tu veux tromper un humain dans une interaction homme/machine? Faut qu'il soit capable de "penser" la notion d'affect, plus exactement faut extraire la logique qui se dégage des effets de l'affect sur nos comportements afin de pouvoir l'intégrer dans dans le fonctionnement du programme informatique.

    Grosso modo faut trouver le moyen de donner un égo à la machine, qu'elle puisse se sentir flatter ou blessée et par la même duper l'homme qui dialogue avec elle. De simuler les effets des affects.

    C'est pas parce qu'on crée un semblant de réseaux neuronnes complexe qu'on fera émerger un ersatz de conscience par l'opération du saint esprit, encore moins une conscience réelle. Ca c'est de la pensée magique.
    Je pense que si tu veux convaincre ces messieurs, tu dois trouver quelques chose chez l'humain qui n'est pas ancrée dans le physique.
    Tout ce que tu dis peut-être simulé/programmé. Nous les humains avons été programmés pour ressentir ces émotions (que ce soit l'amour pour se reproduire, la jalousie pour perdurer son espèce, le plaisir comme mécanisme de récompense pour survivre, la méfiance des expériences passées pour se protéger).
    Citation Envoyé par oll Voir le message
    Et allez, un de plus qui me fout dans sa signature...
    longwelwind.net

  22. #322
    Citation Envoyé par Enyss Voir le message
    Quelle preuve tu as qu'un programme informatique (complexe) ne peut pas avoir "conscience" de lui même?
    Justement c'est ça que tu piges pas.
    Je dis pas qu'un programme informatique ne peut pas avoir de "conscience" de lui même. Je dis que pour qu'un programme informatique puisse avoir "conscience" de lui même faut le doter d'une capacité à se représenter lui même. Qu'à mon sens la meilleure manière de procéder c'est de passer par la question de l'affect. L'histoire, elle vise juste à mettre en lumière l'effet de l'affect sur le comportement d'un individu. L'ordinateur à pas du tout besoin de ressentir les affects pour composer avec, on a juste besoin de lui permettre de se représenter lui même face à un autre et d'en tirer des conclusions logiques.

    Idéalement l'examinateur d'un test de turing, ça doit être un troll, un putain de troll. Qui fait passer un stress test aux deux sujets afin de voir si la machine finit par craquer.

    - - - Mise à jour - - -

    Citation Envoyé par Longwelwind Voir le message
    Je pense que si tu veux convaincre ces messieurs, tu dois trouver quelques chose chez l'humain qui n'est pas ancrée dans le physique.
    Tout ce que tu dis peut-être simulé/programmé. Nous les humains avons été programmés pour ressentir ces émotions (que ce soit l'amour pour se reproduire, la jalousie pour perdurer son espèce, le plaisir comme mécanisme de récompense pour survivre, la méfiance des expériences passées pour se protéger).
    Tu veux bien m'expliquer comment on fait pour programmer un robot afin qu'il simule la honte, l'amour, la jalousie, le plaisir?
    Parce que je suis d'accord pour dire qu'on peut le faire, mais moi ce qui m'intéresse c'est de savoir comment on fait.

  23. #323
    Citation Envoyé par CoinCoinWC
    Je dis pas qu'un programme informatique ne peut pas avoir de "conscience" de lui même.
    Donc "un programme n'a pas d'affect" en langage CoinCOinWC ça veut dire "tu peux doter le programme d'affects"?

  24. #324
    Citation Envoyé par Orhin Voir le message
    Sauf que personne de sérieux dans l'IA n'a prétendu que balancer une soupe de neurone et juste regarder le résultat serait suffisant pour en voir émerger une conscience.
    Ce serait bien d'éviter les procès d'intention et les petites piques de ce type.
    Ah mais moi je fais que soutenir qu'il faut que le système de neuronne puisse simuler les effets de l'affect hein.
    On ressent les résultats de la réaction chimique. Quand t'as mal tu te dis pas "y'a telle réaction bio chimique" de façon instinctive, tu fais face à un affect. Cet affect il va impacter ton état d'esprit présent et futur. Par exemple si tu te prends un couteau dans le bide, tu vas avoir mal et être angoissé à l'idée de mourrir. Après coup tu risques de revivre l'affect à chaque fois que tu reverras un couteau, avant que l'affect s'estompe par l'effet de l'oubli de l'agression.


    Si t'es une personne de sérieux dans l'IA tu m'expliques comment vous gérez ça. Sinon tu files une BD, j'ai rien contre.

    - - - Mise à jour - - -

    Citation Envoyé par Enyss Voir le message
    Donc "un programme n'a pas d'affect" en langage CoinCOinWC ça veut dire "tu peux doter le programme d'affects"?
    Non tu peux pas doter le programme d'affect. C'est pour ça que conscience est entre guillemet.
    Par contre tu peux programmer ton bot de chat pour qu'il compose avec les affects des autres, pour qu'il simule les effets de l'affect.

    Ca marchera pas avec les besoins corporels et physique mais par exemple ça impliquerait que si tu craches à la gueule de la génitrice d'un robot il pourrait avoir envie de t'en coller une. Comme le Pape.

    Donc idem, si tu sais comment on fait, ça m'intéresse.

  25. #325
    Et pourquoi on ne pourrait doter un programme d'affect?

  26. #326
    Citation Envoyé par Enyss Voir le message
    Et pourquoi on ne pourrait doter un programme d'affect?
    Parce que l'affect c'est un truc bien particulier que tu piges pas.
    Du coup le plus simple c'est de demander comment l'ia pense le système émotionnel d'un bot de chat complexe. Ce sera peut être beaucoup plus simple.

  27. #327
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par CoinCoinWC Voir le message
    1/ Imagine que t'es en bagnole, t'es sur l'autoroute, les routiers font la grève. T'es bloqué. T'as envie de faire caca. Besoin corporel, purement physique. Certes. Mais ça fait dix heures que t'es bloqué, t'es sur les nerfs. Là en plus t'as le cigare au bout des lèvres depuis quatre heures, et le cigare est tout mou. Tu chies tu taches tout. Le besoin corporel, purement physique, il est pas assouvi et ça finit par te taper sur le système. Tu craques, tu finis par te chier dessus.

    2/ Après le processus de la pensée c'est du calcul, enfin faudrait sans doute prendre le temps de s'entendre sur la notion de calcul. Mais grosso modo c'est un calcul. L'ordinateur pense aussi. La différence c'est qu'il est pas conscient de son activité de pensée, c'est un phénomène purement physique. Détaché de tout besoin corporel et purement physique.

    3/ Un programme informatique à pas de conscience de lui même par contre, du coup il est pas prêt de se chier dessus. Il est logique, froidement, tout le temps.
    Citation Envoyé par CoinCoinWC Voir le message
    4/ Quand t'as mal tu te dis pas "y'a telle réaction bio chimique" de façon instinctive, tu fais face à un affect.

    5/ Non tu peux pas doter le programme d'affect. C'est pour ça que conscience est entre guillemet.
    1/ Les besoins physiques influent sur l'humeur. Félicitations, tu viens de réinventer la roue psychologique.

    2/ Non, le processus de pensée n'est pas du calcul. C'est de la pensée. C'est parce que les deux sont différents qu'il est si difficile actuellement de créer une véritable IA de type 2.

    3/ Non. La logique pure et froide, c'est la satisfaction du besoin corporel quand il advient, sans tenir compte de la situation sociale. Tu dis n'importe quoi même sur tes propres idées.

    4/ Non, ton cerveau interprète un signal électro-chimique.

    5/ Tu n'en sais rien, tout simplement parce qu'il n'a jamais été prouvé que ça n'était pas possible. Arrête d'essayer d'imposer tes croyances personnelles comme des faits scientifiques.

    C'est impressionnant. Tu ne comprends absolument rien à ce qu'on te dit, mais tu viens quand même coller des trucs qui n'ont rien à voir pour essayer de faire passer des idées que tu ne sembles même pas capable de définir toi-même tant tu passes ton temps à te contredire.

    Tant de merde de la part d'une seule personne, c'est digne du Guinness Book.
    Barba non facit philosophum.

  28. #328
    Citation Envoyé par CoinCoinWC Voir le message
    Citation Envoyé par Enyss Voir le message
    Et pourquoi on ne pourrait doter un programme d'affect?
    Parce que l'affect c'est un truc bien particulier que tu piges pas.
    10/10 argument totalement convainquant

  29. #329
    Citation Envoyé par Enyss Voir le message
    Oui, enfin d'après la définition définition que tu proposes, une IA qui ne serrait pas capable de résoudre un truc aussi simple qu'un sudoku (qui est un problème NP-complet) ne serrait pas forcément exclue... Au final, j'ai bien l'impression que la majorité des problèmes que résout l'Homme sont NP (ou plus), mais simplement sur des entrées petites.

    D'autant que si l'Homme peut résoudre un problème EXP (ce qui est le cas), alors ta définition est vide : il n'existe pas de tels algo
    La théorie de la complexité ne s'intéresse pas et n'affirme rien sur la possibilité de résoudre une instance particulière d'un problème. Bien sûr qu'un programme peut résoudre un sudoku ou même un éventuel problème EXP-complet de taille fixée (en temps constant puisque la taille du problème est constante). On résout même des problèmes NP-complets de taille arbitraire avec des algos polynomiaux tous les jours... avec des heuristiques, c'est juste que ça ne marche pas à tous les coups.
    La complexité s'intéresse à comment évolue le temps de calcul en fonction de la taille du problème, c'est tout. Et ça marche très bien pour distinguer les problèmes solubles exactement en pratique, ceux pour lesquels on peut trouver une solution approximative en pratique, et les autres. Et ça fait qu'on peut payer par carte bleue. Et pour l'instant on observe que les grandes classes de complexité ne dépendent quasiment pas du modèle de calcul sous-jacent : un problème de complexité élevée est intrinsèquement difficile, pour tout le monde.

    Maintenant, si tu te chronomètres sur la résolution de sudoku avec des grilles de plus en plus grandes, et que ton temps suit une fonction polynomiale* même en arrivant sur des grilles très grandes, dis-le tout de suite tu vas pouvoir passer au 20 heures. À moins que la CIA ne t'enlève avant, ils ont des problèmes réductibles au sudoku à résoudre.

    * avec un polynome d'ordre inférieur au nombre de points de la courbe, hein.

  30. #330
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    J'avais oublié de te répondre Enyss, désolé.

    Citation Envoyé par Enyss Voir le message
    Oui, tout comme certaines personnes sont incapables de communiquer avec le monde extérieur... Mais je ne vois pas en quoi ça fait avancer le truc
    Une IA de type 2, donc avec une pensée de type humaine, n'as pas forcément à être très intelligente. C'est la manière dont elle attaque un problème qui importe, pas le fait qu'elle puisse le résoudre.
    Barba non facit philosophum.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •