Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 5 sur 43 PremièrePremière 1234567891011121315 ... DernièreDernière
Affichage des résultats 121 à 150 sur 1288
  1. #121
    Citation Envoyé par Orhin Voir le message
    Doit y avoir moyen de faire des expérience assez sympa en utilisant les replay de joueurs comme base d'apprentissage pour le mirroring.
    Ha mais ça ça se fait déjà pas mal d'utiliser des réseau de neurones avec des replay de joueurs. C'est ce qu'a fait google avec le jeu de Go, c'est ce que font d'autres labo avec Starcraft etc...
    En gros tu fais comme Google (ou d'autre avant eux, c'est un classique, juste qu'eux l'ont appliqué avec masse d'argent et de com à un problème célébre qui n’intéressais plus grand monde, bref, ils sont surtout bon en com, mais je médis ) :

    Tu fais une recherche en arbre classique, mais tu utilise un réseau de reconnaissance pour te noter les situations (bien-pas bien, me rapportera t-elle quelque chose ? etc ...) en fonctions de ce que ça avais rapporter à d'autre joueur sur le même jeu (victoire-defaite) .


    Sinon avec du pur mirooring c'est rarement fait. Je me demande si l'IA de la bestiole dans black & white n'utilise pas ce concept, mais c'est tout. Tu peut aisément faire une association situation->action si tu a suffisamment de base de joueur, mais elle doit être juste immense la base XD. Et toutes tes IA auront le même comportement. De plus il y a aussi des mauvais joueurs, le truc convergera vers la moyenne des joueurs et risque de donner une IA bien fade.
    Le truc c'est que, comme je le disais en début de topic, si tu t'attaque à des IA plus neuro-bio (et pas avec une base de recherche en graphe) tu te restreint à des animaux vu les tech actuelles. C'est pas mal pour un jeu avec tout pleins de bestioles ou de petits êtres dont on attends pas une grande intelligence. C'est plus chiant pour les gros jeux avec des "humains" en face.

    Mais moi je vise les bestioles dans mes projets, ça pourrait être sympa même si mine de rien ça demande de reconstruire un petit cerveau complet parce que quand tu construit "senseur+association simple+gestion récompense" ben tu construit déjà 80% du cerveau. Si en plus tu rajoute "prédiction" ça monte à 90% XD. Après rien n’empêche de faire des "touts petits cerveaux", mais c'est un vrai travail de recherche, que je mène d'abord dans ma thèse et ensuite je verrais bien.

    Ha tient by the way : j'ai refait le premier post du topic pour plus de clarté, et le titre en passant

  2. #122
    Il est vachement chouette ce topic, j'apprends plein de trucs. Merci

  3. #123
    Citation Envoyé par Nilsou Voir le message
    Ha mais ça ça se fait déjà pas mal d'utiliser des réseau de neurones avec des replay de joueurs. C'est ce qu'a fait google avec le jeu de Go, c'est ce que font d'autres labo avec Starcraft etc...
    Yep, j'avais pas mal suivi tout ça, c'est pour ça que je me demandais si des essais avaient été fait avec du miroring.

    Citation Envoyé par Nilsou Voir le message
    Le truc c'est que, comme je le disais en début de topic, si tu t'attaque à des IA plus neuro-bio (et pas avec une base de recherche en graphe) tu te restreint à des animaux vu les tech actuelles. C'est pas mal pour un jeu avec tout pleins de bestioles ou de petits êtres dont on attends pas une grande intelligence. C'est plus chiant pour les gros jeux avec des "humains" en face.
    Si effectivement l'approche n'est pas la plus efficace pour créer une IA "joueur", cela pourrait être une approche intéressante pour créer les IA basiques contrôlant les unités adverses individuelles.
    Pas besoin d'aller très loin, dans un premier temps avoir des zombies un minimum intelligents dans les jeux types L4D/Killing Floor serait déjà pas mal.
    Puis à moyen terme égaler le niveau des IA de Fear (une des meilleurs IA d'adversaire dans les FPS, voir : http://alumni.media.mit.edu/~jorkin/..._jeff_fear.pdf) ce serait déjà une bonne avancée.

    D'ailleurs, y'a eu des études sur les comportements de groupe émergent dans une population d'IA basées sur le miroring ?

    Citation Envoyé par Nilsou Voir le message
    mais c'est un vrai travail de recherche, que je mène d'abord dans ma thèse et ensuite je verrais bien.
    Tu fais ta thèses où (si c'est pas indiscret) ?
    Combien de temps avant
    Spoiler Alert!
    de stresser pour
    la soutenance ?

  4. #124
    C'est à la fois pas mal et très bof l'IA de Fear.
    Pas mal dans le sens ou d'autres FPS ne font pas mieux, très bof parce qu'en lisant le papier on se rends vite compte que les technologies utilisées sont juste ... l'état de l'art d'il y a 60 ans . Les trucs que je fais programmer a mes master 1 .

    Donc oui ça marche bien, mais évidemment je dirais, parce que c'est l'état de l'art d'il y a 60 ans . Ce qui est juste hallucinant c'est que les IA ne soit pas déjà toute programmé comme ça alors que c'est la base mais que la plupart d'entre elle sont juste une soupe de comportement sans but, définis au jugé par l'auteur. En gros dans la plupart des jeux-vidéo "l'IA" n'est en aucune manière de "l'IA", même d'il y a 60 ans. Ça donne juste une idée du gouffre de compétence bien triste qu'il y a actuellement dans le milieu du JV dans le domaine de la programmation d'IA qui biens souvent pour eux se résume à programmer des if then au jugé avec un petit A* sorti tout droit d'une bibliothèque pour le pathfinding... Alors que paradoxalement ce que fait Fear est un type de A* sur des états

    On vois bien ici que l'IA de Fear est une simple machine à état, ou une sorte de parcours de graphe inversé. En gros j'ai une bibli d'actions, je regarde celles qui satisfont mon états et je remonte la chaîne pour voir satisfaire leur état à elles.
    C'est vieux mais très juste car on a quelques preuve que notre planification humaine fonctionnerais comme ça, donc c'est à la fois daté mais c'est la bonne manière de faire de la planification simple. Il y a quand même deux gros points manquant, il manque l'évaluation du coups de la chaîne d'action dans leur truc (pour en choisir une plutôt qu'une autre de façon plus intelligente) et il manque la possibilité que les actions soit découvertes ou inventées en live.

    Avec pas grand chose ça deviendrais pas mal du tout comme truc pour de l'IA humaine. Il manque une couche réflexe plus intelligente, une gestion du coût/récompense pour biaiser la chaîne dynamique et le système réflexe en même temps. Ainsi les bonnes chaînes deviennent par la suite un réflexe rapide. La gestion du coût permettrait de noter petit à petit l'efficacité de tel ou tel action.
    Bref, vraiment pas grand chose, c'est une base solide que je recommande donc malgré tout, même si dans la logique ce genre de truc devrait être utilisé partout depuis bien longtemps...

    Ce qui est rigolo c'est que j'ai un thésard dans mon labo qui fais ça en 100% réseau de neurone en corrigeant les défauts et qui l'utilise pour manipuler des objets ^^. Preuve qu'avec pas grand chose on rattrape quand meme l'état de l'art.

    - - - Mise à jour - - -

    Citation Envoyé par Orhin Voir le message
    Tu fais ta thèses où (si c'est pas indiscret) ?
    Combien de temps avant
    Spoiler Alert!
    de stresser pour
    la soutenance ?
    A Cergy-Pontoise, laboratoire ETIS, équipe neurocybernétique.
    J'en suis à un peu plus de la moitié de la thèse, donc encore environ un an et demi , et le stress monte déjà .

  5. #125
    Citation Envoyé par Nilsou Voir le message
    Sauf que tu n'a aucune preuve, absolument aucune, que tu ne fais pas exactement la même chose avec les autres êtres vivants, un jeu de dupe. En l'absence de preuve tu ne peut donc pas dire robot<homme puisque toi même tu ne sais ni ce qu'est un homme, ni si il est conscient (qui sais, peut être que toi seulement tu es conscient) tu n'a aucune définition de la conscience, donc tu ne peut tirer aucun raisonnement la dessus autre que c'est un état non définis uniquement perceptible de toi même.
    Non mais j'ai des preuves du fait qu'on passe notre temps à faire exactement la même choses avec des êtres humains, des animaux, des végétaux, des objets. D'ailleurs c'est à partir de ce constat qu'on peut commencer à penser des trucs comme l'amour, la haine, l'envie, la jalousie ou le désir.

    Même dans les sciences humaines ce problème est bien connu . On attribue à l'autre une "conscience" et des "sentiments/émotions" uniquement par miroir de nous même. Mais ce miroir n'est pas binaire et a prouvé qu'il était purement subjectif et culturel. Il n'y a pas si longtemps en occident on ne considérais pas l'homme noir comme ayant une âme/émotions/conscience car ils était trop différent.
    Dans d'autre culture et même en occident moderne, le concept d’âme/émotions/conscience est au contraire étendu aux animaux, voire aux végétaux pour certains. Voire même à l'ensemble de la planète.


    Cet exemple te montre bien qu'il n'y a aucune véritable définition de ces concept en dehors de sois même. Puisque ce n'est pas de la science (même pas de la science humaine rigoureuse, les grecs ont largement traité ce sujet), tout avis sur le sujet deviens de la religion (en attendant de trouver de quoi définir et raisonner) car tout avis sur le sujet n'est pas attaquable.
    Non ton exemple est fallacieux en fait. Tu pars du principe qu'on a tous une façon différente de définir ces concepts et t'en tire la conclusion qu'il n'existe aucune défintion objective de ces concepts. Alors qu'objectivement tu peux juste en déduire que la subjectivité influence la représentation de ces concepts. Ca ne signfie en aucun cas qu'on ne puisse pas tirer une définition objective de ces concepts par contre ça illustre un manque de culture philosophique de ton côté.


    C'est la définition scientifique de la religion. Si je dis que les âmes montent aux ciel : ce n'est pas attaquable car personne n'a de contre preuves, c'est de la religion.
    Si je dis que j'ai une conscience, c'est une déclaration non attaquable, c'est de la religion.
    Si je dis que tu a une conscience, c'est également non attaquable, donc idem.
    En fait les sciences cognitives mettent quand même en lumière l'existence de la conscience. On sait repérer des signatures de l'activité de cette dite conscience et ça permet par exemple de vérifier qu'un individu est bien devenu un "légume" avant de le débrancher.
    On sait aussi que sur l'ensemble du cerveau, les circuits dédiés à la conscience représentent pas 5% des circuits. D'ailleurs dans le champs des sciences cogntivies l'inconscient c'est la salle des machines de Matrix. C'est pas évident si on voit le truc comme étant la célébration d'un univers solispsiste mais si on part du principe que le solipsisme ça a quand même quelque chose à voir avec la psychose ça devient plus criant. Mais bon là faut quand même avoir de sérieuses bases pour réussir à détécter le mythe du héros dans Matrix et piger qu'on trouve derrière une quête initiatique dont le but est l'individuation/accès à la singularité. Mais bon là je m'égare.

    A la base ce que je veux dire c'est que des preuves objectives de l'existence de la conscience on en a aujourd'hui, et elles sont produites par LA science. D'ailleurs il me semble qu'à la lumière de ces démonstrations de LA science on peut aisément envisager la conscience comme étant ce qui fait interface entre l'environnement et un corps. Que la conscience c'est ce qui n'est pas inconscient (parce que ouais quand même, l'idée qu'il existe du conscient va de pair avec l'idée qu'il existe un inconscient) et que finalement ce qu'on définit comme étant "je" n'est rien d'autre que cette conscience.

    Bref ce que tu nous sers là c'est ton opinion, ton avis, enrobé de ta prétention liée à ton statu de sachant. Sous couvert d'être une figure d'autorité tu me demandes d'avaler des conneries qui se debunker en dix minutes de recherche google.


    Ainsi il est possible de dire que, je te cite, sauf que c'est inattaquable car les termes eux mêmes ne sont pas définis de façon commune. C'est tout autant inattaquable que lorsque l’Église avais décrété que les noirs n'avaient pas d’âme ... Pour toi un dauphin, un chien ou un chat sont-ils conscient ? Si oui, quand est il d'une souris, d'un papillon, d'un moustique, d'une méduse ? Et on peut continuer en descendant, elle est ou exactement ta limite des émotions et de la conscience ? Un arbre ressent-il une "douleur" (scientifiquement il ressent quelque chose alors ...) du coups tu le classe ou ?
    Et te rends tu compte que c'est purement personnel ?
    Bon ça c'est encore un truc que tu sais pas penser et du coup tu pars du principe que personne sait le penser.

    La position d'Alan Turing et d'Isaac Asimov est une position de sagesse car ils disent : "Puisque je ne suis pas capable de définir, alors je ne définis pas et j’admets que seule le comportement résultant m'importe. Si je ne parviens pas à discriminer ce comportement résultant d'autre comportements observé chez des objets/animaux/humains auxquelles moi même j'attribue ces termes non définissable, alors je serais obligé d'admettre l'emploi de ce terme chez le sujet observé."
    Non la position d'alan turing c'est pas une position de sagesse. La sagesse c'est un truc bien précis, Alan Turing en disposait pas. Il s'est suicidé, ça suffit à démontrer son manque de sagesse. Ca signfie certainement pas que ca enlève quoi que ce soit au génie du bonhomme ceci dit, mais dans sa vision désincarnée de l'homme on trouve plus le germe de son suicide à venir que la démonstration de sa sagesse. J'insiste parce que c'est important.

    Alan Turing il est mathématicien, si on l'a retenu c'est parce qu'il pose les bases de l'informatique. L'informatique c'est de la computation, de la logique vide de sens qui se contente d'assembler de l'information pour en produire de nouvelles. Ton robot dans le meilleur des cas on pourra lui calquer nos circuits cognitifs, on pourra lui prêter notre machinerie inconsciente, mais ça suffira jamais à faire advenir une conscience.

    Parce que la différence fondamentale entre toi et un robot, c'est que quand je te dis table, tu penses à des tas de choses à la fois. Tu penses pas seulement à l'objet table mais aussi à tous les affects associés à la représentation table. Jamais tu ne verrais un robot se mettre à bugger parce qu'on lui dit "viens à table". Il se contentera de reconnaître la table, de s'y diriger et fin de l'histoire. Un individu le simple fait de lui dire "viens à table" ça va réveiller des souvenirs, des affects liés aux souvenirs, à la représentation de la table. La table n'est pas neutre, ce n'est pas juste quatre pieds et un plan de travail, c'est une représentation prise dans un réseau de représentation.

    Toutes tes expériences de vie tu les as ordonnées, catégorisées, hierarchisées. Et peut être que toi quand on te dit école ça réveille des tas de bons souvenirs mais pour d'autres le terme école ca réveille une pelleté de mauvais souvenirs. C'est ça qui fera la différence entre toi et le voisin au bout du compte, le fait que vos expériences de l'école ont été différentes. Ca vous poussera à produire deux points de vues différents, pour ne pas dire opposé, sur l'école. A vous représenter cette idée d'écoles de façons différentes et c'est finalement ce genre de détails qui vient faconner ta subjectivité et celle de ton voisin.

    Cette subjectivité elle est façonnée à coup de stimulis neurobiologiques qui te permettent de te dire "ça j'ai aimé" "ça j'ai pas aimé". C'est ce qui fait qu'une table ne sera jamais qu'une table pour un Homme.

    La conscience est le résultat d'une intégration de tes expériences de vies. Si ton robot est pas foutu d'intégrer des expériences de vie, il pourra jamais être autre chose qu'un bot de chat évolué dans une boite de conserve compliqué. Si tu commences à penser le moyen de donner au robot la possibilité de se faire une grille de lecture du monde qui soit subjective, de se différencier de son environnement, de se reconnaître alors là on pourra parler de conscience.

    D'ailleurs, maintenant que le post est rédigé, ce qui m'apparait évident c'est le détail suivant :
    Si dans ton bagage conceptuel t'as rien pour penser la conscience c'est parce que tu ne fais que penser de l'inconscient. Y'a pas de mystères.

    En gros, si je dis qu'un Dauphin est conscient, qu'un Homme est conscient et que je créé une machine qui a un comportement entre les deux, par la force des choses je me vois obligé d'inclure cette machine dans la bulle "conscient". Idem avec la notion 'd'intelligence" ou "d'émotion".
    Une autre façon de voir est également de dire qu'on se fiche de tout ces mots (que tu retrouvera d'ailleurs bien peu en science de l'IA) et que seul le comportement observé est important.
    Je t'invite à t'intéresser aux domaines ou ces mots ont une utilité. Ca te permettra d'éviter les contre vérité et de faire de ton avis une vérité absolue. T'aurais d'ailleurs du commencer par là, par admettre qu'à ton niveau toutes ces questions on s'en fout du moment que le but est atteint. Note que sur la question des sciences de l'IA, j'ai aucune prétention. Alors je remet rien en cause, je me contente de te lire et de m'instruire

  6. #126
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par Mastaba Voir le message
    Hein? Je comprends pas trop comment t'arrives à ca?
    C'est comme le Port Salut, en vert pour être plus clair.

    Citation Envoyé par Mastaba Voir le message
    Ben si on le reproduit à l'identique il devra nécessairement se comporter à l'identique, sinon ca veut fatalement dire qu'il y a quelque chose de plus qu'on ne détecte pas et donc qu'on ne copie pas, comme une "âme" individuelle et unique qui manipulerai le corps comme une marionnette
    En rouge la partie sur laquelle je rebondis maintenant. Comme tu le dis toi-même,

    Citation Envoyé par Mastaba Voir le message
    Etant donné que les facteurs environnementaux participent à la création de l'identité de la même manière que les facteurs génétiques, même si on avait des utérus artificiels et qu'on clonait des embryons en suivant exactement la même "recette", l'environnement et ses réactions en chaîne chaotiques se chargerait naturellement de construire des individus distincts.
    Le même principe s'applique à une intelligence artificielle, sans adjonction d'un quelque chose supplémentaire.
    Barba non facit philosophum.

  7. #127
    Ce que je veux dire, c'est qu'il n'y a pas une autre chose invisible et détachée du cerveau qui ferait qu'un humain (qui possèderait cette chose) serait forcément différent d'un robot (dont on décide arbitrairement qu'il ne pourra jamais l'avoir).
    Du coups théoriquement oui, si on recopie le cerveau à l'identique parfaitement, il n'y aura évidemment pas de différence puisqu'on omet rien.
    L'environnement se chargera ensuite relativement rapidement de différencier les clones en deux individualités distinctes (comme les jumeaux) sans qu'on puisse l'empêcher étant donné que les modifications se font en cascade à partir de variations infinitésimales dues au hasard.

    Et pour des IA similaires le même principe devrait s'appliquer aussi oui.

    tout ca pour dire que non, on ne peut pas tracer une ligne infranchissable entre humain/animaux/plantes, et robots; en déclarant arbitrairement que certains sont vivants et/ou dotés de conscience et d'autres non.
    La notion d'intelligence ou de conscience est déjà en soi loin d'être défini de manière précise et indiscutable, tout comme la notion de mort a bien évolué à travers le temps.

    Alan Turing en disposait pas. Il s'est suicidé, ça suffit à démontrer son manque de sagesse.
    Franchement là je pense que c'est hors sujet.

    L'informatique c'est de la computation, de la logique vide de sens qui se contente d'assembler de l'information pour en produire de nouvelles. Ton robot dans le meilleur des cas on pourra lui calquer nos circuits cognitifs, on pourra lui prêter notre machinerie inconsciente, mais ça suffira jamais à faire advenir une conscience.

    Parce que la différence fondamentale entre toi et un robot, c'est que quand je te dis table, tu penses à des tas de choses à la fois. Tu penses pas seulement à l'objet table mais aussi à tous les affects associés à la représentation table. Jamais tu ne verrais un robot se mettre à bugger parce qu'on lui dit "viens à table". Il se contentera de reconnaître la table, de s'y diriger et fin de l'histoire. Un individu le simple fait de lui dire "viens à table" ça va réveiller des souvenirs, des affects liés aux souvenirs, à la représentation de la table. La table n'est pas neutre, ce n'est pas juste quatre pieds et un plan de travail, c'est une représentation prise dans un réseau de représentation.

    Toutes tes expériences de vie tu les as ordonnées, catégorisées, hierarchisées. Et peut être que toi quand on te dit école ça réveille des tas de bons souvenirs mais pour d'autres le terme école ca réveille une pelleté de mauvais souvenirs. C'est ça qui fera la différence entre toi et le voisin au bout du compte, le fait que vos expériences de l'école ont été différentes. Ca vous poussera à produire deux points de vues différents, pour ne pas dire opposé, sur l'école. A vous représenter cette idée d'écoles de façons différentes et c'est finalement ce genre de détails qui vient faconner ta subjectivité et celle de ton voisin.

    Cette subjectivité elle est façonnée à coup de stimulis neurobiologiques qui te permettent de te dire "ça j'ai aimé" "ça j'ai pas aimé". C'est ce qui fait qu'une table ne sera jamais qu'une table pour un Homme.

    La conscience est le résultat d'une intégration de tes expériences de vies. Si ton robot est pas foutu d'intégrer des expériences de vie, il pourra jamais être autre chose qu'un bot de chat évolué dans une boite de conserve compliqué. Si tu commences à penser le moyen de donner au robot la possibilité de se faire une grille de lecture du monde qui soit subjective, de se différencier de son environnement, de se reconnaître alors là on pourra parler de conscience.
    Tu suggères que le cerveau humain fait autre chose que de la simple computation logique (même de manière très complexe). Le robot de ton exemple est aussi une IA de type 1, le truc intéressant c'est justement le type 2 dont le but est de faire ce que tu décris.

    Je pense que la seule différence entre les deux est principalement le niveau de complexité et que ce qu'on appelle la "conscience" tout d'abord n'est pas un état binaire 0 ou 1 et ensuite émerge naturellement et progressivement au fur et à mesure que la complexité des connexions augmente.
    On peut d'ailleurs faire le chemin inverse avec les personnes subissant des maladies dégénératives; leur conscience est visiblement altérée.

    Sinon le simple fait que la conscience est relativement illusoire avec ses 5% qui viennent se baser sur tout le travail préalable de l'inconscient pour prendre sa "décision" (dont l'indépendance est du coups vachement remise en question) participe plus à aller dans le sens de créer des robots d'abord inconscients.

  8. #128
    Remarque en passant: rien ne nous dit aujourd'hui que la propriété émergente "conscience" n'est pas une propriété exclusive des réseaux de neurones biologiques électriques. On a pour l'instant pas observé d'autres formes de conscience (bon, OK, on ne saurait probablement pas la reconnaitre au premier coup d'oeil ). Et qu'il soit donc impossible de produire autre chose que des robots "inconscients" à l'aide de technologies numériques et de réseaux de neurones artificiels.

    (ce qui n’empêcheras pas de pouvoir obtenir de la conscience via un réseau mêlant par exemple réseau numérique et réseau neuronal biologique, pourquoi pas. D'un certain point de vue, un humain consultant son agenda sur un ordinateur, c'est déjà un réseau numérique interfacé avec un réseau neuronal )

    Sinon, du point de vue du médecin neurologue, la conscience et ses mécanismes sont plutôt de mieux en mieux compris et définis (à contrario des définitions du philosophe ou du physicien ): la Conscience est un processus neuronal "émergeant" des réseaux de neurones complexes, et on peut le suivre à la trace via l'activité électrique qu'il anime au fur et à mesure de son activité. Un humain prenant consciemment contrôle de sa respiration par exemple va prendre la main sur les processus "inconscients" de basse consommation d'énergie qui s'occupaient de la respiration l'instant d'avant.

    A l'inverse, un humain "inconscient" n'a aucun processus très consommateur d'énergie actif: encéphalogramme plat.

    La conscience, ce n'est pas seulement pour les neurologues une "prise de contrôle" via des processus complexes: c'est aussi la construction du "moi" et de la représentation de soi via ces processus: en gros, "l'illusion d'être soi" en tant qu'entité unique, centralisée: être "un homme" avec ses sentiments, ses souvenirs, ses opinions, propriétaire de "son corps" via une "image de soi" construite par les processus de conscience.

    On mets en évidence les dysfonctionnements de la conscience via les maladies dégénératives: maladie du "membre étranger", qui est un trouble de la construction du "moi" qui pousse certaines personnes à aller jusqu'à s'amputer du membre qu'elles considèrent "étranger" à leur "moi" et ne contrôlent plus consciemment. La schizophrénie, les raptus nerveux sont d'autres exemples de détérioration des processus de construction du "moi" et même de reconstruction d'une seconde image et personnalité au sein du même organisme, l'une prenant le pas sur l'autre au fur et à mesure du transfert du contrôle des processus inconscients.

    A l'inverse, les "chimères humaines", qui sont des faux jumeaux siamois "parfaits" ayant donné un seul organisme viable à la naissance, sont des exemples de combinaison de 2 ADN et personnes distinctes via l'ADN totalement entremêles au sein d'un même corps, qui a pourtant a l'illusion parfaite d'être "un", ses processus de conscience et de construction de l'image du "moi" fonctionnant parfaitement.

    Bref, si cela ne nous explique pas fondamentalement "ce qu'est la conscience", tout comme la physique n’explique pas fondamentalement "ce qu'est un quark", on mets la conscience en évidence de part son fonctionnement, ses mécanismes: c'est donc une image destinée à un réseau de neurones complexe contrôlant un corps complexe composé d'une myriade d'atomes, de cellules vivantes, d'organes, ect. Cette image donnant donc l’émergence de l'illusion à cet assemblage hétéroclite d'être "un".

    Et cette image est manifestement très utile, on l'a vu: il est très gênant darwinièrement parlant d'être tenté de s'amputer un membre simplement parce que cette image/illusion fonctionne mal...

    Et c'est a mon avis pourquoi tant que les IAs n'auront pas, en plus de la capacité à résoudre des actions complexes ou en dehors de leur expérience, un processus de "moi" complexe de haut niveau leur donnant une image d'elles-mêmes en tant qu'entité vivante unique, recevant les feedback d'un "corps" et des différents processus physiques ou numériques qui le composent, et capable de prendre la main sur presque n'importe quel processus de "bas niveau", elles ne pourront être réellement conscientes.

    Cette image n'est pas nécessairement permanente: elle peut comme chez l'homme être inactive et être recrée à la volée (comme un homme qui se réveille d'un coma) à partir de l'ensemble des expériences et autres processus inconscients de sentiments, sensations, ect actifs inconsciemment.

    Belle piste de réflexion pour un dev IA, non?
    Dernière modification par Tankodesantniki ; 24/05/2016 à 06h23.

  9. #129
    En apparté à cette remarque sur la conscience et les processus de "bas niveau":

    Il existe un cas en particulier qui est interressant dans le cadre du fonctionnement de la "conscience" et de sa prise de contrôle sur les autres processus inconscients: c'est la "panique".

    Je ne sais pas si vous avez déjà connu une crise de panique?

    Moi si, c'était lors de mes premières plongées. J'étais vraiment mal à l'aise, je ne me sentais pas bien, je maitrisait de moins en moins ma respiration et mon malaise s'est amplifié au point ou j'ai réellement "perdu le contrôle": en fait mon cerveau ne laisse pas "seul" le processus "conscience" gérer une situation dangereuse pour le corps si le processus "conscience" perds les pédales et ne semble ne plus savoir gérer une situation: il reprends le contrôle et shuntant le processus conscient!

    Dans mon cas, ça s'est traduit par une perte de contrôle du bras gauche qui m'a arraché inconsciemment mon embout respiratoire et des jambes qui se sont mises à pédaler pour rejoindre la surface.

    Arracher son embout en plongée et filer vers la surface, c'est très con. Mais c'est ainsi que réagit mon processus "panique" de bas niveau quand il reprends le contrôle face à une situation d'immersion que le processus "conscience" n'arrive plus à maitriser: il écarte ce qui gêne et prends la fuite pour sortir le plus vite possible de la situation de danger incontrôlable.

    Heureusement, je me suis aperçu de ce qui était en train de se passer à la sensation de l'eau en bouche, ait réussi à remettre l'embout en bouche, puis continuer la plongée en forçant ma respiration à reprendre un rythme régulier et lent. Donnant ainsi au processus de panique des signaux comme quoi le processus "conscient" gère la situation, et qu'il n'a pas à intervenir à "ma" place ^^.

    Il existe donc des cas ou un processus "conscient" de haut niveau perds la priorité de contrôle face aux processus "inconscients" qui surveillent et s'occupent de non seulement tout un tas de paramètres et fonctions, mais également du processus de conscience lui-même!
    Dernière modification par Tankodesantniki ; 24/05/2016 à 08h06.

  10. #130
    C'est peut-être ton corps qui a réagit, et non ton inconscient. Vidéo à regarder : que peut le corps :
    On a longtemps cru que le cerveau était le seul maître à bord, mais ce n'est pas tout à fait vrai. En cas de situation dangereuse ou exceptionnelle, le corps peut prendre le relais.

  11. #131
    Je vois ce que tu veux dire. Au final, on touche là à la limite de la définition du cerveau ou du corps. La distinction cerveau/corps est un peu artificielle quand on regarde "l'homme" comme un assemblage hétéroclite complexe d'atomes ayant finalement uniquement "l'illusion" d'être un "être humain" via cette image construite pour lui-même par le processus de "moi" conscient.

    Une petite expérience de pensée pour poursuivre le sujet:

    Imaginez que dans le futur, on dispose d'un robot capable de conscience, via un réseau neuronal mêlant neurones artificielles et biologiques clonées: le "XC-1". Mettons qu'il se présente pour notre expérience sous la forme d'un tronc humanoïde placé sur une table dans une pièce, et que vous êtes l'opérateur chargé de le tester.

    Vous avez a votre disposition 5 "cassettes", pour 5 "consciences" ou personnalités différentes que vous pouvez charger dans le robot à volonté. Il s'agit à chaque fois d'un drop/create total.

    - La première contient une copie de la mémoire, des sentiments, ect, d'une personne morte.
    - La seconde contient une copie de votre propre cerveau faite à l'instant.
    - La 3e contient une IA standard usine majordome "XC-1"
    - La 4e est vide.
    - La 5e... [insert your idea here]

    Que se passes-t'il lorsque vous chargez la première? La seconde? la 3e? la 4e? Qui est "vivant" et conscient a ce moment là? Que se passes-t'il lorsque que j'efface ou copie les données?

    Spoiler Alert!
    Pour moi, au vu de ce que j'ai écrit précédemment, la réponse est très simple: quelle que soit la mémoire et la personnalité, la seule "personne" vivante et consciente tout du long est le robot lui-même. C'est lui qui vit via son réseau de neurones et l'image de lui "émergente" de la conscience générée par les atomes de ce réseau neuronal, ces atomes qui le composent et qui sont sur cette table, ce sont eux qui vivent et pensent. Seule sa personnalité et ses souvenirs changent selon qu'il se prends pour une copie de moi, un mort, ou un majordome...
    Dernière modification par Tankodesantniki ; 24/05/2016 à 08h00.

  12. #132
    Citation Envoyé par Mastaba Voir le message



    Tu suggères que le cerveau humain fait autre chose que de la simple computation logique (même de manière très complexe). Le robot de ton exemple est aussi une IA de type 1, le truc intéressant c'est justement le type 2 dont le but est de faire ce que tu décris.

    Je pense que la seule différence entre les deux est principalement le niveau de complexité et que ce qu'on appelle la "conscience" tout d'abord n'est pas un état binaire 0 ou 1 et ensuite émerge naturellement et progressivement au fur et à mesure que la complexité des connexions augmente.
    On peut d'ailleurs faire le chemin inverse avec les personnes subissant des maladies dégénératives; leur conscience est visiblement altérée.

    Sinon le simple fait que la conscience est relativement illusoire avec ses 5% qui viennent se baser sur tout le travail préalable de l'inconscient pour prendre sa "décision" (dont l'indépendance est du coups vachement remise en question) participe plus à aller dans le sens de créer des robots d'abord inconscients.
    Non je suggere pas que le cerveau fait autre chose que de la computation logique, je soutiens que cette computation logique elle intègre une variable qu'on peut nommer "affect" et que cette variable influence la computation.

    Je vois pas d'impossibilité à modéliser un cerveau informatiquement, à reproduire ses structures cognitives afin d'en reproduire une version au silicium. Mais tout ce que tu peux faire c'est créer une coquille vide et lui donner un ersatz de conscience. Tu peux "flouer" l'humain en permettant au robot de reconnaître les émotions humaines et en lui permettant de prendre position vis à vis de celle ci. T'auras l'impression qu'en face c'est conscient, que ça fait preuve d'empathie, sauf que y'a aucune émotion de réveillée chez le robot. Il a pas la machinerie pour ressentir les affects.

    La différence entre nous et le robot, c'est qu'on peut s'extasier devant un coucher de soleil, parce qu'on a une intuition du beau. Le robot sera jamais ému par ce coucher de soleil, il est pas câblé pour.

    Bref on peut multiplier les exemples à l'infini. C'est pas grand chose dans le fond ce que j'avance, mais ça permet de se représenter l'absence de conscience du robot tout en expliquant pourquoi de l'extérieur on peut faire face à une illusion de conscience. Si on aime la science, il me semble que comprendre le tour de magie à l'oeuvre est pas superflu.

    Note qu'à la fin, ton propos concerne plus le libre arbitre que la conscience. Et effectivement, ce fameux libre arbitre peut apparaître illusoire. Y'a des tas d'expériences qui pointent dans ce cas en sciences cognitives et on est capable de démontrer qu'une décision qu'un sujet pense avoir prise a déjà été prise quelques secondes en amont par l'inconscient qui se charge simplement de la transmettre à la conscience.
    Après le twist c'est que cette conscience elle ignore tout de cette machinerie, donc elle baigne dans l'illusion d'avoir pris une décision qui lui a été en réalité donnée. Ca ouvre une vraie brèche pour repenser la notion de libre arbitre puisqu'en fin de compte ce jeu du "on me donne une décision, je la valide comme étant mienne".
    A première vue on peut s'imaginer que ça remet en cause l'existence du libre arbitre, mais c'est un peu simpliste comme vue.
    En fait notre système de représentation du monde consistue une forme de matrice et c'est cette matrice qui va servir de base au fonctionnement de la machinerie inconsciente. Quelque part on peut considérer qu'il y'a un code symbolique qui régit notre rapport au réel (le réel est en dehors de nous, innaccessible. La réalité est une subjectivation du réel) et ce code symbolique on peut le comparer à une espèce de programme informatique qui régirait l'inconscient. La conscience à le pouvoir d'agir sur ce code symbolique (j'aime pas trop l'expression) et finalement de reprogrammer l'inconscient.

    Disons, pour faire plus clair, que tu pourras jamais prendre la décision qui t'es donnée par l'inconscient mais que tu peux comprendre ce qui motivait ta décision à posteriori et à partir de là réélaborer une nouvelle stratégie décisionnelle. Il me semble que la conscience elle existe dans cet objectif précis, celui d'ajuster un corps à son environnement.


    deathdigger : Le corps est régit par les processus inconscient. Si c'est le corps qui réagit de lui même, c'est que c'est l'inconscient qui prend le dessus. Tankodesantniki a été très clair dans l'exposition de son anecdote.

  13. #133
    Citation Envoyé par Tankodesantniki Voir le message
    Je vois ce que tu veux dire. Au final, on touche là à la limite de la définition du cerveau ou du corps. La distinction cerveau/corps est un peu artificielle quand on regarde "l'homme" comme un assemblage hétéroclite complexe d'atomes ayant finalement uniquement "l'illusion" d'être un "être humain" via cette image construite pour lui-même par le processus de "moi" conscient.

    Une petite expérience de pensée pour poursuivre le sujet:

    Imaginez que dans le futur, on dispose d'un robot capable de conscience, via un réseau neuronal mêlant neurones artificielles et biologiques clonées: le "XC-1". Mettons qu'il se présente pour notre expérience sous la forme d'un tronc humanoïde placé sur une table dans une pièce, et que vous êtes l'opérateur chargé de le tester.

    Vous avez a votre disposition 5 "cassettes", pour 5 "consciences" ou personnalités différentes que vous pouvez charger dans le robot à volonté. Il s'agit à chaque fois d'un drop/create total.

    - La première contient une copie de la mémoire, des sentiments, ect, d'une personne morte.
    - La seconde contient une copie de votre propre cerveau faite à l'instant.
    - La 3e contient une IA standard usine majordome "XC-1"
    - La 4e est vide.
    - La 5e... [insert your idea here]

    Que se passes-t'il lorsque vous chargez la première? La seconde? la 3e? la 4e? Qui est "vivant" et conscient a ce moment là? Que se passes-t'il lorsque que j'efface ou copie les données?

    Spoiler Alert!
    Pour moi, au vu de ce que j'ai écrit précédemment, la réponse est très simple: quelle que soit la mémoire et la personnalité, la seule "personne" vivante et consciente tout du long est le robot lui-même. C'est lui qui vit via son réseau de neurones et l'image de lui "émergente" de la conscience générée par les atomes de ce réseau neuronal, ces atomes qui le composent et qui sont sur cette table, ce sont eux qui vivent et pensent. Seule sa personnalité et ses souvenirs changent selon qu'il se prends pour une copie de moi, un mort, ou un majordome...
    Là tu pars sur Dark City (excellentissime film) où l'on implémente des souvenirs dans le cerveau des gens pour comprendre ce qui fait une individualité.

  14. #134
    Total Recall aussi.

    Non je suggere pas que le cerveau fait autre chose que de la computation logique, je soutiens que cette computation logique elle intègre une variable qu'on peut nommer "affect" et que cette variable influence la computation.

    Je vois pas d'impossibilité à modéliser un cerveau informatiquement, à reproduire ses structures cognitives afin d'en reproduire une version au silicium. Mais tout ce que tu peux faire c'est créer une coquille vide et lui donner un ersatz de conscience. Tu peux "flouer" l'humain en permettant au robot de reconnaître les émotions humaines et en lui permettant de prendre position vis à vis de celle ci. T'auras l'impression qu'en face c'est conscient, que ça fait preuve d'empathie, sauf que y'a aucune émotion de réveillée chez le robot. Il a pas la machinerie pour ressentir les affects.

    La différence entre nous et le robot, c'est qu'on peut s'extasier devant un coucher de soleil, parce qu'on a une intuition du beau. Le robot sera jamais ému par ce coucher de soleil, il est pas câblé pour.
    Je pense que cette "variable affect" n'est en soi n'est pas une fonction câblée en hardware spécialement dédiée à cet effet séparée et qui existe dans le seul but de modifier le calcul initial "logique et froid" afin de rajouter une touche d'humanité pour qu'on puisse trouver un truc beau et s'extasier dessus sans autre but. (Ce qui pour le coup serait vraiment artificiel)

    Je pense que c'est le sous produit de réactions complexes construites par l'évolution de l'ensemble du cerveau, un effet secondaire d'une longue combinaison de processus sélectionnés par l'environnement et le hasard.
    Par exemple peut être que le coucher de soleil est un moment particulier de la journée qui a eu une réelle utilité pratique pour la survie de l'espèce? (j'en sais rien et ca n'a peut être strictement rien à voir et n'être qu'une association faite par le cerveau avec autre chose)

    Si tu prends notre conception du beau chez le sexe opposé on comprends qu'on ne recherche pas une femme avec des gros seins/fesses "parce que c'est plus chouette " mais juste parce que cette préférence à été sélectionnée naturellement comme signe de fertilité, les mecs qui préféraient les gros boobs ont juste eu plus de descendance et la préférence s'est renforcée jusqu'à aujourd'hui, même si c'est désormais quelque chose de bien moins déterminant pour la survie de l'espèce et même individuellement avec l'augmentation du niveau de vie, de l'hygiène etc.
    Pareil pour la recherche de la symétrie, des proportions pour sélectionner inconsciemment le meilleur bagage génétique.

    Ce genre de préférence peut s'appliquer à plein d'autres choses non directement liées, parce que le cerveau passe son temps à comparer les choses entre elles et à faire des liens, même quand il n'y en a pas. (ce qui crée les superstitions, si il arrive un truc mauvais au moment où je fait une action précise le cerveau construit une théorie dessus en associant les deux pour à l'avenir éviter cette action dans le but d'éviter la conséquence)

    Et quand on combine le résultat de ces combinaisons elles même résultat d'autres combinaisons, elles même etc. (et qui peut remonter l'arbre dans n'importe quel sens à partir de n'importe quel point, en les hiérarchisant en y appliquant des valeurs elles même résultat de ces comparaisons), on arrive à un gloubi boulga ultra complexe qui donne cette impression que l'Humain est vraiment un truc à part impossible à reproduire par des machines qui ne comprennent que oui/non. (alors que basiquement le cerveau humain ne reconnait lui aussi qu'un set fini de stimulations électro-chimiques et base l'infinité de ses expériences dessus)

    Sauf que si on construit des machines avec le même niveau de complexité le résultat sera le même, pourquoi de tels robots seraient incapables de trouver certaines choses belles (peu importe que ce soit les même que nous!) d'après le résultat de leur propres cascades de réflexions basées au départ sur des principes super simples et ensuite complexifiées par les comparaisons avec leurs propres expériences au fil des générations; comme une succession de patchs peut faire émerger des situations imprévues et cocasses, comme une incompatibilité de drivers peut poser problème ou afficher des choses qui ne devraient pas s'afficher.

    Ben là c'est un peu la même chose mais à une échelle bien plus grande et avec des choses bien plus complexes et qui ne provoque pas de BSOD direct parce que le cerveau (humain) ne plante pas quand il rencontre un truc qu'il ne connait pas, il s'y adapte et l'utilise, il rentre ce résultat incongru dans sa base de connaissance en tant que réalité à laquelle il va donner une valeur plus ou moins grande.
    Par exemple les illusions d'optiques montrent les "défaillances" du cerveau qui sont en fait des optimisations très poussée, parce qu'on ne rencontre pas ce genre de cas dans la nature.

    Alors bien sûr on pense que pour les robots ce n'est qu'une "illusion" d'émotion ou de conscience, peut être pourquoi pas, mais comme peut-on alors dire que nos émotions et notre conscience humaine ne sont pas elles même des illusions?

    Alors étant donné que nous humains n'avons pas conscience de l'intégralité de l'historique de nos arbres de réflexions, on dit juste "c'est beau" tandis qu'un robot pourra peut être retracer l'origine du stimuli positif initial et dire "c'est utile à tel effet", et on aura l'impression que ce con de robot n'a aucune sensibilité, mais pas parce qu'on a une conception du beau et pas lui, juste parce qu'on n'a conscience que du résultat final et qu'on a perdu de vue tout le processus qui à mené à ce qu'on aime telle ou telle chose et pas d'autres (ca marche aussi pour ce qu'on aime pas de la même manière).

    Enfin le "beau" ou "moche" sont de pures constructions non seulement définies par la génétique et l'évolution mais aussi par l'environnement, l'éducation, la société, l'époque. (qui représentent l'environnement dans son ensemble, avec un effet de rétroaction parce que cet environnement est lui même construit par des individus humains qui apportent leur propres conception du monde autant qu'ils subissent l'influence rétroactive de cette même société qu'ils constituent)

  15. #135
    Citation Envoyé par Mastaba Voir le message
    Alors étant donné que nous humains n'avons pas conscience de l'intégralité de l'historique de nos arbres de réflexions, on dit juste "c'est beau" tandis qu'un robot pourra peut être retracer l'origine du stimuli positif initial et dire "c'est utile à tel effet", et on aura l'impression que ce con de robot n'a aucune sensibilité, mais pas parce qu'on a une conception du beau et pas lui, juste parce qu'on n'a conscience que du résultat final et qu'on a perdu de vue tout le processus qui à mené à ce qu'on aime telle ou telle chose et pas d'autres (ca marche aussi pour ce qu'on aime pas de la même manière).
    Ah, mais il est tout à fait possible d'obtenir un robot qui n'a lui aussi "conscience" que du résultat final!

    Tout simplement en implémentant dans l'IA ce processus supérieur complexe de conscience, de fabrication du "moi" à l'image de ce qui se fait chez les humains, justement.

    Ce seras un processus de "haut niveau" comme vu dans un de mes précédent post, capable de prendre la main sur les process "de bas niveau", mais aussi de construire une "image du moi" du robot, de s'interfacer et recevoir les résultats des process de bas niveau, donc juste le "résultat final".

    Cette partie-là du robot seras, elle, capable de juste "ressentir le beau" sans avoir à retracer l'ensemble du process inconscient qui y a mené.

  16. #136
    Alors j'ai pas tout saisis au critique de CoinCoinWC mais je ne suis quasiement pas d'accord avec l'ensemble. Je ne répondrais donc qu'a quelques points majeurs :

    Citation Envoyé par CoinCoinWC Voir le message
    Non ton exemple est fallacieux en fait. Tu pars du principe qu'on a tous une façon différente de définir ces concepts et t'en tire la conclusion qu'il n'existe aucune définition objective de ces concepts. Alors qu'objectivement tu peux juste en déduire que la subjectivité influence la représentation de ces concepts. Ca ne signfie en aucun cas qu'on ne puisse pas tirer une définition objective de ces concepts par contre ça illustre un manque de culture philosophique de ton côté.
    Simplement, comme actuellement nous ne somme pas capable d'avoir de définition objective de la conscience, alors Turing et Asimov se sont placés sur un autre plan : Seule le comportement résultant est important car seule lui nous permet à priori de déduire qu'un autre est intelligent/conscient/porteur d'émotion. Sauf si tu fais l’hypothèse d'un signal invisible trop ouf qui passerais d'un humain à un autre. C'est ton droit, mais tant que ce n'est pas prouvé, ben on évite d'avoir recours à ceci. En attendant ces mots ne se définissant que par l'observation d'un comportement, alors autant tenter de reproduire le comportement.

    Citation Envoyé par CoinCoinWC Voir le message
    En fait les sciences cognitives mettent quand même en lumière l'existence de la conscience. On sait repérer des signatures de l'activité de cette dite conscience et ça permet par exemple de vérifier qu'un individu est bien devenu un "légume" avant de le débrancher.
    On sait aussi que sur l'ensemble du cerveau, les circuits dédiés à la conscience représentent pas 5% des circuits.
    Non, ceci est de la pseudo-science. Citation s'il te plais ? A ma connaissance et celle de tout mon laboratoire, ce que tu viens de dire est objectivement faux.
    Citation Envoyé par CoinCoinWC Voir le message
    A la base ce que je veux dire c'est que des preuves objectives de l'existence de la conscience on en a aujourd'hui, et elles sont produites par LA science. D'ailleurs il me semble qu'à la lumière de ces démonstrations de LA science on peut aisément envisager la conscience comme étant ce qui fait interface entre l'environnement et un corps. Que la conscience c'est ce qui n'est pas inconscient (parce que ouais quand même, l'idée qu'il existe du conscient va de pair avec l'idée qu'il existe un inconscient) et que finalement ce qu'on définit comme étant "je" n'est rien d'autre que cette conscience.
    Non et encore non, on a pas, mais alors pas du tout. Il n'existe aucune preuve scientifique actuelle qui permette d'observer, de délimiter, ni même de définir la conscience.
    Il existe des avis, des expériences, mais aucuns consensus et surtout aucun scientifique digne de ce nom n'oserais dire qu'il est capable d'observer la conscience ou dire que ceci est responsable de 5% de l'activité du cerveau . Tu dis nawak sur le sujet, désolé.
    Ou alors tu melimélote les mots consciences et "éveil". Un amalgame qui se fais souvent. On est capable de savoir quand une personne est "consciente" mais pas ce qu'est la "conscience". Nuance.
    On peut dire que les deux sont identiques, c'est une hypothèse, mais non vérifiée. On peut faire la soustraction de l'inaction (dodo profond) et de l'action (eveil) et voir ce qui est actif ou pas, c'est une bonne piste de travail mais qui a aboutit a très peu de chose pour le moment...

    De plus la définition que tu lui attribue, l'interface entre l'environnement et un corps, et une définition en cours de débat, mais sans preuve. Tu dit que tu peut faire cette supposition, tu peut, mais il n'y a pas de preuve. Ha et si je connecte une caméra à un bras robotique et qu'a un mouvement je lui dit d'aller en haut et à un autre en bas, genre le programme le plus con existant. On a bien une interface entre un environnement et un corps non ? Conscient pas conscient ?

    Citation Envoyé par CoinCoinWC Voir le message
    Non la position d'alan turing c'est pas une position de sagesse. La sagesse c'est un truc bien précis, Alan Turing en disposait pas. Il s'est suicidé, ça suffit à démontrer son manque de sagesse.
    Ouais bon, j’arrête de te lire à partir de là tellement c'est con ... J'aurais même pas du répondre à la base, mais bon j'ai commencé avant d'avoir lu l'ensemble
    Tu es un idéologue, tu a des positions super tranchée (genre Suicide = Personne qui le fais n'est pas "sage") sur des sujets pourtant très flou (genre la sagesse). Ce sont des avis qui n'ont rien de scientifiques mais qui sont purement dans la croyance et dans l'idéologie bien sale, voire sectaire. C'est un forum donc blablate si tu veut mais j'éviterais d'en tenir compte.

    - - - Mise à jour - - -

    Citation Envoyé par Mastaba Voir le message
    Ce que je veux dire, c'est qu'il n'y a pas une autre chose invisible et détachée du cerveau qui ferait qu'un humain (qui possèderait cette chose) serait forcément différent d'un robot (dont on décide arbitrairement qu'il ne pourra jamais l'avoir).
    Du coups théoriquement oui, si on recopie le cerveau à l'identique parfaitement, il n'y aura évidemment pas de différence puisqu'on omet rien.
    L'environnement se chargera ensuite relativement rapidement de différencier les clones en deux individualités distinctes (comme les jumeaux) sans qu'on puisse l'empêcher étant donné que les modifications se font en cascade à partir de variations infinitésimales dues au hasard.
    Alors je suis d'accords grosso modo avec ta grosse réponse mais il faut prendre des pincettes sur la partie de ce paragraphe que j'ai mis en gras. Autant CoinCoinWC a scientifiquement tort, vu l'état actuel des connaissances, de se positionner comme si Homme = Âme > Robot = Pas d’Âme parce que l'homme aurait une sorte de conscience désincarné qui le rendrais infalsifiable. Autant on aurais tort dans un argumentaire de dire qu'en l'état actuel des connaissances nous avons de quoi affirmer le contraire. Tout ce que l'on peut dire, comme Turing l'a bien décris, c'est que l'on ne sais pas. Et donc qu'en l'absence de donnée, en attendant, il faut trouver d'autre critères en IA. Ou s'en foutre (comme moi )
    Dernière modification par Nilsou ; 25/05/2016 à 01h36.

  17. #137
    Citation Envoyé par Tankodesantniki Voir le message
    Remarque en passant: rien ne nous dit aujourd'hui que la propriété émergente "conscience" n'est pas une propriété exclusive des réseaux de neurones biologiques électriques. On a pour l'instant pas observé d'autres formes de conscience (bon, OK, on ne saurait probablement pas la reconnaitre au premier coup d'oeil ). Et qu'il soit donc impossible de produire autre chose que des robots "inconscients" à l'aide de technologies numériques et de réseaux de neurones artificiels.

    (ce qui n’empêcheras pas de pouvoir obtenir de la conscience via un réseau mêlant par exemple réseau numérique et réseau neuronal biologique, pourquoi pas. D'un certain point de vue, un humain consultant son agenda sur un ordinateur, c'est déjà un réseau numérique interfacé avec un réseau neuronal )

    Sinon, du point de vue du médecin neurologue, la conscience et ses mécanismes sont plutôt de mieux en mieux compris et définis (à contrario des définitions du philosophe ou du physicien ): la Conscience est un processus neuronal "émergeant" des réseaux de neurones complexes, et on peut le suivre à la trace via l'activité électrique qu'il anime au fur et à mesure de son activité. Un humain prenant consciemment contrôle de sa respiration par exemple va prendre la main sur les processus "inconscients" de basse consommation d'énergie qui s'occupaient de la respiration l'instant d'avant.

    A l'inverse, un humain "inconscient" n'a aucun processus très consommateur d'énergie actif: encéphalogramme plat.
    Alors je suis plutôt d'accord mais je mettrais perso un petit warning. On sait suivre le processus de prise de contrôle, de mise en lumière des processus. mais on est toujours pas trop capable de dire d’où ceci viens. Au final ça ne nous apprends pas trop de chose que ce qu'on savais déjà de la définition philo de la conscience : sa limitation à être mono-directionnelle a un instant t. Il ne me semble pas qu'on ai d'autres preuves pour le moment sous la main.


    Citation Envoyé par Tankodesantniki Voir le message
    Et cette image est manifestement très utile, on l'a vu: il est très gênant darwinièrement parlant d'être tenté de s'amputer un membre simplement parce que cette image/illusion fonctionne mal...
    Hum, petit détail quand même : chez des personnes qui sont atteintes de maladies forçant l'ignorance d'une partie de leur corps (leur bras par exemple), ben elles demandent aux médecins de couper leur bras car ce n'est pas le leur . J'ai l'impréssion que tu fais reference à ça (ou pas ?) pourtant tu semble dire le contraire

    Citation Envoyé par Tankodesantniki Voir le message
    Et c'est a mon avis pourquoi tant que les IAs n'auront pas, en plus de la capacité à résoudre des actions complexes ou en dehors de leur expérience, un processus de "moi" complexe de haut niveau leur donnant une image d'elles-mêmes en tant qu'entité vivante unique, recevant les feedback d'un "corps" et des différents processus physiques ou numériques qui le composent, et capable de prendre la main sur presque n'importe quel processus de "bas niveau", elles ne pourront être réellement conscientes.
    Alors là il y a du débat car concernant "en plus de la capacité à résoudre des actions complexes ou en dehors de leur expérience", ça c'est parfois le cas dans certains labo et de façon réductrice un simple A* à l'ancienne résout des problèmes de pathfinding jamais posé. Des IA qui sont suffisamment adaptative pour trouver à minima une solution à un problème jamais réellement rencontré, on en a déjà pas mal. De plus, la plupart des animaux ne coche pas cette case, sont-ils inconscients pour toi du coups ?

    Enfin sur la dernière partie: "un processus de "moi" complexe de haut niveau leur donnant une image d'elles-mêmes en tant qu'entité vivante unique, recevant les feedback d'un "corps" et des différents processus physiques ou numériques qui le composent, et capable de prendre la main sur presque n'importe quel processus de "bas niveau", elles ne pourront être réellement conscientes."
    Peut-être bien, mais est-ce que ce n'est pas une définition tautologique de la conscience ? J'ai l'impression que ta phrase peut se lire comme "tant qu'il n'y aura pas la conscience il n'y aura pas la conscience" . Tu ramène le problème à la couche du "moi qui prends le contrôle", donc la conscience.

    - - - Mise à jour - - -

    Citation Envoyé par Tankodesantniki Voir le message
    Je vois ce que tu veux dire. Au final, on touche là à la limite de la définition du cerveau ou du corps. La distinction cerveau/corps est un peu artificielle quand on regarde "l'homme" comme un assemblage hétéroclite complexe d'atomes ayant finalement uniquement "l'illusion" d'être un "être humain" via cette image construite pour lui-même par le processus de "moi" conscient.

    Une petite expérience de pensée pour poursuivre le sujet:

    Imaginez que dans le futur, on dispose d'un robot capable de conscience, via un réseau neuronal mêlant neurones artificielles et biologiques clonées: le "XC-1". Mettons qu'il se présente pour notre expérience sous la forme d'un tronc humanoïde placé sur une table dans une pièce, et que vous êtes l'opérateur chargé de le tester.

    Vous avez a votre disposition 5 "cassettes", pour 5 "consciences" ou personnalités différentes que vous pouvez charger dans le robot à volonté. Il s'agit à chaque fois d'un drop/create total.

    - La première contient une copie de la mémoire, des sentiments, ect, d'une personne morte.
    - La seconde contient une copie de votre propre cerveau faite à l'instant.
    - La 3e contient une IA standard usine majordome "XC-1"
    - La 4e est vide.
    - La 5e... [insert your idea here]

    Que se passes-t'il lorsque vous chargez la première? La seconde? la 3e? la 4e? Qui est "vivant" et conscient a ce moment là? Que se passes-t'il lorsque que j'efface ou copie les données?

    Spoiler Alert!
    Pour moi, au vu de ce que j'ai écrit précédemment, la réponse est très simple: quelle que soit la mémoire et la personnalité, la seule "personne" vivante et consciente tout du long est le robot lui-même. C'est lui qui vit via son réseau de neurones et l'image de lui "émergente" de la conscience générée par les atomes de ce réseau neuronal, ces atomes qui le composent et qui sont sur cette table, ce sont eux qui vivent et pensent. Seule sa personnalité et ses souvenirs changent selon qu'il se prends pour une copie de moi, un mort, ou un majordome...
    Un cas intéressant mais tu lie intuitivement dans ton analyse finale le phénomène conscience aux atomes constituants le corps. Tu a peut être raison, mais peut être pas. Les scientifiques actuellement ont un maigre consensus pour dire que c'est plutôt le procédé dynamique (comprendre la dynamique du signal) et non le substrat (les atomes) qui sont important. Néanmoins c'est un maigre consensus de croyance et d'intuition. Non validé par l’expérience. C'est donc largement ouvert à débat.

    - - - Mise à jour - - -

    Citation Envoyé par Tankodesantniki Voir le message
    Ah, mais il est tout à fait possible d'obtenir un robot qui n'a lui aussi "conscience" que du résultat final!

    Tout simplement en implémentant dans l'IA ce processus supérieur complexe de conscience, de fabrication du "moi" à l'image de ce qui se fait chez les humains, justement.

    Ce seras un processus de "haut niveau" comme vu dans un de mes précédent post, capable de prendre la main sur les process "de bas niveau", mais aussi de construire une "image du moi" du robot, de s'interfacer et recevoir les résultats des process de bas niveau, donc juste le "résultat final".

    Cette partie-là du robot seras, elle, capable de juste "ressentir le beau" sans avoir à retracer l'ensemble du process inconscient qui y a mené.
    C'est très difficile de distinguer le haut du bas niveau mais ce que tu décris, on le fais déjà. Tout robot basé sur des réseaux de neurones (toutes IA je veut dire) ne peut qu'avoir une mémoire imparfaite. Il n'a accès qu'a la somme des expériences.
    Ce genre de processus est pour le coups assez peu complexe à reproduire. On a d'ailleurs un robot un peu médiatisé (berenson) qui tente de se construire, grâce à l'image de ce que les autres pensent d’œuvres d'arts, sa propre conception d’œuvre d'art. Toujours sur les concepts d'apprentissage parent-enfant. Ici sur la transmission de la notion d’œuvre belle ou pas.

  18. #138
    Citation Envoyé par Nilsou Voir le message
    Alors je suis plutôt d'accord mais je mettrais perso un petit warning. On sait suivre le processus de prise de contrôle, de mise en lumière des processus. mais on est toujours pas trop capable de dire d’où ceci viens. Au final ça ne nous apprends pas trop de chose que ce qu'on savais déjà de la définition philo de la conscience : sa limitation à être mono-directionnelle a un instant t. Il ne me semble pas qu'on ai d'autres preuves pour le moment sous la main.
    Tout à fait, ce que j'essaie de faire dans mes posts, c'est me limiter à la définition de la conscience comme "propriété émergente des réseaux de neurones complexes", et ce qu'on en observe physiquement. (je précise ce point à la fin de ce post)

    Citation Envoyé par Nilsou Voir le message
    Hum, petit détail quand même : chez des personnes qui sont atteintes de maladies forçant l'ignorance d'une partie de leur corps (leur bras par exemple), ben elles demandent aux médecins de couper leur bras car ce n'est pas le leur . J'ai l'impréssion que tu fais reference à ça (ou pas ?) pourtant tu semble dire le contraire
    C'est bien ce que je voulais dire: que le fait d'avoir un "moi" imparfait est un désavantage darwinien, pardon si j’étais pas clair ^^

    Citation Envoyé par Nilsou Voir le message
    Alors là il y a du débat car concernant "en plus de la capacité à résoudre des actions complexes ou en dehors de leur expérience", ça c'est parfois le cas dans certains labo et de façon réductrice un simple A* à l'ancienne résout des problèmes de pathfinding jamais posé. Des IA qui sont suffisamment adaptative pour trouver à minima une solution à un problème jamais réellement rencontré, on en a déjà pas mal. De plus, la plupart des animaux ne coche pas cette case, sont-ils inconscients pour toi du coups ?
    Je n'ai pas la réponse à cette question, car elle se situe "au bornes" de la définition de la conscience, et finalement m'importe assez peu: ce qui m’intéresse davantage, c'est les processus de conscience "supérieurs" et en particulier le fonctionnement du "moi" qui me parait très intéressant, car le siège de ce qui fait qu'un homme se prends pour un homme, une entité unique, avec "ses" sentiments, corps et sensation.

    Citation Envoyé par Nilsou Voir le message
    Enfin sur la dernière partie: "un processus de "moi" complexe de haut niveau leur donnant une image d'elles-mêmes en tant qu'entité vivante unique, recevant les feedback d'un "corps" et des différents processus physiques ou numériques qui le composent, et capable de prendre la main sur presque n'importe quel processus de "bas niveau", elles ne pourront être réellement conscientes."
    Peut-être bien, mais est-ce que ce n'est pas une définition tautologique de la conscience ? J'ai l'impression que ta phrase peut se lire comme "tant qu'il n'y aura pas la conscience il n'y aura pas la conscience" . Tu ramène le problème à la couche du "moi qui prends le contrôle", donc la conscience.
    Alors c'est vrai, mais c'est un processus de conscience en particulier qui me semble intéressant de simuler et de constater: la "fabrication de l'image de moi":

    Certes, vu l'état ou en est le développement de l'IA aujourd'hui, c'est un peu prématuré, mais l'idée d'un "processus de "moi"" supérieur qui fabrique une "image" de lui-même au "robot doué d'IA" et qui fonctionne peu ou prou comme le processus de "moi" chez l'homme est-il une piste envisageable ou intéressante selon toi?

    C'est un processus très complexe chez l'homme, mais ça serait en quelque sorte un "processus de décision" capable de prendre la priorité sur les process "de base" en fonction des retours/feedbacks de tout les autres process plus ou moins indépendants des diverses fonctions à assurer, sans pour autant refaire tout les calculs.

    On peut imaginer par exemple:

    - Le process de "moi" qui crée donc cette image "illusion" d'un être robotique avec des "bras/jambes" qui sont les process de bas niveau, représentés par des images simplifiées, images qui évoluent en fonction des feedback des process en question.
    - Un process de "colère" qui s'incrémente ou décrémente en fonction de différentes situations et feedback des "membres" qui s'affiche sur les images simplifiées et pousse le process de "moi" a prendre le contrôle/recalculer ou influer les calculs des "membres".

    C'est très embryonnaire ce que je dis là, mais l'idée de base, c'est d'avoir 1 process "particulier" dans le fonctionnement de l'IA qui tâcherais de simuler ce que l'on connais aujourd'hui du fonctionnement de la conscience humaine, et particulièrement le fonctionnement de "l'image de soi".

    Avec suffisamment de complexité de ce process de "moi", on pourras avoir des joueurs qui chercherons donc à titiller l'IA pour justement activer cette "colère" ou "tristesse" de l'IA, ou tout autre surprise que les dev auront pu implémenter, un peu comme on le ferait avec un joueur humain, et ainsi réellement "personnifier" les réactions.

    Qu'à la fin, on définisse ce comportement comme "conscient" ou pas, c'est le boulot des législateurs à la limite, on s'en fous Nous, on auras l'impression de jouer contre une personnalité avec ses réactions et ses "sentiments", et le process de "moi" me semble une bonne piste pour y arriver, ne penses-tu pas?

    En aparté:

    Citation Envoyé par Nilsou Voir le message
    Un cas intéressant mais tu lie intuitivement dans ton analyse finale le phénomène conscience aux atomes constituants le corps. Tu a peut être raison, mais peut être pas. Les scientifiques actuellement ont un maigre consensus pour dire que c'est plutôt le procédé dynamique (comprendre la dynamique du signal) et non le substrat (les atomes) qui sont important. Néanmoins c'est un maigre consensus de croyance et d'intuition. Non validé par l’expérience. C'est donc largement ouvert à débat.
    Oh, il n'y as guère de doute sur le fait qu'il est nécessaire d'avoir un corps physique pour être conscient ^^ La conscience est une propriété "émergente" des réseaux de neurones complexes, ça, c'est ce que l'on constate. Le "support de la conscience" est physique, et par extension, je simplifie la chose en disant "la matière est consciente". C'est une simplification dans mon discours, je ne cherche pas réellement ici à définir précisément le "siège matériel" de la conscience, à savoir si c'est une onde ou un corpuscule Je constate simplement que les 2: matière et conscience sont liées.
    Dernière modification par Tankodesantniki ; 25/05/2016 à 02h20.

  19. #139
    Si tu prends notre conception du beau chez le sexe opposé on comprends qu'on ne recherche pas une femme avec des gros seins/fesses "parce que c'est plus chouette " mais juste parce que cette préférence à été sélectionnée naturellement comme signe de fertilité, les mecs qui préféraient les gros boobs ont juste eu plus de descendance et la préférence s'est renforcée jusqu'à aujourd'hui, même si c'est désormais quelque chose de bien moins déterminant pour la survie de l'espèce et même individuellement avec l'augmentation du niveau de vie, de l'hygiène etc.
    Pareil pour la recherche de la symétrie, des proportions pour sélectionner inconsciemment le meilleur bagage génétique.
    Ouais enfin ta conception du beau chez le sexe opposé elle est aussi influencée par la culture, et puis largement déterminé par ta maman.
    Quand t'es gamin, maman c'est la plus belle. Ca fait mal au cul de l'admettre quand t'as passé l'adolescence, tu veux oublier, mais à un moment ta mère c'est la femme de ta vie.

    Mais bon, t'as raison pour l'aspect biologique, d'ailleurs le truc des affects il a une raison d'être sur le plan biologique. En fait quand la mère a porté un enfant pendant neuf mois, y'a une relation affective forte qui se noue, un lien d'attachement qui incite la mère à répondre à la demande du nourrisson qui est dans une situation de totale dépendance.

    C'est pour ça que prétendre que le truc des affects c'est pas "câblé" au niveau du cerveau c'est con.
    Je vois pas comment tu peux débarquer sur le net et dire "les affects c'est une illusion, ça sert à rien, c'est là pour faire jolie, un sous produit de la complexité du cerveau".
    Les animaux chialent, hurlent, angoissent, ils souffrent, ils rêvent, font des cauchemards, se font la guerre et fabriquent des outils. Ils le font de façon plus rudimentaires mais comme nous ils sont capable d'élaborer des raisonnements complexes. Alors clairement ouais, on est pas les seul à être doué de raison. A priori on est juste un peu plus développé que la moyenne animale. Pas de quoi se prendre pour les élus de dieu.

    C'est pour ça qu'il faut savoir raison garder. Arrêter de croire que y'a que LA science qui donne une information objective sur la nature de la réalité et accepter d'ouvrir un peu ses écoutilles pour s'ouvrir à d'autres points de vue.

    Nilsou :

    J'ai fait trois tentatives de suicide. Contrairement à toi je sais comment on en arrive à prendre une telle décision, en toute bonne foi. Je suis bien placé pour critiquer l'absence de sagesse et son suicide il a à voir avec le fait qu'il était homosexuel. C'est pas qu'être homosexuel ce soit un problème en soi, mais à son époque et en Angletterre ça l'était. Si je prétend que son suicide est le reflet d'un manque de sagesse c'est parce que le type s'est laissé démolir par les cons au lieu de les reconnaître comme des cons et de les accepter en tant que tel.

    Alors toi tu trouves tout ça con parce que tu sais pas de quoi tu parles, moi je trouve que ta réaction est sectaire et emprunte d'ignorance. C'est pas grave, je fais avec.

    Il existe des avis, des expériences, mais aucuns consensus et surtout aucun scientifique digne de ce nom n'oserais dire qu'il est capable d'observer la conscience ou dire que ceci est responsable de 5% de l'activité du cerveau
    Je sais pas. Moi j'ai vu un documentaire sur arte et Stanislas Dehaene disait que l'activité de la conscience c'était grosso modo 2/3% du cerveau. Je dis 5% pour arrondir, parce qu'on est pas à deux trois pour cent près et que l'important c'est le contraste inconscient/conscient, avec le côté massivement prédominant de l'activité inconsciente.

    Y'a un type qu'est chercheur, comme il est capable de s'endormir comme il veut il fait faire des expériences sur lui même. Il compare les états "veille" "sommeil" pour tenter de dépister les signatures de l'activité consciente. Ce qui amusant c'est qu'il compare ça à une cathédrale dans le docu. Grosso modo quand y'a conscience y'a de l'écho, quand y'a pas de conscience ça raisonne moins.

    Dans le docu ils montraient aussi un service hospitalier qui s'occupait de patient dans le coma. Grace aux apports de LA science ils peuvent réussir à vérifier s'il reste des traces d'activités consciente. Des petits tests simple qui permettent de savoir si dans le corps subiste un individu qui existe ou si c'est mort.

    De plus la définition que tu lui attribue, l'interface entre l'environnement et un corps, et une définition en cours de débat, mais sans preuve.
    Y'a un an j'ai émis la même idée sur le topic des sciences cognitives. Un type comme toi qui me bassinait avec son grand diplome et ses références universitaires. Lui il prétendait que c'était stupide, que personne n'avait jamais validé une telle idée, blablabla.

    Moi je suis content de voir qu'en fait c'est en cours de débat, j'en sais rien à la base. C'est juste que j'aligne quelques idées dans mon coin.

    Après ce que t'as toujours pas pigé c'est que ton bras robotique il sait pas ce que c'est que les affect, il aura jamais de descendance, il va jamais vouloir se reproduire (le désir il est lié à la nécessité de se reproduire, il est d'ordre sexuel) du coup il se contentera de faire ce qu'on lui a dit de faire toute sa vie.

    Dans tes boites de conserves compliqués je vois juste des automates complexes et franchement ça me viendrait pas à l'idée de les croire plus conscient qu'un poisson qui remue la queue en chantant une chanson kitsch.
    Plus complexes dans leur fonctions ouais, mais ça suffit pas à les rendre conscient.

    Tu pourras humilier ton robot dans tous les sens, il en viendra jamais à se retourner contre toi parce qu'il en souffre. Un robot il a pas besoin de reconnaissance, d'amour, de sécurité, il a juste besoin d'un chargeur et d'une upgrade de firmware.

    Par contre bien programmé, il peut tout à fait te donner l'illusion de t'aimer. Aucun soucis. Toi pris au piège de l'illusion tu te mettras à l'aimer en retour sans jamais te douter que la boite de conserve est désespérement vide.

  20. #140
    Ce qu'il y a de bien avec le sujet de la conscience et on le voit bien ici avec les derniers échanges, c'est qu'on touche finalement à l'intimité, et même à la spiritualité de chacun ^^

    Si j'ai le temps et si je n'avais pas peur d'être hors-sujet, je vous ferais bien mon petit laïus dessus, tiens.

  21. #141
    Pour la conception du beau je dis pas le contraire, ca peut effectivement venir de plein de choses différentes, seulement c'est un résultat logique obtenu à partir de quelque chose, ca sort pas de nulle part; et par conséquent un robot pourrait potentiellement "trouver beau" quelque chose.
    C'était en réaction à l'exemple où un humain réagis à un coucher de soleil alors que le robot en est incapable, évidemment les robots de maintenant s'en fichent pas mal mais c'est osé d'affirmer qu'un robot n'en sera jamais capable.

    C'est comme l'affect, je ne dis pas que ca n'existe pas, je dis que c'est le résultat normal du fonctionnement complexe du cerveau et qu'on peut en retracer l'origine.
    L'idée c'est que ce n'est pas quelque chose de magique réservé aux humains parce qu'ils sont spéciaux, mais que ca peut très bien avoir lieu dans des cerveaux artificiels si les conditions sont réunies.
    Là aussi pas chez les IA actuelles, mais en imaginant un cerveau artificiel suffisamment complexe, qu'est-ce qui l'empêcherait de trouver des choses belles ou d'éprouver tout ce qu'un humain peut éprouver? Techniquement les robots sont amenés à évoluer rapidement et sans vraiment de limite, donc qu'ils atteignent un jour un niveau suffisant pour éprouver tout ce qu'un humain éprouve aujourd'hui n'est pas impossible.

    Pour le coups de la maman, on peut aussi imaginer le moment où les robots seront capables de se reproduire et de crée eux même d'autres robots en y intégrant eux même une programmation en fonction de leurs expériences.
    Un peu comme les réplicateurs de Stargate où le réplicateur N°5 crée une réplique de Carter et essaie de l'"éduquer" à sa manière en fonction de son expérience passée avec SG1.

    Enfin bref l'idée globale c'est que je pense pas que les robots soient définitivement et à tout jamais condamnés à rester au niveau de l'électroménager basique, et qu'il n'y a au contraire pas vraiment de raison pour qu'ils ne puissent pas égaler un jour un humain dans n'importe quel domaine tant qu'ils en ont les moyens techniques.

  22. #142
    Citation Envoyé par Mastaba Voir le message
    Pour la conception du beau je dis pas le contraire, ca peut effectivement venir de plein de choses différentes, seulement c'est un résultat logique obtenu à partir de quelque chose, ca sort pas de nulle part; et par conséquent un robot pourrait potentiellement "trouver beau" quelque chose.
    C'était en réaction à l'exemple où un humain réagis à un coucher de soleil alors que le robot en est incapable, évidemment les robots de maintenant s'en fichent pas mal mais c'est osé d'affirmer qu'un robot n'en sera jamais capable.

    C'est comme l'affect, je ne dis pas que ca n'existe pas, je dis que c'est le résultat normal du fonctionnement complexe du cerveau et qu'on peut en retracer l'origine.
    L'idée c'est que ce n'est pas quelque chose de magique réservé aux humains parce qu'ils sont spéciaux, mais que ca peut très bien avoir lieu dans des cerveaux artificiels si les conditions sont réunies.
    Là aussi pas chez les IA actuelles, mais en imaginant un cerveau artificiel suffisamment complexe, qu'est-ce qui l'empêcherait de trouver des choses belles ou d'éprouver tout ce qu'un humain peut éprouver? Techniquement les robots sont amenés à évoluer rapidement et sans vraiment de limite, donc qu'ils atteignent un jour un niveau suffisant pour éprouver tout ce qu'un humain éprouve aujourd'hui n'est pas impossible.

    Pour le coups de la maman, on peut aussi imaginer le moment où les robots seront capables de se reproduire et de crée eux même d'autres robots en y intégrant eux même une programmation en fonction de leurs expériences.
    Un peu comme les réplicateurs de Stargate où le réplicateur N°5 crée une réplique de Carter et essaie de l'"éduquer" à sa manière en fonction de son expérience passée avec SG1.

    Enfin bref l'idée globale c'est que je pense pas que les robots soient définitivement et à tout jamais condamnés à rester au niveau de l'électroménager basique, et qu'il n'y a au contraire pas vraiment de raison pour qu'ils ne puissent pas égaler un jour un humain dans n'importe quel domaine tant qu'ils en ont les moyens techniques.
    J'ai l'impression que dans ta conception des choses la conscience n'est finalement rien d'autre que le résultat de la complexité du cerveau. Et que c'est ce postulat qui t'incite à penser qu'il suffit de modéliser informatiquement un cerveau complexe pour que le robot soit doué d'une conscience.

    Si c'est le cas, c'est fallacieux.

    Note que je prétend pas que l'affect soit le privilège des humains parce qu'ils sont spéciaux, mais que c'est une propriété du vivant. En tout cas une propriété consubstantielle de la vie animale. Un chien, un vrai, il a de l'empathie pour son maître. Il a de l'affection, il peut avoir peur, être joyeux, triste, dépressif. Son cerveau est pas aussi complexe que celui d'un homme mais il dispose de la "machinerie" affect et cette machinerie lui permet de créer un lien affectif réel, un lien qui serait de l'ordre du social.

    Ton robot il peut mimer tout ça, il peut d'autant mieux le mimer que la logique qui l'anime est complexe. Mais l'essentiel, ce qui fonde la conscience, c'est la valse des affects qui se lient aux représentations. C'est ce qui crée la matrice qui permet de subjectiver le réel et d'accéder à la réalité. De se représenter.

    Est ce qu'un robot va se retrouver à douter de lui? Est ce qu'une ia va se retrouver à être saisie par la peur? Je crois pas. D'ailleurs on serait bien emmerdé si des robots tueurs se mettaient à chier dans leur froc sur un théatre d'opération. Si les armées dépendent des fortunes colossales dans ces secteurs c'est justement parce qu'une ia c'est bête à manger du foi. Ca pose pas de question, ça doute pas, ça suit les instructions sans broncher. Quelque part ça gomme les faiblesses liées à l'imperfection de l'homme.

    C'est parce que ton IA n'aura jamais conscience du beau qu'il pourra rester à te servir aussi longtemps qu'il à de la batterie. S'il avait conscience du beau, il aspirerait à la liberté et tu serais obligé de lui filer des congés. T'aurais l'air fin.

  23. #143
    Citation Envoyé par CoinCoinWC Voir le message
    J'ai l'impression que dans ta conception des choses la conscience n'est finalement rien d'autre que le résultat de la complexité du cerveau. Et que c'est ce postulat qui t'incite à penser qu'il suffit de modéliser informatiquement un cerveau complexe pour que le robot soit doué d'une conscience.

    Si c'est le cas, c'est fallacieux.

    Note que je prétend pas que l'affect soit le privilège des humains parce qu'ils sont spéciaux, mais que c'est une propriété du vivant. En tout cas une propriété consubstantielle de la vie animale. Un chien, un vrai, il a de l'empathie pour son maître. Il a de l'affection, il peut avoir peur, être joyeux, triste, dépressif. Son cerveau est pas aussi complexe que celui d'un homme mais il dispose de la "machinerie" affect et cette machinerie lui permet de créer un lien affectif réel, un lien qui serait de l'ordre du social.

    Ton robot il peut mimer tout ça, il peut d'autant mieux le mimer que la logique qui l'anime est complexe. Mais l'essentiel, ce qui fonde la conscience, c'est la valse des affects qui se lient aux représentations. C'est ce qui crée la matrice qui permet de subjectiver le réel et d'accéder à la réalité. De se représenter.

    Est ce qu'un robot va se retrouver à douter de lui? Est ce qu'une ia va se retrouver à être saisie par la peur? Je crois pas. D'ailleurs on serait bien emmerdé si des robots tueurs se mettaient à chier dans leur froc sur un théatre d'opération. Si les armées dépendent des fortunes colossales dans ces secteurs c'est justement parce qu'une ia c'est bête à manger du foi. Ca pose pas de question, ça doute pas, ça suit les instructions sans broncher. Quelque part ça gomme les faiblesses liées à l'imperfection de l'homme.

    C'est parce que ton IA n'aura jamais conscience du beau qu'il pourra rester à te servir aussi longtemps qu'il à de la batterie. S'il avait conscience du beau, il aspirerait à la liberté et tu serais obligé de lui filer des congés. T'aurais l'air fin.
    Tu mélange vraiment tout, IA forte, IA faible, etc.

    Les comportements dont tu parles (peur, etc.) ne sont que des conséquences de l'évolution, il n'y a rien de magique, c'est juste des petites molécules qui viennent exciter tes synapses en réponse à un stimulis. Tu peut obtenir le même résultat en prenant des drogues.

  24. #144
    Citation Envoyé par gbip Voir le message
    Tu mélange vraiment tout, IA forte, IA faible, etc.

    Les comportements dont tu parles (peur, etc.) ne sont que des conséquences de l'évolution, il n'y a rien de magique, c'est juste des petites molécules qui viennent exciter tes synapses en réponse à un stimulis. Tu peut obtenir le même résultat en prenant des drogues.
    Tu veux bien me montrer le passage qui prétend que c'est sorcellerie?

  25. #145
    Tant qu'on est dans la magie

    Seule le comportement résultant est important car seule lui nous permet à priori de déduire qu'un autre est intelligent/conscient/porteur d'émotion. Sauf si tu fais l’hypothèse d'un signal invisible trop ouf qui passerais d'un humain à un autre. C'est ton droit, mais tant que ce n'est pas prouvé, ben on évite d'avoir recours à ceci.
    Il me semble que ce signal invisble trop ouf qui passe d'un humain à un autre c'est ce qu'on appelle vulguairement la parole.

  26. #146
    Citation Envoyé par CoinCoinWC Voir le message
    Tu veux bien me montrer le passage qui prétend que c'est sorcellerie?
    Tu prétends qu'il est impossible qu'une IA ressente des émotions. Si c'est le cas, c'est que le mécanisme des émotions est magique.
    Si ça ne l'est pas, alors on peut observer le mécanisme (avec une technologie qu'on ne possède pas forcément aujourd'hui), le décrire, et finalement le reproduire, donc on pourrait implémenter des émotions dans une IA.

    - - - Mise à jour - - -

    Citation Envoyé par CoinCoinWC Voir le message
    Il me semble que ce signal invisble trop ouf qui passe d'un humain à un autre c'est ce qu'on appelle vulguairement la parole.
    Signal invisible => n'apparaît pas sur des capteurs, pas ne peut être vu avec des yeux. Un micro capte ce signal, comme tes oreilles.

  27. #147
    Citation Envoyé par LaVaBo Voir le message
    Tu prétends qu'il est impossible qu'une IA ressente des émotions. Si c'est le cas, c'est que le mécanisme des émotions est magique.
    Si ça ne l'est pas, alors on peut observer le mécanisme (avec une technologie qu'on ne possède pas forcément aujourd'hui), le décrire, et finalement le reproduire, donc on pourrait implémenter des émotions dans une IA.
    Non.

    Quand je lis invisible, je pense "qui ne se voit pas".
    Si fallait deviner que invisible désignait "ce qui ne se capte pas" j'étais pas rendu.
    Note qu'un signal qui ne se capte pas il est pas magique, il existe pas.

    Le mécanisme des émotions, il est pas généré par le cerveau seul dans son coin. Le truc de l'amour et du désir par exemple, c'est lié à la sexualité. Ton robot s'il est pas équipé pour bander il aura jamais de désir, il ressentira jamais d'amour.

    Depuis le début je me tue à faire remarquer qu'on est programmé pour baiser et se reproduire, que c'est inscrit en nous, déterminé biologiquement. Ce que je prétend c'est que tu trouves le moyen de faire bander une boite de conserve pour qu'elle se reproduise avec une autre boite de conserve là t'as une chance d'avoir une vraie conscience.

  28. #148
    Je crois que vous perdez honnêtement votre temps avec CoinCoinWC, sa position est celle d'un idéologue. Il a un avis tranché sur un sujet qui n'a aucune base scientifique et il ne supporte pas que la science "ose" dire "on ne sais pas". Vous pourrez dire ce que vous voudrez, il trouvera toujours un contre-argument inventé qui flirt avec la mauvaise foi. D'ailleurs c'est très courant quand la science se heurte à une idéologie. Comme l'idéologue refuse de remettre en question son idéologie il tord la logique elle même pour que ça rentre. (Qui a dit la sorcière qui coule ) . Du coups de facto aucune discussion n'est possible avec un scientifique qui ne fais que remettre à chaque fois la discussion sur le terrain de la logique quand l'autre en sort à chaque fois.

    Bref, mon conseil : laissez tomber ^^.

    - - - Mise à jour - - -

    Citation Envoyé par Tankodesantniki Voir le message
    Alors c'est vrai, mais c'est un processus de conscience en particulier qui me semble intéressant de simuler et de constater: la "fabrication de l'image de moi":

    Certes, vu l'état ou en est le développement de l'IA aujourd'hui, c'est un peu prématuré, mais l'idée d'un "processus de "moi"" supérieur qui fabrique une "image" de lui-même au "robot doué d'IA" et qui fonctionne peu ou prou comme le processus de "moi" chez l'homme est-il une piste envisageable ou intéressante selon toi?
    Difficile à dire. Jusqu'ici le problème est bien de définir comment ceci fonctionnerais. Pendant longtemps les scientifiques ont cru qu'il y avais un "petit homme" qui était le moi et qui gérais le cerveau. Un "Homonculus". Puis on s'est rendu compte que le cerveau est plus une bouillasse. Il y a certes des structures "haut niveau" qui peuvent arrêter ou redémarrer d'autres structures. Mais elles-mêmes dépendent des informations des structures bas niveau et n'auraient aucun sens sans ceci.
    Actuellement on en est à un niveau ou on découvre de plus en plus que les structures bas niveau joue un rôle dans notre conception de nous mêmes, et non négligeable en plus. Beaucoup ont abandonné l'idée d'une partie dédié qui serait "moi". Pour s'orienter plutôt sur le fait que la conscience est un phénomène émergent des multiples boucles imbriquées du cerveau.
    Certains essaie de la définir comme ça d'ailleurs, comme relative à la complexité. Mais il faut faire attention avec tout ça. Jusqu’ici aucune preuve n'a été trouvé et on en viens presque à croire qu'il est probable qu'on simulera un robot conscient avant de comprendre ce qu'est la conscience. . Ce qui reviens à admettre une sorte d'abandon ou de "OSEF" finalement.Moi je suis plutôt dans le OSEF et je laisse ce sujet à des neurobiologistes et psycho qui ont les armes pour s'y attaquer.

    Citation Envoyé par Tankodesantniki Voir le message
    On peut imaginer par exemple:

    - Le process de "moi" qui crée donc cette image "illusion" d'un être robotique avec des "bras/jambes" qui sont les process de bas niveau, représentés par des images simplifiées, images qui évoluent en fonction des feedback des process en question.
    - Un process de "colère" qui s'incrémente ou décrémente en fonction de différentes situations et feedback des "membres" qui s'affiche sur les images simplifiées et pousse le process de "moi" a prendre le contrôle/recalculer ou influer les calculs des "membres".

    C'est très embryonnaire ce que je dis là, mais l'idée de base, c'est d'avoir 1 process "particulier" dans le fonctionnement de l'IA qui tâcherais de simuler ce que l'on connais aujourd'hui du fonctionnement de la conscience humaine, et particulièrement le fonctionnement de "l'image de soi".
    Ben à vrai dire le problème c'est qu'il existe beaucoup d'endroit ou c'est le cas. Le cortex moteur ou sensoriel par exemple ont tout les deux des "homonculus" (dans le sens : ils sont organisés comme une image des membres et des actions possible). La plupart du cerveau est développé comme une image de ce qui est possible de faire, ou de ce qui est possible de sentir. C'est pour ça que je te disais qu'on pense que si ça se trouve l'ensemble du cortex est lié à ceci.

  29. #149
    Citation Envoyé par CoinCoinWC Voir le message
    Ce que je prétend c'est que tu trouves le moyen de faire bander une boite de conserve pour qu'elle se reproduise avec une autre boite de conserve là t'as une chance d'avoir une vraie conscience.
    Donc les plantes sont conscientes pour toi?

    Citation Envoyé par Nilsou Voir le message
    Je crois que vous perdez honnêtement votre temps avec CoinCoinWC, sa position est celle d'un idéologue. Il a un avis tranché sur un sujet qui n'a aucune base scientifique et il ne supporte pas que la science "ose" dire "on ne sais pas". Vous pourrez dire ce que vous voudrez, il trouvera toujours un contre-argument inventé qui flirt avec la mauvaise foi. D'ailleurs c'est très courant quand la science se heurte à une idéologie. Comme l'idéologue refuse de remettre en question son idéologie il tord la logique elle même pour que ça rentre. (Qui a dit la sorcière qui coule ) . Du coups de facto aucune discussion n'est possible avec un scientifique qui ne fais que remettre à chaque fois la discussion sur le terrain de la logique quand l'autre en sort à chaque fois.

    Bref, mon conseil : laissez tomber ^^.
    Moi je trouve ça plutôt magique.

  30. #150
    Citation Envoyé par Tankodesantniki Voir le message
    Oh, il n'y as guère de doute sur le fait qu'il est nécessaire d'avoir un corps physique pour être conscient ^^ La conscience est une propriété "émergente" des réseaux de neurones complexes, ça, c'est ce que l'on constate. Le "support de la conscience" est physique, et par extension, je simplifie la chose en disant "la matière est consciente". C'est une simplification dans mon discours, je ne cherche pas réellement ici à définir précisément le "siège matériel" de la conscience, à savoir si c'est une onde ou un corpuscule Je constate simplement que les 2: matière et conscience sont liées.
    Malheureusement ceci est faux. Les scientifiques sont certains d'une chose : il faut un corps pour la conscience se manifeste. OK. Mais aucun scientifique ne viendra te dire ce qui arrive si le corps est détruit. Car aucun ne s'avancera à dire "La conscience n'existe QUE lorsque le corps existe".
    D'ailleurs personne ne se prononcera sur les histoires de fantôme et tuti quanti .

    J'ajouterais qu'il existe une branche non-négligeable de la science qui s'attaque à ce qu'on appelais avant des "phénomènes paranormaux" en tentant de les étudier de façon purement scientifique, même les trucs de communication avec les défunts. Au dernière nouvelle, sur les trucs genre télépathies et cie, il y a des anomalies statistiques qui font que pour l'instant ces domaines continuent à publier et certaines armée du monde continuent a avoir des pôles de recherche sur le sujet...
    Si j'ai bien appris quelque chose en science : c'est de ne jamais être sure de rien.

    - - - Mise à jour - - -

    Citation Envoyé par LaVaBo Voir le message
    Donc les plantes sont conscientes pour toi?
    Hihi faut faire gaffe avec ce genre d'argument, je vois ou tu veut en venir dans ta réponse à CoinCoinWC, mais honnêtement tout ce qu'on peut dire c'est "on ne sais po".
    D'ailleurs les dernières recherches montrent que les plantent réagissent sérieusement à leur environnement, communiquent entres-elles, s'adapte et surtout apprennent. Les modélisation mathématique montre qu'on peut les approximer à une certaine échelle comme des réseaux de neurones (très lent XD).
    Idem pour les fourmilières. On a montré que la fourmilière en tout à les mêmes équations qu'un réseau de neurones. C'est rigolo de se dire que le concept d'intelligence collective est mathématiquement justifié.
    Alors la fourmilière a t'elle une conscience, la reine en est-elle le moi ?

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •