Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 4 sur 43 PremièrePremière 12345678910111214 ... DernièreDernière
Affichage des résultats 91 à 120 sur 1288
  1. #91
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par CoinCoinWC Voir le message
    Non.
    Source. Et ça a intérêt à être un putain de papier scientifique.
    Barba non facit philosophum.

  2. #92
    Citation Envoyé par CoinCoinWC Voir le message
    Non.
    Ok.
    Montre nous donc les preuves et démonstrations de tes affirmations.

  3. #93
    Citation Envoyé par Eradan Voir le message
    Source. Et ça a intérêt à être un putain de papier scientifique.
    Tu veux une publication scientifique qui démontre l'inexistence de vie, désir, émotions chez une machine?

  4. #94
    Citation Envoyé par CoinCoinWC Voir le message
    Tu veux une publication scientifique qui démontre l'inexistence de vie, désir, émotions chez une machine?
    Qui démontre son impossibilité théorique, que ce soit passée, présente ou future.
    Du coup va falloir que tu nous sortes par la même occasion les définitions de vie, conscience, désir et émotion, histoire qu'on sache tous de quoi on parle.

    Bonne chance.

  5. #95
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Voilà.
    Barba non facit philosophum.

  6. #96
    Citation Envoyé par CoinCoinWC Voir le message
    Tu peux pas coder une conscience. Tu peux simuler un ersatz de conscience, mais une conscience similaire à celle d'un homme c'est impossible. Ton ia elle restera un vulgaire assemblage de processeurs et de code informatique, y'aura jamais ni émotions, ni désir, ni vie.

    Note que quand tu plances sur une IA, j'imagine que tu cherches à aboutir à un comportement rationnel et logique. Nous, humains, on passe notre temps à se raconter des histoires, à violer la logique par tous les trous et nos émotions l'emportent souvent sur la raison.

    Une derniere chose, l'histoire du robot et du policier est fallacieuse. Le flic est peut être pas capable d'écrire un roman ou une symphonie, mais ça s'explique seulement parce qu'il a pas développé les outils conceptuels nécessaire à la réalisation d'une telle tâche. Par contre ton robot, il pourra jamais réaliser une telle tâche parce qu'il est dénué de toute sensibilité. Avoir un peu de sensibilité, c'est la condition de base pour pouvoir envisager de créer une oeuvre artistique.

    Le mieux qu'on puisse faire, c'est "projeter" nos structures cognitives au travers d'un bout de code pour donner une apparence d'humanité à des morceaux de plastique. Et ce serait folie que de croire que ton robot pourrait te comprendre un jour. Il ne ressent rien, et ce que tu lui dis ne trouveras jamais aucun écho en lui.
    Orhin et Eradan ont tout résumé, tu décris une IA dites classique. L'autre branche est bien plus sujette à débat.
    Je te donne l'argument par l'absurde : Si je simule un cerveau humain en 1:1 (échelle 1, je simule tout) grâce à des putain de beaux modèles neuronaux et à une chaine de supercalculateurs imbriqués.
    Ben au point ou on en est de la science, aucune preuve, absolument aucune, ne viens étayer le fait que le cerveau humain d'origine sera supérieure à la copie.
    Je dirais même que jusqu'ici on remarque plus la remarquable absence de preuve dans ce domaine.

    La position de Turing avec son fameux test est la SEULE position réellement scientifique en IA philosophique. Son raisonnement est le suivant :
    - Vu que je ne sais pas si un autre humain est conscient (aucune preuve qu'on ne sois pas dans Matrix par exemple, avec des programmes qui tournent de partout).
    - Vu que notre seule supposition pour savoir si l'autre est conscient est que l'autre fait des actions qui sont les mêmes, grosso modo, que les mienne. Alors je fais du mirooring, de l'empathie et je suppose que l'autre est comme moi.

    Alors la seule conclusion logique est que si un système reproduit la phénoménologie, alors je serais obligé de le dire conscient.

    Test du miroir de turing :

    Si je n'arrive pas (dans une discussion longue et qui tends vers l'infini) à distinguer une IA d'un être humain, alors je serais obligé d'admettre qu'elle est du même niveau de conscience. Ou de dire qu'on s'en fout, ce qui est plus valide.

    Toute autre position à ce jour tient de la religion, surtout quand tu dit
    Ton humain il restera un vulgaire assemblage d'atomes et de lois physiques élémentaires, y'aura jamais ni émotions, ni désir, ni vie.
    By the way nous on bosse sur le fait de faire émerger des émotions de réseaux de neurones connectés avec des robots en s'interrogeant sur ce qu'est une émotion de prime abord. Donc ...
    ------------------------------------------------------------------------------------------------------------------

    Tout ceci est très bien illustré dans une nouvelle d'Asimov absolument géniale que je me vois obligé de transcrire ici [SPOILER EVIDEMMENT] :

    Asimov décris un monde futuriste ou l’être humain a colonisé la Lune. Cette colonie n'a que peu accès a certaines ressources, notamment les animaux vivants et tout autre chose importé de la terre, qui va vite devenir hors de prix.
    L'histoire raconte la vie d'un petit garçon sur la Lune qui vie dans sa famille avec son chien robotique (car les vrai chien coute une blinde).

    Un jour le père gagne des sous, et dépense tout dans l'achat d'un VÉRITABLE chien, mais le petit garçon n'en a cure, il n'en veut pas car il est très attaché a son chien robot, son compagnon.
    Ce a quoi son père réplique en substance, et un peu agacé devant ce petit garçon qui ne pige rien à la vie :
    - Mais voyons, il faut que tu comprenne, ton chien robot n'est qu'un ordinateur, une simulation, il fais SEMBLANT d'aimer !

    Ce à quoi le petit garçon réponds ceci :
    - Mais papa, comment tu sais que le vrai chien ne fais pas aussi semblant d'aimer ?

    Asimov, 1987. Le meilleur ami du petit homme (en substance, je n'ai pas la traduction exacte sous la main, Asimov l'écrit évidemment beaucoup mieux que moi ).
    Cette nouvelle est célèbre comme étant devenu l'une des meilleures illustrations de la pensée de turing à ce jour . Car le petit garçon a raison ...

    Ha et en passant, pour revenir à ma première ligne : je défends mon domaine mais même du point de vue de l'IA classique il n'y a absolument aucune preuve qu'une suite de If-Then ne puisse pas aboutir à une conscience (ou a un comportement suffisamment complexe pour s'y tromper). Mathématiquement ils le peuvent en tout cas (aboutir a quelque chose qui est l'égale du cerveau), d'un point de vue théorie de l'information.
    Dernière modification par Nilsou ; 20/05/2016 à 00h40.

  7. #97
    Nilsou : Moi mon truc c'est plus les sciences humaines que LA science objective.
    Du coup je peux pas m'empêcher de remarquer que ta réthorique est fallacieuse, fruit d'un certain dogmatisme vis à vis de la nature humaine.

    Si ton ia est pas capable de se projeter sur autrui et de s'y reconnaître, c'est un ersatz de conscience. Si ta machine est pas capable de ressentir l'angoisse, la peur, l'amour, l'envie, la jalousie, c'est qu'un ersatz de conscience.
    Si ta machine est pas capable de se définir une identité réelle, de se bâtir une personnalité et de violer la logique par tous les trous pour faire preuve de mauvaise foi parce que c'est dicté par des stimulis émotionnels, c'est qu'un ersatz de conscience.

    Après l'homme peut projeter son humanité sur un morceau de plastique avec des lignes de codes qui amènent le robot à reproduire un comportement complexe, ok. Mais l'humanité de la machine, c'est l'homme qui lui prête en se projettant sur le robot et lui prêtant ses caractères humains.

    Un jeu de dupe.

  8. #98
    Citation Envoyé par CoinCoinWC Voir le message
    Nilsou : Moi mon truc c'est plus les sciences humaines que LA science objective.
    Du coup je peux pas m'empêcher de remarquer que ta réthorique est fallacieuse, fruit d'un certain dogmatisme vis à vis de la nature humaine.

    Si ton ia est pas capable de se projeter sur autrui et de s'y reconnaître, c'est un ersatz de conscience. Si ta machine est pas capable de ressentir l'angoisse, la peur, l'amour, l'envie, la jalousie, c'est qu'un ersatz de conscience.
    Si ta machine est pas capable de se définir une identité réelle, de se bâtir une personnalité et de violer la logique par tous les trous pour faire preuve de mauvaise foi parce que c'est dicté par des stimulis émotionnels, c'est qu'un ersatz de conscience.

    Après l'homme peut projeter son humanité sur un morceau de plastique avec des lignes de codes qui amènent le robot à reproduire un comportement complexe, ok. Mais l'humanité de la machine, c'est l'homme qui lui prête en se projettant sur le robot et lui prêtant ses caractères humains.

    Un jeu de dupe.
    Je comprends pas le délire. Si l'humain arrive à recréer une conscience aussi complexe que celle de l'humain, et selon Nilsou (que je vais croire sur parole puisqu'il a l'air spécialiste) aucune preuve scientifique démontrerait que ce soit impossible, alors l'IA sera dotée d'une conscience. En quoi est-ce un ersatz ? L'humain n'a pas le monopole de la conscience.
    C'est tout aussi dogmatique de considérer que l'être humain ne peut être copié dans son humanité. D'autant que jusqu'à preuve du contraire, le cerveau fonctionne pareillement qu'un programme et envoie des données à tout le reste du corps. Donc si on peut le recréer à l'identique, rien ne peut nous différer, de manière très rationnelle. Sauf si l'on considère que l'humain est spécifique car il est plus qu'un ensemble d'atomes répondant à des lois physiques. Ce qui, comme disait Nilsou, est une position religieuse. Donc tout autant un dogme. Donc attaquer Nilsou sur ça, c'est couillu.

  9. #99
    Citation Envoyé par CoinCoinWC Voir le message
    Nilsou : Moi mon truc c'est plus les sciences humaines que LA science objective.
    Du coup je peux pas m'empêcher de remarquer que ta réthorique est fallacieuse, fruit d'un certain dogmatisme vis à vis de la nature humaine.

    Si ton ia est pas capable de se projeter sur autrui et de s'y reconnaître, c'est un ersatz de conscience. Si ta machine est pas capable de ressentir l'angoisse, la peur, l'amour, l'envie, la jalousie, c'est qu'un ersatz de conscience.
    Si ta machine est pas capable de se définir une identité réelle, de se bâtir une personnalité et de violer la logique par tous les trous pour faire preuve de mauvaise foi parce que c'est dicté par des stimulis émotionnels, c'est qu'un ersatz de conscience.

    Après l'homme peut projeter son humanité sur un morceau de plastique avec des lignes de codes qui amènent le robot à reproduire un comportement complexe, ok. Mais l'humanité de la machine, c'est l'homme qui lui prête en se projettant sur le robot et lui prêtant ses caractères humains.

    Un jeu de dupe.
    Non mais tout ces trucs ne sont que des signaux électrochimiques à la base, l'aspect "mystérieux" qui a donné naissance au concept religieux d'"âme" unique et propre à l'humain (et uniquement de race blanche au début ) découle seulement de l'incapacité à appréhender toute la complexité du fonctionnement du cerveau, lui même résultat de l'évolution.
    Les "émotions, peur, amour etc" ne sont finalement vraiment que des choses relativement basiques qu'on peut expliquer, déconstruire et dont on peut retracer l'origine par la sélection naturelle.

    Le cerveau si tu le clones dans une machine à l'identique il fonctionnera tout pareil que quand on clone son OS sur un autre disque avec Acronis, la seule différence c'est quand il se rendra compte qu'il y a eu un changement de périphériques et qu'il doit installer les nouveaux drivers si le corps n'est pas reproduit à l'identique aussi.
    Le seul obstacle, c'est justement la complexité du truc, qui doit revenir à vouloir copier un disque de 10To qui se met à jour en permanence avec des disquettes 3"1/2.

    Maintenant la technologie évoluant à grande vitesse comparativement au cerveau humain qui est resté le même depuis 200000ans, il y aura fatalement un moment ou il sera possible de le dupliquer/reproduire ou de fabriquer un équivalent, puis une version améliorée. C'est juste inévitable à terme.

    L'identité/personalité n'est qu'une construction du cerveau assemblé à partir de l'ADN couplé à l'influence de l'environnement.
    Par exemple les vrai jumeaux dont on peut voir les évidentes similitudes non seulement physiques mais dans la manière de penser (parce que c'est le même ADN à la base) et les différences de personnalité due à l'environnement comme par exemple une différence de croissance due à une position différente dans le ventre de la mère où chaque embryon ne reçoit jamais exactement 50% des ressources.

    On ne viole pas la logique, on attribue seulement un poids différent a chaque chose, ce qui crée fatalement des situations de "mauvaise foi"; parce que dans un monde hostile il vaut mieux avoir raison que tort, parce que l'évolution a fabriqué des cerveaux nécessairement câblés avec un certain individualisme et qui devront protéger leur porteur, tout en favorisant l'entraide et la survie du groupe dans le même temps parce qu'on survit mieux en groupe que tout seul.
    En fait il y a simplement tout les aspects et leur contraire qui sont présent, seulement chacun a un poids différent selon les individus, les mutations, croisements et expériences, ce qui donne des psychopathes autant que des gens très empathiques, des individus très égoïstes et d'autres très généreux, ainsi que des changements radicaux.
    Tout les opposés sont déjà présent, c'est juste leur activation plus ou moins forte selon les prédispositions génétiques couplées avec les expériences issues de l'environnement qui créent et différencient les caractères et les comportements des individus.
    C'est comme la prise de risque vs la sécurité, il faut les deux; sans prise de risque pas d'exploration et pas de découverte de nouvelles ressource, sans sécurité l'espèce ne survit pas longtemps.

    Fabrique un robot avec un set de règles de base avec des différences aléatoire subtiles qu'il peut modifier en fonction du contexte et qui les fera interagir entre elles en permanence à chaque nouvelle découverte afin de trouver de meilleurs réponses à des questions passées grâce à l'expérience acquise en vue de mieux d'adapter aux situations futures et t'auras des tas de robots avec chacun une personnalité qui semblera unique, parce qu'il sera difficile d'appréhender chaque modification individuellement alors que cette personnalité ne sera en fait que la conséquence d'une chaine logique on ne peut plus cohérente qui émergera naturellement de cette complexité et du renforcement de comportements optimisés selon des principes définis en cours de route et non pas gravés dans le marbre.

    Le problème ce n'est pas de projeter notre humanité sur un bout de plastique, le vrai problème c'est de nous croire unique dans notre humanité.
    Le point n'est pas de savoir si les robots ont une âme (ils n'en ont évidemment pas et n'en auront jamais), mais de comprendre que l'humain non plus.

    Humains et robots sont similaires, non pas d'un point de vue anthropomorphique qui voudrait appliquer une humanité arbitraire à un robot, mais à l'inverse en détruisant le mythe anthropocentrique de l'Humain unique créature de dieu régnant sur l'univers; alors qu'il n'est qu'une forme de vie parmi d'autres, qui diffère des plantes, animaux, insectes et enfin robots qu'il a lui même crée seulement par son niveau de complexité.

  10. #100
    Euh les émotions, c'est encore un gros débat théorique hein...

  11. #101
    Citation Envoyé par Mastaba Voir le message
    Humains et robots sont similaires, non pas d'un point de vue anthropomorphique qui voudrait appliquer une humanité arbitraire à un robot, mais à l'inverse en détruisant le mythe anthropocentrique de l'Humain unique créature de dieu régnant sur l'univers; alors qu'il n'est qu'une forme de vie parmi d'autres, qui diffère des plantes, animaux, insectes et enfin robots qu'il a lui même crée seulement par son niveau de complexité.
    l'Homme, robot organique.
    Moi ça ne me choque pas que dans le futur des IA puissent atteindre le niveau de conscience humain, d'autant plus qu'inversement l'Homme va lui tendre vers une probable uniformisation (conception in-vitro, biotech, clonage, [je parle dans le long terme là]).

    C'est dur de comparer une société humaine qui a plusieurs dizaines de milliers d'années d'existence et de futurs IA "vierge" de toute histoire commune.
    Si on en vient à créer des IA autonomes conscientes, elles seront de toute façon influencées par leurs géniteurs d'un point de vue idéologique, et donc reproduiront des schémas qui leur seront programmés. C'est peut être plus intéressant de savoir si dans ces IA il serait possible d'en trouver des capables de s’affranchir de leur logique innée.

  12. #102
    Citation Envoyé par CoinCoinWC Voir le message
    Nilsou : Moi mon truc c'est plus les sciences humaines que LA science objective.
    Du coup je peux pas m'empêcher de remarquer que ta réthorique est fallacieuse, fruit d'un certain dogmatisme vis à vis de la nature humaine.
    Parce qu'affirmer que l'homme a le monopole de la conscience et des émotions c'est pas dogmatique peut être ?
    Quid des autres formes de vie intelligentes ?
    Qu'est-ce qui les définit comme "vivantes" (par rapport à une machine) ?
    Qu'est-ce qui les définit comme "ressentant des émotions" (par rapport à un vert de terre) ?
    Qu'est-ce qui les définit comme "conscientes" (par rapport à une souris) ?

    Citation Envoyé par Nilsou Voir le message
    Asimov, 1987. Le meilleur ami du petit homme (en substance, je n'ai pas la traduction exacte sous la main, Asimov l'écrit évidemment beaucoup mieux que moi ).
    Y'a pas mal de nouvelle de P.K. Dick qui touchent pas mal le domaine aussi.
    Ce qui est intéressant dans son cas c'est le rapport à la folie/schizophrénie (dont souffrait lui même l'auteur en fin de carrière) qui est fait.

    Citation Envoyé par Mastaba Voir le message
    Le cerveau si tu le clones dans une machine à l'identique il fonctionnera tout pareil que quand on clone son OS sur un autre disque avec Acronis, la seule différence c'est quand il se rendra compte qu'il y a eu un changement de périphériques et qu'il doit installer les nouveaux drivers si le corps n'est pas reproduit à l'identique aussi.
    Non.
    Enfin plus exactement : on n'en sait strictement rien.
    C'est justement pour ça que c'est très intéressant comme domaine, car au delà de créer une copie de l'être humain (consciente ou non) on en apprend beaucoup sur notre propre fonctionnement.

  13. #103
    Citation Envoyé par Nilsou Voir le message
    Je t'encourage a regarder la chaîne youtube sur la Zetetique, qui te décris très bien ce phénomène avec les frères Bogdanov.
    Un lien vers cette chaine ou vidéo ? Merci.

  14. #104
    Citation Envoyé par Cyrop Voir le message
    C'est dur de comparer une société humaine qui a plusieurs dizaines de milliers d'années d'existence et de futurs IA "vierge" de toute histoire commune.
    Si on en vient à créer des IA autonomes conscientes, elles seront de toute façon influencées par leurs géniteurs d'un point de vue idéologique, et donc reproduiront des schémas qui leur seront programmés. C'est peut être plus intéressant de savoir si dans ces IA il serait possible d'en trouver des capables de s’affranchir de leur logique innée.
    Les robots seront influencés par les humains qui les auront fabriqués, ces derniers étant eux même influencés par leurs ancêtres de la même façon, ils n'ont pas vraiment plus de libre arbitre ni plus de réelle autonomie de pensée.
    En enfant qui naît assimile les connaissances de milliers de générations, est éduqué par ses parents, fait ses propres expériences issues de la société dans laquelle il évolue, mais il ne peut pas ne pas être influencé et avoir une "volonté propre" complètement vierge.
    Qu'un robot soit dans les même limites que nous n'a rien de choquant, l'inverse où un robot créerait quelque chose à partir du néant sans s'appuyer sur un quelconque point de départ le serait bien plus.

    Citation Envoyé par Orhin Voir le message
    Non.
    Enfin plus exactement : on n'en sait strictement rien.
    C'est justement pour ça que c'est très intéressant comme domaine, car au delà de créer une copie de l'être humain (consciente ou non) on en apprend beaucoup sur notre propre fonctionnement.
    Ben si on le reproduit à l'identique il devra nécessairement se comporter à l'identique, sinon ca veut fatalement dire qu'il y a quelque chose de plus qu'on ne détecte pas et donc qu'on ne copie pas, comme une "âme" individuelle et unique qui manipulerai le corps comme une marionnette, mais là ca rentre dans le domaine de la croyance religieuse, et ca demande à être prouvé (parce qu'on ne peut pas prouver l'inexistence de quelque chose, c'est la faille logique exploitée par les religions)
    Le problème c'est de le reproduire évidemment, mais si on part du principe qu'on peut alors pourquoi est-ce qu'on ne pourrai pas aussi copier cet hypothétique truc en plus?

  15. #105
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Selon ton raisonnement, tous les humains sont identiques. Hors ce n'est pas le cas.
    Barba non facit philosophum.

  16. #106
    Citation Envoyé par Mastaba Voir le message
    Ben si on le reproduit à l'identique il devra nécessairement se comporter à l'identique, sinon ca veut fatalement dire qu'il y a quelque chose de plus qu'on ne détecte pas et donc qu'on ne copie pas, comme une "âme" individuelle et unique qui manipulerai le corps comme une marionnette, mais là ca rentre dans le domaine de la croyance religieuse, et ca demande à être prouvé (parce qu'on ne peut pas prouver l'inexistence de quelque chose, c'est la faille logique exploitée par les religions)
    Le problème c'est de le reproduire évidemment, mais si on part du principe qu'on peut alors pourquoi est-ce qu'on ne pourrai pas aussi copier cet hypothétique truc en plus?
    Même si tu reproduis la structure du cerveau, il faut aussi reproduire tous les flux électriques et chimiques à un instant t. Et peut-être d'autres trucs qu'on ne sait pas observer ou mesurer avec nos connaissances actuelles.

  17. #107
    Une émission de France cul sur l’IA, c’était de 5 à 6 ce soir.
    une balle, un imp (Newstuff #491, Edge, Duke it out in Doom, John Romero, DoomeD again)
    Canard zizique : q 4, c, d, c, g, n , t-s, l, d, s, r, t, d, s, c, jv, c, g, b, p, b, m, c, 8 b, a, a-g, b, BOF, BOJV, c, c, c, c, e, e 80, e b, é, e, f, f, f, h r, i, J, j, m-u, m, m s, n, o, p, p-r, p, r, r r, r, r p, s, s d, t, t
    Canard lecture

  18. #108
    Citation Envoyé par CoinCoinWC Voir le message
    Nilsou : Moi mon truc c'est plus les sciences humaines que LA science objective.
    Du coup je peux pas m'empêcher de remarquer que ta réthorique est fallacieuse, fruit d'un certain dogmatisme vis à vis de la nature humaine.

    Si ton ia est pas capable de se projeter sur autrui et de s'y reconnaître, c'est un ersatz de conscience. Si ta machine est pas capable de ressentir l'angoisse, la peur, l'amour, l'envie, la jalousie, c'est qu'un ersatz de conscience.
    Si ta machine est pas capable de se définir une identité réelle, de se bâtir une personnalité et de violer la logique par tous les trous pour faire preuve de mauvaise foi parce que c'est dicté par des stimulis émotionnels, c'est qu'un ersatz de conscience.

    Après l'homme peut projeter son humanité sur un morceau de plastique avec des lignes de codes qui amènent le robot à reproduire un comportement complexe, ok. Mais l'humanité de la machine, c'est l'homme qui lui prête en se projettant sur le robot et lui prêtant ses caractères humains.

    Un jeu de dupe.
    Sauf que tu n'a aucune preuve, absolument aucune, que tu ne fais pas exactement la même chose avec les autres êtres vivants, un jeu de dupe. En l'absence de preuve tu ne peut donc pas dire robot<homme puisque toi même tu ne sais ni ce qu'est un homme, ni si il est conscient (qui sais, peut être que toi seulement tu es conscient) tu n'a aucune définition de la conscience, donc tu ne peut tirer aucun raisonnement la dessus autre que c'est un état non définis uniquement perceptible de toi même.
    Tu n'a également, dans ton objection, aucune réelle définition de
    l'angoisse, la peur, l'amour, l'envie, la jalousie
    Même dans les sciences humaines ce problème est bien connu . On attribue à l'autre une "conscience" et des "sentiments/émotions" uniquement par miroir de nous même. Mais ce miroir n'est pas binaire et a prouvé qu'il était purement subjectif et culturel. Il n'y a pas si longtemps en occident on ne considérais pas l'homme noir comme ayant une âme/émotions/conscience car ils était trop différent.
    Dans d'autre culture et même en occident moderne, le concept d’âme/émotions/conscience est au contraire étendu aux animaux, voire aux végétaux pour certains. Voire même à l'ensemble de la planète.

    Cet exemple te montre bien qu'il n'y a aucune véritable définition de ces concept en dehors de sois même. Puisque ce n'est pas de la science (même pas de la science humaine rigoureuse, les grecs ont largement traité ce sujet), tout avis sur le sujet deviens de la religion (en attendant de trouver de quoi définir et raisonner) car tout avis sur le sujet n'est pas attaquable.

    C'est la définition scientifique de la religion. Si je dis que les âmes montent aux ciel : ce n'est pas attaquable car personne n'a de contre preuves, c'est de la religion.
    Si je dis que j'ai une conscience, c'est une déclaration non attaquable, c'est de la religion.
    Si je dis que tu a une conscience, c'est également non attaquable, donc idem.

    Ainsi il est possible de dire que, je te cite,
    Si ta machine est pas capable de ressentir l'angoisse, la peur, l'amour, l'envie, la jalousie, c'est qu'un ersatz de conscience.
    sauf que c'est inattaquable car les termes eux mêmes ne sont pas définis de façon commune. C'est tout autant inattaquable que lorsque l’Église avais décrété que les noirs n'avaient pas d’âme ... Pour toi un dauphin, un chien ou un chat sont-ils conscient ? Si oui, quand est il d'une souris, d'un papillon, d'un moustique, d'une méduse ? Et on peut continuer en descendant, elle est ou exactement ta limite des émotions et de la conscience ? Un arbre ressent-il une "douleur" (scientifiquement il ressent quelque chose alors ...) du coups tu le classe ou ?
    Et te rends tu compte que c'est purement personnel ?

    La position d'Alan Turing et d'Isaac Asimov est une position de sagesse car ils disent : "Puisque je ne suis pas capable de définir, alors je ne définis pas et j’admets que seule le comportement résultant m'importe. Si je ne parviens pas à discriminer ce comportement résultant d'autre comportements observé chez des objets/animaux/humains auxquelles moi même j'attribue ces termes non définissable, alors je serais obligé d'admettre l'emploi de ce terme chez le sujet observé."

    En gros, si je dis qu'un Dauphin est conscient, qu'un Homme est conscient et que je créé une machine qui a un comportement entre les deux, par la force des choses je me vois obligé d'inclure cette machine dans la bulle "conscient". Idem avec la notion 'd'intelligence" ou "d'émotion".
    Une autre façon de voir est également de dire qu'on se fiche de tout ces mots (que tu retrouvera d'ailleurs bien peu en science de l'IA) et que seul le comportement observé est important.

    - - - Mise à jour - - -

    Citation Envoyé par Mastaba Voir le message
    Spoiler Alert!

    Non mais tout ces trucs ne sont que des signaux électrochimiques à la base, l'aspect "mystérieux" qui a donné naissance au concept religieux d'"âme" unique et propre à l'humain (et uniquement de race blanche au début ) découle seulement de l'incapacité à appréhender toute la complexité du fonctionnement du cerveau, lui même résultat de l'évolution.
    Les "émotions, peur, amour etc" ne sont finalement vraiment que des choses relativement basiques qu'on peut expliquer, déconstruire et dont on peut retracer l'origine par la sélection naturelle.

    Le cerveau si tu le clones dans une machine à l'identique il fonctionnera tout pareil que quand on clone son OS sur un autre disque avec Acronis, la seule différence c'est quand il se rendra compte qu'il y a eu un changement de périphériques et qu'il doit installer les nouveaux drivers si le corps n'est pas reproduit à l'identique aussi.
    Le seul obstacle, c'est justement la complexité du truc, qui doit revenir à vouloir copier un disque de 10To qui se met à jour en permanence avec des disquettes 3"1/2.

    Maintenant la technologie évoluant à grande vitesse comparativement au cerveau humain qui est resté le même depuis 200000ans, il y aura fatalement un moment ou il sera possible de le dupliquer/reproduire ou de fabriquer un équivalent, puis une version améliorée. C'est juste inévitable à terme.

    L'identité/personalité n'est qu'une construction du cerveau assemblé à partir de l'ADN couplé à l'influence de l'environnement.
    Par exemple les vrai jumeaux dont on peut voir les évidentes similitudes non seulement physiques mais dans la manière de penser (parce que c'est le même ADN à la base) et les différences de personnalité due à l'environnement comme par exemple une différence de croissance due à une position différente dans le ventre de la mère où chaque embryon ne reçoit jamais exactement 50% des ressources.

    On ne viole pas la logique, on attribue seulement un poids différent a chaque chose, ce qui crée fatalement des situations de "mauvaise foi"; parce que dans un monde hostile il vaut mieux avoir raison que tort, parce que l'évolution a fabriqué des cerveaux nécessairement câblés avec un certain individualisme et qui devront protéger leur porteur, tout en favorisant l'entraide et la survie du groupe dans le même temps parce qu'on survit mieux en groupe que tout seul.
    En fait il y a simplement tout les aspects et leur contraire qui sont présent, seulement chacun a un poids différent selon les individus, les mutations, croisements et expériences, ce qui donne des psychopathes autant que des gens très empathiques, des individus très égoïstes et d'autres très généreux, ainsi que des changements radicaux.
    Tout les opposés sont déjà présent, c'est juste leur activation plus ou moins forte selon les prédispositions génétiques couplées avec les expériences issues de l'environnement qui créent et différencient les caractères et les comportements des individus.
    C'est comme la prise de risque vs la sécurité, il faut les deux; sans prise de risque pas d'exploration et pas de découverte de nouvelles ressource, sans sécurité l'espèce ne survit pas longtemps.

    Fabrique un robot avec un set de règles de base avec des différences aléatoire subtiles qu'il peut modifier en fonction du contexte et qui les fera interagir entre elles en permanence à chaque nouvelle découverte afin de trouver de meilleurs réponses à des questions passées grâce à l'expérience acquise en vue de mieux d'adapter aux situations futures et t'auras des tas de robots avec chacun une personnalité qui semblera unique, parce qu'il sera difficile d'appréhender chaque modification individuellement alors que cette personnalité ne sera en fait que la conséquence d'une chaine logique on ne peut plus cohérente qui émergera naturellement de cette complexité et du renforcement de comportements optimisés selon des principes définis en cours de route et non pas gravés dans le marbre.

    Le problème ce n'est pas de projeter notre humanité sur un bout de plastique, le vrai problème c'est de nous croire unique dans notre humanité.
    Le point n'est pas de savoir si les robots ont une âme (ils n'en ont évidemment pas et n'en auront jamais), mais de comprendre que l'humain non plus.

    Humains et robots sont similaires, non pas d'un point de vue anthropomorphique qui voudrait appliquer une humanité arbitraire à un robot, mais à l'inverse en détruisant le mythe anthropocentrique de l'Humain unique créature de dieu régnant sur l'univers; alors qu'il n'est qu'une forme de vie parmi d'autres, qui diffère des plantes, animaux, insectes et enfin robots qu'il a lui même crée seulement par son niveau de complexité.
    C'est très très bien dit et très très juste.

    - - - Mise à jour - - -

    Citation Envoyé par Molina Voir le message
    Euh les émotions, c'est encore un gros débat théorique hein...
    Alors en pratique, de moins en moins. Puisque nous par exemple on fais déjà des expé sur robot avec certaines bases théorique venant des psychologue du développement et de la neurobiologie.

    Notamment, la peur, la joie etc... les émotions primaires, sont assez aisé a déconstruire et a simuler.
    L'expression des émotions quant à elle est très bien expliqué par un effet de mirooring avec la mère et tout autre structure sociale comme un mécanisme de transmission de message lié à une situation.
    Ce qu'on arrive très très bien à reproduire. On a par exemple un robot qui comprends petit a petit que toucher un objet est négatif pour lui même (ça brule par exemple, ou la mère le tape parce que c'est un objet dangereux) et il vois la mère effectuer une grimace. Comme il sais déjà imiter la grimace de la mère de façon automatique (c'est l'imitation immédiate, un des cœurs de mon taf) alors il fais cette expressions et finis par l'associer avec cet événement négatif.

    Petit par généralisation il comprendra que négatif = cet expression, ce message corporel.
    Peut on parler d'émotion, on ne sais pas, mais en tout cas on en reproduit le résultat. Donc dans la théorie turingienne : oui.

    L’expérience peut se généraliser à pleins d'expression et explique assez bien pourquoi les gens qui ont eu une structure sociale en compote étant petit ont un langage corporelle assez faible et pourquoi des espèces non sociales n'en ont pas du tout.

    Et la je parle de mécanisme qui nécessitent un bouclage d'apprentissage, c'est déjà un peu tricky. De façon plus pragmatique les neurobio ont déjà réussis a associer certaine "émotion" avec des composé chimique transmis dans l'air, je vous encourage à lire sur l'ocytocine. En l’occurrence il est donc encore plus facile d'analyser l'impact de la substance sur le cerveau et de la reproduire.

    - - - Mise à jour - - -

    Citation Envoyé par Aulren Voir le message
    Un lien vers cette chaine ou vidéo ? Merci.
    https://www.youtube.com/user/fauxsceptique
    C'était un canard qui me l'avais passé, je recommande chaudement, ça explique bien comment raisonner scientifiquement, où sont les pièges etc...
    Par exemple :

    Ou encore (sur les arguments fallacieux ( argument d'autorité etc... ) ):


    - - - Mise à jour - - -

    Citation Envoyé par LaVaBo Voir le message
    Même si tu reproduis la structure du cerveau, il faut aussi reproduire tous les flux électriques et chimiques à un instant t. Et peut-être d'autres trucs qu'on ne sait pas observer ou mesurer avec nos connaissances actuelles.
    Ha oui mais il faut bien séparer deux choses : qu'un mécanisme donne le même type de réponse . En gros le cerveau humain sain moyens.
    Ou qu'il donne exactement le même résultat (deux programmes informatiques, et encore...).

    L'IA admet largement dans la branche "développementale" que chaque neurone reçoit une part d’aléatoire donc que le résultat est en partie imprédictible précisément. (Un point que les tenant de l'IA classique détestent d'ailleurs, les mecs du LAAS n'aiment pas BigDog parce que sa trajectoire n'est pas exactement prédictible XD)

  19. #109
    Citation Envoyé par Nilsou Voir le message
    tout avis sur le sujet deviens de la religion (en attendant de trouver de quoi définir et raisonner) car tout avis sur le sujet n'est pas attaquable.

    C'est la définition scientifique de la religion. Si je dis que les âmes montent aux ciel : ce n'est pas attaquable car personne n'a de contre preuves, c'est de la religion.
    Attention sur ce point.
    Ce dont tu parles, par opposition à la science, c'est la croyance et non la religion.
    La religion incorpore bien un sous ensemble de la croyance, mais fait aussi référence à des éléments qui ne relèvent pas de la croyance (phénomène sociale, dimension culturelle, etc).

    Citation Envoyé par Nilsou Voir le message
    https://www.youtube.com/user/fauxsceptique
    C'était un canard qui me l'avais passé, je recommande chaudement, ça explique bien comment raisonner scientifiquement, où sont les pièges etc...
    Je plussoie, Hygiène Mentale est une très bonne chaine.
    Dans le genre, y'a la Tronche en biais qui est assez sympa.

    Citation Envoyé par Nilsou Voir le message
    (c'est l'imitation immédiate, un des cœurs de mon taf)
    [...]
    Et la je parle de mécanisme qui nécessitent un bouclage d'apprentissage, c'est déjà un peu tricky. De façon plus pragmatique les neurobio ont déjà réussis a associer certaine "émotion" avec des composé chimique transmis dans l'air, je vous encourage à lire sur l'ocytocine. En l’occurrence il est donc encore plus facile d'analyser l'impact de la substance sur le cerveau et de la reproduire.
    T'as de la doc là dessus que tu peux partager ?
    C'est rudement intéressant.

  20. #110
    Sur l'ocytocine ou l'imitation immédiate ?
    Sur le premier le sujet est devenu tellement Hype qu'une simple recherche google te donnera 99% des clés importantes qui vont avec.

    Sur le mirooring et l'imitation en IA et chez l'homme c'est le cœur de mon boulot, j'ai donc plutôt trop de doc. Je ne sais pas trop par ou commencer, je ferais un point sur ces hypothèses quand j'aurais du temps.
    Sinon tu a raison, je parlais de croyance, non de véritable religion au sens strict.
    Dernière modification par Nilsou ; 21/05/2016 à 00h50.

  21. #111
    Sur le mirroring et l'imitation, je me suis foiré dans le découpage de quote.

  22. #112
    Citation Envoyé par Nilsou;9938830[/QUOTE


    Bonne question, qui me permet de revenir sur le combat d'approche entre deux IA fort différentes.

    Tu a l'IA classique qui a ta question réponds :
    - Je comprends les raisonnements de l'humain de mieux en mieux donc j'ajoute couche après couche mon idée du raisonnement humain dans une machine.

    Cette IA se heurte a ta question, en vrai on ne peut que peu se décrire sois même d'un point de vue comportement car en grande partie on a aucune "prise" pour s'auto-comprendre ( la fameuse analogie du couteau qui ne peut se couper lui même). Des dizaines de questions philosophique restent ainsi irrésolues, donc la plus grande : comment donc vais-je coder une conscience ? L'IA développementale répond à cette question en bottant en touche (c'est mon domaine de spécialité) : vu qu'on ne peut manifestement pas emprunter le chemin 1, alors essayons de comprendre COMMENT l'humain aboutit à ces comportements. En gros en formant un triangle Neuro-biologiste - roboticien - Psycho du développement qui viennent former une nouvelle science : Les Sciences Cognitives. L'objectif ici, grosso modo est de modéliser de petits cerveaux et d'essayer de comprendre comment des comportements cohérents en émergent, comment ça peut apprendre etc... et ça marche plutôt bien (c'est clairement le domaine qui avance le plus, en tout cas).

    L'approche numéro deux botte clairement en touche, car si ça se trouve on créé déjà des robots "conscients" avec l'approche numéro deux, en tout cas ils ont plus de neurones qu'un vers de terre, et certains petits vers etc... on arrive déjà à les modéliser à 100%. Sont-ils conscient ? On n'en sais rien, mais on s'en fout tant que le comportement observé est OK.

    Bref, la réponse à ta question c'est que les deux types d'IA existe qui ont donné deux branches qui se fight bien comme il faut. Les anciens étant évidemment l'IA classique.

    Cette nouvelle approche est également l'approche qui suit les enseignements d'Asimov ou d'Alan Turing.
    Merci pour toutes ces réponses. J'espère qu'un jour on aura une meilleur IA dans les rpgs.

    Mais, je remarque quand même qu'il y a tout un pan de la vie sociale/psychique/électro-chimique de l'humain que l'IA ne pourra/devra jamais émuler: la violence physique ou morale contre des êtres vivants ou contre des biens. Car sinon, je suppose que le fabriquant de la-dite IA sera déclaré responsable des dommages. Sans parler du fait que la société et les États n'accepteront jamais des IAs potentiellement dangereuses pour leur environnement

    Et si c'est le cas, l'IA ne sera jamais "humaine".

    Je ne dis pas que la violence est l'unique caractéristique/nature/état des êtres humains ou vivants, mais ça en constitue une grosse partie quand même. Pas que la violence d'ailleurs, mais surtout le refus volontaire d'exercer la violence (le refus contraint pouvant être assimilé au bridage de l'IA). L'humain, et une bonne partie des êtres vivants je pense, se définissent en partie par la liberté d'exercer une violence, le refus d'exercer une violence, le choix d'exercer une violence ou la transgression des normes interdisant d'exercer une violence, etc. Et que ce choix de la violence ou non entraine la culpabilité, la tristesse, la responsabilité, l'indifférence, la fierté, etc, tous ces sentiments et comportements des êtres.
    Que la violence pose aussi le problème de l'évolution de l'IA, car les êtres vivants évoluent en utilisant, entre autres, le choix ou non de la violence contre autrui et l'environnement , c'est une de leur caractéristiques essentielles je pense, de leur liberté même.

    Une IA bridée sur ce point ne serait pas libre, donc serait-elle "humaine" et "vivante" ? Elle ne pourrait pas se défendre pleinement et légitimement contre son environnement, elle serait peut-être amenée à développer une autre forme de philosophie que l'être humain ou les êtres vivants, etc. Comme ces chiens qui ne peuvent pas se défendre contre leur environnement, suite à divers croisements.

    Quid aussi du piratage, qui n'existe pas chez l'être humain, (je t'accorde que le bug existe chez l'être humain).

    Et une IA "humaine" de jeu vidéo, devrait pouvoir user de violence (sans pouvoir toutefois tuer un pnj essentiel ou planquer une épée magique utile pour le joueur).
    Dernière modification par Big Bear ; 21/05/2016 à 17h54.

  23. #113
    Citation Envoyé par Orhin Voir le message
    Sur le mirroring et l'imitation, je me suis foiré dans le découpage de quote.
    C'est plutôt en science humaine que tu trouvera les clés de départ. Notamment avec Piaget (fin de la 2nd guerre) et surtout Jaqueline Nadel, une scientifique française qui a fait toute sa carrière sur le sujet.

    L’hypothèse est la suivante, en très résumé :
    Si on imagine le réseau de neurone le plus simple a construire entre les sensations et l'action, alors tu va avoir un phénomène d'imitation immédiate qui va en émerger.
    Exemple :
    - J'agis de façon random
    - Je vois mon action (ou je l'entends, la ressent etc...)
    - L'association la plus simple alors se fait entre "Ce que je ressent (le résultat de mon action) " -> " L'action"

    Évidemment ceci donne une boucle statique dans le sens ou si on laisse faire plus rien ne bouge, je fais une action, je l'observe et cette observation me fait maintenir l'action en cours, la belle affaire XD.
    Saaaaaaaauuuuuuuuuuuuuf que, et c'est la que ça devient intéressant, si je vois une perception qui me semble correspondre à l'une de mes actions, ben je vais faire cette action.
    C'est ce qu'on appelle l’ambiguïté perceptive : je peut être trompé car je ne peut pas faire la distinction entre mes actions et celle des autres, je n'ai pas encore cette faculté. (niveau petit enfant donc).

    Exemple : le bébé bouge de façon random et fais l'association entre une position approximative visuelle et sa main, OK. Mais comme il n'a aucune notion de lui même, ben si la maman bouge approximativement dans son champs visuel, tout ce que lui il sait c'est "ça bouge là" = "avant j'étais là" donc j'y reviens.
    Miracle : le bébé bouge donc sa main pour "toucher" sa mère. C'est l’imitation immédiate selon Piaget.

    Cela peut s'appliquer à tout, expression faciale, apprentissage de la parole. Le truc sympa c'est que l'enfant agit avant même de se distinguer lui même du monde environnant, c'est d'ailleurs par ce biais qu'il se distinguera par la suite du monde environnant. D'un point de vue psycho ce concept est très très fort car il permet de comprendre de nombreux phénomène du même genre, même chez l'homme adulte qui se vois toujours influencé par cette boucle "immédiate" même si il a un meilleur contrôle sur celle-ci.
    D'un point de vue neurobio c'est très fort aussi car ça permet de comprendre comment le cortex moteur, l'un des plus gros chez l'homme, se construit.
    D'un point de vue robotique c'est géniale car cela permet, sans aucun prérequis, de permettre au robot de découvrir son corps (même si c'est une simple voiture qui peut avancer, par exemple) et de se construire un répertoire de ce qui lui est possible. Une couche de plus et il peut par la suite utiliser ce répertoire, qui lui mache bien le travail, pour realiser des actions par la suite.

    Bref, ce concept est le cœur de notre boulot car il est ... génial
    En gros moi sans donner aucune info sur ce que j'utilise (robot super complexe ou simple simu de n'importe quoi) la même archi redécouvre son corps et agit de façon construite avec, c'est juste un bond phénoménal par rapport à l'ancienne approche ingé qui doit modéliser le dispositif d'un point de vue équationnel, ici on découvre tout ça lors de l'exploration, implicitement. Bref ->

  24. #114
    Citation Envoyé par Nilsou Voir le message
    D'un point de vue psycho ce concept est très très fort car il permet de comprendre de nombreux phénomène du même genre, même chez l'homme adulte qui se vois toujours influencé par cette boucle "immédiate" même si il a un meilleur contrôle sur celle-ci.
    Les réflexes de bâillement et sourire lorsqu'on est confronté à quelqu'un qui réalise une de ces actions en font partie ou ça vient de mécanismes de plus haut niveau ?

    Citation Envoyé par Nilsou Voir le message
    D'un point de vue neurobio c'est très fort aussi car ça permet de comprendre comment le cortex moteur, l'un des plus gros chez l'homme, se construit.
    C'est vrai qu'en tant qu'adulte on a tendance à considérer tout ce qui proprioception comme inné, alors qu'au final il y a une grande part d'acquis.
    Citation Envoyé par Nilsou Voir le message
    Bref, ce concept est le cœur de notre boulot car il est ... génial
    En gros moi sans donner aucune info sur ce que j'utilise (robot super complexe ou simple simu de n'importe quoi) la même archi redécouvre son corps et agit de façon construite avec, c'est juste un bond phénoménal par rapport à l'ancienne approche ingé qui doit modéliser le dispositif d'un point de vue équationnel, ici on découvre tout ça lors de l'exploration, implicitement. Bref ->
    Effectivement y'a un gros potentiel.
    Vous êtes sur des durée d'apprentissage de quel ordre pour une découverte "basique" du corps par l'IA (dans un cas simple type voiture ou vert de terre) ?

  25. #115
    Non justement à priori les réflexes de bâillement et de sourire sont directement de ce type. Avec probablement un petit truc de plus pour la bâillement qui a été préservé comme une boucle impossible a éviter ou contrôler de façon consciente car ce serais un signal de non danger primordial. Mais pour le sourire clairement oui, d'ailleurs on fais des robots qui apprennent ça.

    Sinon moi pour un robot avec deux bras avec le même nombre (grosso modo) de degré de liberté que l'humain j'arrive a une bonne précision dans leur utilisation au bout de trois quatre heures d'apprentissage. Ce qui est très rapide par rapport à l'enfant, mais ce dernier à d'autre truc à apprendre et des infos incohérente en plus (personne qui passe devant lui, qui font nawak etc...) là le domaine de l’expérience est restreint, donc c'est plus rapide.
    La ou c'est suuuuuuuper lent, c'est quand tu vient simuler des parties de gestion de récompense. Trouver une action qui sert ton besoin actuel demande un nombre d'essai hallucinant... où là sur robot réel faudrait sans doute plusieurs jours etc... pour une simple tache. Je ne parle même pas de truc comme la manipulation complexe d'objet ...
    Bref, assez vite on peut retomber sur des dynamiques d'apprentissage très lente ^^.

    Par contre j'envisage de développer le truc sur des IA de JV, qui sont un bon moyens de faire développer des trucs de façon longue. Ou/et en combinaison avec de la sélection génétique, ça peut être très rigolo .

    En fait on arrive petit à petit a bloquer sur une question fondamentale, qui tient un peu de la philo en l'absence de preuve neuro bio.
    Vu qu'on commence a bien découper le cerveau et a bien maitriser la simu de partie de gestion de récompense qui viennent biaiser le truc, tout le soucis est de déterminer les récompenses fondamentales.
    Il est évident que la bouffe quand on a faim, l'eau quand on à soif ou le sexe sont des récompenses primaire mais il y a encore du débat sur tout ce qui est exploration du monde, volonté de dominer etc...

  26. #116
    Une question: pourquoi chercher à faire de l’anthropomorphisme?

    Et sinon dans un roman je me rappelle que l'auteur avait mis le terme de "intelligence machinique" à la place de "artificielle".

    Continue Nilsou, très intéressant.
    Cambronne ne mâchait pas ses mots...Heureusement

  27. #117
    Citation Envoyé par bec Voir le message
    Une question: pourquoi chercher à faire de l’anthropomorphisme?
    Bonne question, très bien traitée par .... Asimov également, et oui, encore

    La raison tient d'un raisonnement simple :
    Comme nous n'attribuons "d'intelligence"/"conscience"/"émotions" qu'a ce qui nous ressemble (l'exemple des noirs durant l'esclavage est parlant à ce sujet) : (voir également les conversations précédentes) alors autant construire directement un truc qui nous ressemble.

    C'est ce raisonnement qui a emmené le vent pro-anthropomorphique de ces dernières années (Nao etc...). Et ça marche bien parce qu'effectivement les gens font évidement plus attention à un robot qui leur inspire une certaine forme humaine.

    Malheureusement il y a un immense problème qu'Asimov traite également très bien : Créer un robot anthropomorphique construit implicitement une attente sur son comportement : qui doit donc être celui d'un homme sein moyens. Toute divergence, même infime, entre l'attente et le résultat créé une sensation de rejet instinctive que l'on nomme la "vallée de l'étrange".
    La vallée de l'étrange est un trou dans notre "plaisir à communiquer avec un être ressemblant à un humain", en fonction de sa proximité (physique et surtout comportement) avec l'humain. Elle montre qu'en gros l'homme à une brisure dans cette courbe sur les choses qui sont très proche de lui, voici la courbe :


    Pourquoi cette forme particulière, ma théorie perso (qui doit surement être utilisée par d'autres bien avant moi, mais j'ai pas fouillé) est simplement qu'il s'agit d'un mécanisme de défense génétique. Un truc proche de nous (un humain) mais un poil trop lointain (Un humain "pas normal" : problème génétique qui se voit, par exemple la trisomie ou un cadavre) est une aberration qui peut être dangereuse pour l’espèce si elle se propage. (Bien entendu parfois c'est faux, mais la génétique s'en fout un peu de la morale et des exceptions, elle fait dans le moyennage, pour les déficiences génétiques sévères et les cadavres, le phénomène de rejet, d'un point de vue darwinien, se justifie. D'un point de vue plus pratique ça évite les infections par des malades (qui ne marchent plus normalement ou dont ls centres moteurs sont atteint par exemple) et par les cadavres) donc on conserve chez l'humain un mécanisme inné de rejet des choses différentes (ce qui donne à réfléchir sur nos civilisations , ça pourrait aussi expliquer pourquoi Sapiens aurait zigouillé archi violemment Neandertal, à méditer) .

    Bref, le soucis en robotique c'est que même des hommes très très proche (trisomie par exemple) sont perçus comme étant dans la vallée de l'étrange et donne un rejet. La bande de normalité est donc extrêmement fine.
    Le problème c'est que ça veut dire que tant qu'on arrivera pas à faire un humain à 100%, ben il y aura rejet de l'humanoïde, instinctivement, de la part de l’espèce humaine.

    C'est ce que décris très bien Asimov, pour les même raisons. En gros dans ses nouvelles les humains commencent par construire des modèles humanoïdes (avec une IA débutante, c'est un futur proche, ça ressemble peu ou prou à ce qu'on a aujourd'hui comme capacité d'IA) pour les même raisons qu'on les a construit aujourd'hui : Car à priori ça parait réaliser un fantasme et parait scientifiquement une bonne idée. Sauf que la population déteste ça, se rebelle, ce qui aboutit à une première crise du monde de l'IA qui disparait pendant des années - Avant de renaitre avec les robots animaux, qui sont bien plus intéressant à construire : moins de rejet, moins d'attente, moins de mécaniques corporelles complexes donc un objectif visé plus humble.

    Les prédictions d'Asimov sont donc valide pour le moment, on a construit de l’humanoïde pour ces raisons là et on se heurte au même problème. Est-ce que ça entrainera la fin du domaine de l'IA pendant quelques années suite à la coupure des financements qui viendra immanquablement sur l'humanoïde, on verra bien. Mais ce n'est pas improbable, une telle coupure, pour d'autres raisons, à donné lieu à un trou de 20 ans durant les années 70-80. (Note: c'était également parce qu'on vendais du rêve sans faire suivre la réalité derrière, mais ce soucis viens surtout du fait que la recherche a calqué depuis 50 ans sont fonctionnement sur le libéralisme de masse et que ce n'est ... pas adapté à l'activité de recherche... Ce n'est donc pas spécifique à l'IA mais c'est un autre sujet)

    En résumé, ce que je pense de l'anthropomorphisme : que le monde de l'IA s'est plongé lui même dans un problème assez important qui lui a apporté plein de sous à court terme mais pourra causer sa perte à moyen terme car le soucis de la vallée de l'étrange est très grand et non combatable à notre niveau de tech actuelle.
    On a également fait naitre une attente dans le public et chez les financiers qui ne correspond pas du tout à notre niveau d'avancement et à nos possibilité à moyen terme. Certains vendent donc du rêve et mentent (enfin font de la com de business, mais d'un point de vue science c'est kif-kif) pour combler temporairement ces attentes, mais c'est reculer pour mieux sauter .

    D'un point de vue assez ironique, les problèmes que posent l'anthropomorphisme scientifiquement (équilibre, multiple degrés de libertés, préhension) sont également très important et on se retrouve à devoir les résoudre alors même que leur versions simpliste ne sont pas résolus. En gros on ne sait pas faire de chat, mais on n’hésite pas à aller se poser les soucis d'un poulpe, d'une Pie ou d'un Humain, animaux qui font de la préhension... un truc que font à peine une dizaine d’espèce sur tout le globe, les plus intelligentes et complexe d'ailleurs ... c'est dire notre humilité . Donc non seulement c'est voué à l’échec pour des raisons sociales et technique, mais en plus ça ralentit la recherche actuelle car évidemment attaquer par le problème le plus complexe d’emblée en science au lieu de traiter les sous problèmes est rarement ce qui se fait de plus efficient

    Et je dis tout ça alors que je fais de l'anthropomorphisme au labo alors bon ^^.
    Dernière modification par Nilsou ; 22/05/2016 à 23h36.

  28. #118
    Citation Envoyé par Eradan Voir le message
    Selon ton raisonnement, tous les humains sont identiques. Hors ce n'est pas le cas.
    Hein? Je comprends pas trop comment t'arrives à ca?
    Etant donné que les facteurs environnementaux participent à la création de l'identité de la même manière que les facteurs génétiques, même si on avait des utérus artificiels et qu'on clonait des embryons en suivant exactement la même "recette", l'environnement et ses réactions en chaîne chaotiques se chargerait naturellement de construire des individus distincts.

    Pour les robots, je pense que ce qui pourrait gommer leur individualité serait leur méthode d'apprentissage en réseau, où chaque chose apprise est mise à jour pour tous les robots de même type connectés entre eux, à l'image des voitures autonomes dont l'expérience est partagée. Même si c'est bien plus efficace que l'éducation humaine, ca pourrait amener une sorte d'uniformité tant que les robots n'ont pas franchi une certaine barrière de complexité.

    Un truc intéressant aussi c'est que le cerveau humain, contrairement à un ordinateur, est non seulement le CPU et le stockage de masse, mais aussi dénué de software; il n'y a pas une surcouche logicielle qui tourne dans notre cerveau, c'est les neurones et synapses qui en se combinant de manière physico-chimique créent eux même de manière purement hardware les réactions logiques qui fabriquent ce qu'on perçoit comme de l'intelligence, des émotions etc.
    Du coups on comprends pourquoi des clusters de supercalculateurs surpuissants mais complètement figés et incapables de recombiner leur transistors en temps réel ont tant de mal à simuler des morceaux de cerveau, d'autant plus qu'ils ne fonctionnent pas à un niveau aussi bas.

    pourquoi Sapiens aurait zigouillé archi violemment Neandertal
    Il me semble que l'hypothèse de l'extinction violente de Neandertal est loin d'être avérée:
    https://fr.wikipedia.org/wiki/Homme_...tal#Extinction

    mais il y a encore du débat sur tout ce qui est exploration du monde, volonté de dominer etc...
    Les individus ayant une volonté d'expansion et de domination vont être naturellement sélectionnés pour la survie de l'espèce, ceux qui n'ont pas ces caractéristiques vont naturellement moins survivre/se reproduire.
    Le système de récompense est issu de l'évolution, les individus n'ayant pas de plaisir à bouffer/baiser ont naturellement eu bien plus de mal à transmettre leurs gènes.

  29. #119
    Citation Envoyé par Nilsou Voir le message
    Par contre j'envisage de développer le truc sur des IA de JV, qui sont un bon moyens de faire développer des trucs de façon longue. Ou/et en combinaison avec de la sélection génétique, ça peut être très rigolo .
    Doit y avoir moyen de faire des expérience assez sympa en utilisant les replay de joueurs comme base d'apprentissage pour le mirroring.

  30. #120
    Citation Envoyé par Mastaba Voir le message
    Il me semble que l'hypothèse de l'extinction violente de Neandertal est loin d'être avérée:
    https://fr.wikipedia.org/wiki/Homme_...tal#Extinction
    Ha oui oui, je sais bien, c'est bien pour ça que j'ai noté "aurait". Néanmoins les coïncidences temporelle sont parfois troublantes (arrivé de Sapiens dans une région, et pouf, plus de Neandertal, comme en Espagne)
    De plus cela serait logique avec d'autres particularité de notre espèce. Le fait de pouvoir utiliser un outil, ce qui est un phénomène complexe, peut être directement lié a des notions de pouvoir également (c'est en cours de débat chez certains scientifiques). (Analogie domination = voir les autres comme des outils). Et on a bien prouvé que Sapiens maitrisais bien mieux l'outil que Neandertal. D'un point de vue psycho c'est donc une possibilité non négligeable.
    Citation Envoyé par Mastaba Voir le message
    Les individus ayant une volonté d'expansion et de domination vont être naturellement sélectionnés pour la survie de l'espèce, ceux qui n'ont pas ces caractéristiques vont naturellement moins survivre/se reproduire.
    Le système de récompense est issu de l'évolution, les individus n'ayant pas de plaisir à bouffer/baiser ont naturellement eu bien plus de mal à transmettre leurs gènes.
    Oui ok, je suis d'accord qu'il y a une logique à ce que des individus aient ce genre de récompense, là n'est pas le soucis. Le problème n'est pas trop le pourquoi, mais le comment : Le soucis est plutôt comment formaliser cette récompense, ce n'est pas aisé, contrairement à la bouffe et la nourriture.
    La notion de pouvoir étant bien flou. Mais on y bosse.
    Dernière modification par Nilsou ; 23/05/2016 à 00h49.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •