Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 12 sur 43 PremièrePremière ... 2456789101112131415161718192022 ... DernièreDernière
Affichage des résultats 331 à 360 sur 1288
  1. #331
    Citation Envoyé par Møgluglu Voir le message
    La théorie de la complexité ne s'intéresse pas et n'affirme rien sur la possibilité de résoudre une instance particulière d'un problème. Bien sûr qu'un programme peut résoudre un sudoku ou même un éventuel problème EXP-complet de taille fixée (en temps constant puisque la taille du problème est constante). On résout même des problèmes NP-complets de taille arbitraire avec des algos polynomiaux tous les jours... avec des heuristiques, c'est juste que ça ne marche pas à tous les coups.
    La complexité s'intéresse à comment évolue le temps de calcul en fonction de la taille du problème, c'est tout. Et ça marche très bien pour distinguer les problèmes solubles exactement en pratique, ceux pour lesquels on peut trouver une solution approximative en pratique, et les autres. Et ça fait qu'on peut payer par carte bleue. Et pour l'instant on observe que les grandes classes de complexité ne dépendent quasiment pas du modèle de calcul sous-jacent : un problème de complexité élevée est intrinsèquement difficile, pour tout le monde.

    Maintenant, si tu te chronomètres sur la résolution de sudoku avec des grilles de plus en plus grandes, et que ton temps suit une fonction polynomiale* même en arrivant sur des grilles très grandes, dis-le tout de suite tu vas pouvoir passer au 20 heures. À moins que la CIA ne t'enlève avant, ils ont des problèmes réductibles au sudoku à résoudre.

    * avec un polynome d'ordre inférieur au nombre de points de la courbe, hein.
    Je parlais de ta définition d'une IA telle que tu l'avais énoncée...

    Une définition complexi-théoriste de l'IA serait un algo de complexité polynomiale qui est capable de résoudre l'ensemble des problèmes solubles par des humains, après un temps de training polynomial en la taille du problème.
    Donc telle qu'énoncé, ton algo devrait être capable de résoudre en temps polynomial des problèmes EXP-complets (puisque certains problèmes EXP-Complets sont solubles par l'Homme)

  2. #332
    Citation Envoyé par Longwelwind Voir le message
    Y'as pas d'autres moyens de prouver la non-calculabilité de certaines fonctions ?
    Si je me gourre pas, même si HALT est prouvé non-récursif par diagonalisation, la généralisation de HALT, le théorème de RICE, et la généralisation du théorème de Rice, le théorème du point fixe n'utilise pas de diagonalisation. (J'arrive pas à retrouver ces noms sur Google, donc ça se peut que ce que j'ai vu dans mon cursus soit pas exactement les termes exacts)
    Possible, c'est loin tout ça... Dans Wikipedia la démonstration du théorème de Rice fait un réduction au problème de l'arrêt. En tout cas je serais surpris que sur le fond les démonstrations ne soit pas basées sur une tactique proche de la diagonalisation.

    - - - Mise à jour - - -

    Citation Envoyé par Enyss Voir le message
    Donc telle qu'énoncé, ton algo devrait être capable de résoudre en temps polynomial des problèmes EXP-complets (puisque certains problèmes EXP-Complets sont solubles par l'Homme)
    Non, ce sont des instances particulières de problèmes qui sont solubles par l'homme, pas les problèmes eux-même. Jusqu'à preuve du contraire personne ne sait résoudre un problème EXP-Complet de taille n en un temps et espace polynomial en n, pour n tendant vers beaucoup. Bien sûr, on ne sait pas le prouver ni prouver le contraire faute d'un modèle de calcul modélisant un humain. Mais la conjecture que les humains sont Turing-puissants et pas plus est raisonnable.

  3. #333
    Mais rien dans ta définition n'indique que l'Homme doit résoudre le problème en temps polynomial !

    Tu dis "si un problème est résoluble par l'Homme, il doit être résoluble en temps polynomial par mon IA"

  4. #334
    Ah OK.
    Oui pardon, c'était implicite. Je parlais de savoir résoudre un problème en temps raisonnable en pratique, pas juste de savoir qu'on pourrait le résoudre par brute-force.

  5. #335
    C'est pour ça que je pense qu'une bonne définition, ça serrait plutôt que l'IA résolve les problèmes solvables par l'Homme de façon polynomial par rapport aux performances humaines

    Car il ne faut pas se voiler la face : la majorité des problèmes intéressants résolu par l'Homme sont probablement d'une complexité importante (mais l'Homme se restreint a une petite taille de données)

  6. #336
    Citation Envoyé par Eradan Voir le message
    1/ Les besoins physiques influent sur l'humeur. Félicitations, tu viens de réinventer la roue psychologique.

    2/ Non, le processus de pensée n'est pas du calcul. C'est de la pensée. C'est parce que les deux sont différents qu'il est si difficile actuellement de créer une véritable IA de type 2.

    3/ Non. La logique pure et froide, c'est la satisfaction du besoin corporel quand il advient, sans tenir compte de la situation sociale. Tu dis n'importe quoi même sur tes propres idées.

    4/ Non, ton cerveau interprète un signal électro-chimique.

    5/ Tu n'en sais rien, tout simplement parce qu'il n'a jamais été prouvé que ça n'était pas possible. Arrête d'essayer d'imposer tes croyances personnelles comme des faits scientifiques.

    C'est impressionnant. Tu ne comprends absolument rien à ce qu'on te dit, mais tu viens quand même coller des trucs qui n'ont rien à voir pour essayer de faire passer des idées que tu ne sembles même pas capable de définir toi-même tant tu passes ton temps à te contredire.

    Tant de merde de la part d'une seule personne, c'est digne du Guinness Book.
    1/ C'est cool tu reconnais enfin qu'un besoin physique influe sur l'humeur. Mogluglu avait raison, suffit de m'adapter à votre niveau.

    2/ Est réel ce qu'on peut mesurer , la science moderne soumet le réel au calcul. Tu ne dois pas entendre ce terme au sens rétréci d'opérations faites sur des nombres. Au sens large et essentiel, calculer veut dire : compter avec une chose, c'est-à-dire la prendre en considération, compter sur elle. De cette manière toute objectivation du réel est un calcul.
    Après ce serait pas mal de réaliser que si on envisage la possibilité d'une IA forte c'est justement parce qu'à la base y'a l'hypothèse que notre activité psychique peut se formaliser sous la forme d'un calcul complexe. Quand tu dis que la pensée c'est pas du calcul, tu dis automatiquement qu'on peut pas créer autre chose qu'une IA faible. Moi ma seule prétention c'est de soutenir l'idée que pour une IA forte tu dois trouver un moyen de modéliser l'affect et ses effets. D'ailleurs à la base, et je le répète, je viens savoir si ce qui se dit sur le sujet dans le domaine de l'IA.

    3\ Oui la satisfaction d'un besoin corporel c'est de la logique pure et froide, mais un ordinateur qui joue aux échecs il utilise de la logique pure et froide. Il a pas d'humeur. Ca vaut pour les deux. Et je le répète, c'est l'absence d'humeur d'une IA qui lui permet d'enterrer n'importe quel adversaire du moment qu'elle est programmée de façon intelligente.

    4/ Ouais le cerveau interpète un signal électro chimique. Sauf que toi en tant qu'individu à priori t'es conscient, que ta conscience c'est une propriété émergente de ton cerveau, le résultat du signal électro chimique. Toi en tant qu'individu, en tant qu'être conscient, du ressens juste l'envie de chier. Le signal électro chimique interprété par ton cerveau il se traduit consciemment par la pensée "faut que je trouve un chiotte" ou "j'ai envie de chier". Un truc dans le genre.

    5/
    Tu n'en sais rien, tout simplement parce qu'il n'a jamais été prouvé que ça n'était pas possible. Arrête d'essayer d'imposer tes croyances personnelles comme des faits scientifiques.
    Ton argument c'est du même niveau que le "démontre moi que Dieu n'existe pas". Les scientifiques du forum, quand ils voient ça sur le topic religion ils pètent des cables et viennent expliquer que c'est pas un raisonnement scientifique. Je leur donne raison. Du coup, je vois pas comment t'oses venir m'expliquer que j'essaye d'imposer mes croyances en mettant la science de ton côté alors qu'il apparait clairement que t'es en train d'utiliser un procédé réthorique fallacieux pour tenter de m'imposer tes croyances pseudos scientifiques.

    Note que j'ai réinventé la roue psychologique, je sais pas ce que c'est mais je suis content. Pas aussi content que le jour ou j'ai réinventé la psychanalyse par contre.

  7. #337
    CoinCOinWC, "ce qui est affirmé sans preuve peut être réfuté sans preuve". Tu affirmes qu'il est impossible que les IA blablabla, mais tu ne donnes aucune preuve de cette impossibilité.

    Donc ton affirmation n'a strictement aucune valeur

  8. #338
    Citation Envoyé par Enyss Voir le message
    CoinCOinWC, "ce qui est affirmé sans preuve peut être réfuté sans preuve". Tu affirmes qu'il est impossible que les IA blablabla, mais tu ne donnes aucune preuve de cette impossibilité.

    Donc ton affirmation n'a strictement aucune valeur
    Tu réponds toujours à une ligne du post. T'éludes les arguments. C'est pour ça qu'à la fin t'as la sensation que j'affirme des choses sans preuve.

  9. #339
    Ca doit être un problème avec mes affects je pense

  10. #340
    Citation Envoyé par Enyss Voir le message
    Ca doit être un problème avec mes affects je pense
    C'est tout à fait ça.
    Je suis content, parce que même si ça a pris le temps, t'as fini par piger le bordel.

  11. #341
    Citation Envoyé par CoinCoinWC Voir le message
    2/ Est réel ce qu'on peut mesurer , la science moderne soumet le réel au calcul. Tu ne dois pas entendre ce terme au sens rétréci d'opérations faites sur des nombres. Au sens large et essentiel, calculer veut dire : compter avec une chose, c'est-à-dire la prendre en considération, compter sur elle. De cette manière toute objectivation du réel est un calcul.
    Après ce serait pas mal de réaliser que si on envisage la possibilité d'une IA forte c'est justement parce qu'à la base y'a l'hypothèse que notre activité psychique peut se formaliser sous la forme d'un calcul complexe. Quand tu dis que la pensée c'est pas du calcul, tu dis automatiquement qu'on peut pas créer autre chose qu'une IA faible. Moi ma seule prétention c'est de soutenir l'idée que pour une IA forte tu dois trouver un moyen de modéliser l'affect et ses effets.
    OK, ça se tient.

    Mais si tu arrives à formaliser la pensée humaine, affects compris, sous forme d'un calcul, alors tu peux écrire un programme qui suit ce formalisme et créer une IA forte. Donc tu supposes qu'on n'arrivera jamais à formaliser cette pensée ? Ou que la formalisation fera intervenir une forme spéciale de calcul que seuls les humains comprennent ?

    3\ Oui la satisfaction d'un besoin corporel c'est de la logique pure et froide, mais un ordinateur qui joue aux échecs il utilise de la logique pure et froide. Il a pas d'humeur. Ca vaut pour les deux. Et je le répète, c'est l'absence d'humeur d'une IA qui lui permet d'enterrer n'importe quel adversaire du moment qu'elle est programmée de façon intelligente.
    Je dirais plutôt que c'est parce que les possibilités de calcul numérique et symbolique nécessaires pour jouer aux échecs sont câblées en dur dans Deep Blue (qu'on peut voir comme une IA primitive guidée seulement par son instinct qui lui ordonne de gagner aux échecs, en employant un répertoire inné de tactiques instinctives), tandis que pour Kasparov c'est un jeu dont il a du apprendre laborieusement les règles et qui l'oblige à réfléchir en mobilisant des fonctions cognitives de haut niveau.
    Donc pour moi, l'ordinateur joue mieux aux échecs justement parce qu'il est guidé uniquement par l'affect, et n'a pas besoin de conscience. Une IA faible c'est comme un animal ou même un végétal, qui est juste conditionné pour d'autres objectifs (gagner aux échecs, reconnaître les chatons dans des .jpg de l'interweb ou trier les résultats de requêtes Google plutôt que de survivre et transmettre ses gènes).

    Oui, je considère une définition large de l'affect, mais si on considère que toute réaction instinctive déclenché par les conditions extérieures ou internes qui n'est pas contrôlée par la conscience est un affect, alors les robots sont tous guidés par les affects, ils n'ont même que ça. Pour moi la conscience est justement la possibilité de se dégager de ses affects pour construire une pensée cohérente. Je ne me sens jamais aussi conscient que quand je suis calme, sans émotions ni sentiments particuliers et que je peux me concentrer pour réfléchir.

    4/ Ouais le cerveau interpète un signal électro chimique. Sauf que toi en tant qu'individu à priori t'es conscient, que ta conscience c'est une propriété émergente de ton cerveau, le résultat du signal électro chimique. Toi en tant qu'individu, en tant qu'être conscient, du ressens juste l'envie de chier. Le signal électro chimique interprété par ton cerveau il se traduit consciemment par la pensée "faut que je trouve un chiotte" ou "j'ai envie de chier". Un truc dans le genre.
    Oui, mais en quoi le fait d'en être conscient fait une différence ? Par rapport à le traiter entièrement de façon instinctive, ou entièrement de façon rationnelle ?

  12. #342
    Et même si on partait du principe que les émotions ont une partie qui n'est pas ancrée dans le physique, quel serait la différence ?
    Que le humain/robot ressente une pression dans sa vessie/containeur via ses nerfs/capteurs, et qu'il décide d'aller pisser/se vidanger dans des toilettes, quel est la différence qu'il le fasse avec ou sans "émotions".
    Citation Envoyé par oll Voir le message
    Et allez, un de plus qui me fout dans sa signature...
    longwelwind.net

  13. #343
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par CoinCoinWC Voir le message
    5/ Ton argument c'est du même niveau que le "démontre moi que Dieu n'existe pas". Les scientifiques du forum, quand ils voient ça sur le topic religion ils pètent des cables et viennent expliquer que c'est pas un raisonnement scientifique. Je leur donne raison. Du coup, je vois pas comment t'oses venir m'expliquer que j'essaye d'imposer mes croyances en mettant la science de ton côté alors qu'il apparait clairement que t'es en train d'utiliser un procédé réthorique fallacieux pour tenter de m'imposer tes croyances pseudos scientifiques.
    Et tu ne captes même pas l'ironie de ma remarque. C'est triste. Pas autant que tes tentatives d'imposer une pseudo-philosophie comme base scientifique de la réflexion sur les IA, mais triste tout de même.
    Barba non facit philosophum.

  14. #344
    Citation Envoyé par CoinCoinWC Voir le message
    2/ Est réel ce qu'on peut mesurer , la science moderne soumet le réel au calcul. Tu ne dois pas entendre ce terme au sens rétréci d'opérations faites sur des nombres. Au sens large et essentiel, calculer veut dire : compter avec une chose, c'est-à-dire la prendre en considération, compter sur elle. De cette manière toute objectivation du réel est un calcul.
    Après ce serait pas mal de réaliser que si on envisage la possibilité d'une IA forte c'est justement parce qu'à la base y'a l'hypothèse que notre activité psychique peut se formaliser sous la forme d'un calcul complexe. Quand tu dis que la pensée c'est pas du calcul, tu dis automatiquement qu'on peut pas créer autre chose qu'une IA faible. Moi ma seule prétention c'est de soutenir l'idée que pour une IA forte tu dois trouver un moyen de modéliser l'affect et ses effets. D'ailleurs à la base, et je le répète, je viens savoir si ce qui se dit sur le sujet dans le domaine de l'IA.
    Et la je me demande si on atteint pas une limite : modéliser ce avec quoi tu modelises. C'est le fonctionnement de ton cerveau qui permet de modéliser le fonctionnement de ton cerveau. C'est forcément biaisé et non-objectif de base.
    Ahahah, on t'avait prévenu.
    -Les Forces des Ténèbres

  15. #345
    Le couteau peut-il se couper lui-même?

    Le cerveau humain n'a pas la logique infuse, c'est bien connu: Le sentiment de quelque chose qui "fait sens" pour lui peut très bien être un sophisme ou un biais cognitif.

    Mais ça ne l’empêches pas d'utiliser d'autres outils que le simple "sentiment de logique" fourni de base avec le système d'exploitation C'est ainsi que socrate coucha sur le papier la "logique" rigoureuse lui permettant de démontrer par A+B que le "ça fait sens" du sentiment humain n'était pas fiable, mais qu'il est possible pour l'homme d'utiliser d'autres outils, et manipuler efficacement des objets et concepts au delà de sa compréhension. Ca n'est pas un soucis.

  16. #346
    Citation Envoyé par Møgluglu Voir le message
    OK, ça se tient.

    Mais si tu arrives à formaliser la pensée humaine, affects compris, sous forme d'un calcul, alors tu peux écrire un programme qui suit ce formalisme et créer une IA forte. Donc tu supposes qu'on n'arrivera jamais à formaliser cette pensée ? Ou que la formalisation fera intervenir une forme spéciale de calcul que seuls les humains comprennent ?
    Moi je crois que c'est tout à fait possible de formaliser cette pensée. Je prétend simplement que faute de pouvoir expérimenter l'affect on doit donner un moyen à l'IA de la calculer.
    Ce que tu décris comme de l'affect c'est pas de l'affect, ce que tu décris comme de la conscience c'est pas la conscience et ton instinct c'est pas de l'instinct. Toi ça te permet sans doute de te représenter l'affaire efficacement, sauf qu'au final ça te pousse à produire un point de vue fallacieux sur la question. C'est pas que le raisonnement en lui même est faux, c'est plutôt que l'habillage que tu fais part de définitions erronnés des termes "affects/conscience/instinct".

    L'essentiel c'est d'entendre qu'une IA faible peut être compliqué. Tu peux faire un robot qui gagne au jeopardy/go/échecs et qui fait le consultant dans la recherche médicale. Tu peux même l'envoyer faire une guerre de temps en temps.
    Le soucis c'est que malgré tout, face à un test de turing il échouera.

    L'ia forte c'est une ia complexe, et ce qui fonde la complexité c'est avant tout la manière dont l'information se traite et s'organise. Dans tous les cas, une IA reste un système d'information qui à vocation à traiter de l'information pour produire de l'information. Intégrer le culcul d'information affectives ça permettrait de générer la complexité nécessaire pour produire une IA forte.

    J'essaye d'éclairer :
    On a des souvenirs, mais ces souvenirs peuvent pas être comparer à un fichier stocker sur un disque dur. La comparaison semble coller au premier abord, y'a pas de soucis, sauf qu'en réalité un souvenir comporte une charge affective. On a des bons et des mauvais souvenirs, des souvenirs qui procurent des émotions positives et des souvenirs qui procurent des émotions négatives. Le fichier sur ton disque dur c'est une information neutre sur le plan affectif, y'a pas de bons ou de mauvais fichiers, y'a des fichiers.

    Le fait d'avoir une charge affective associé à chaque souvenir (et elle peut tout à fait être neutre) ça change tout.
    Un robot qui se fait rosser à l'école et qu'est doté d'une IA faible, il continuera à se comporter comme si de rien était. Il mentionnera peut être qu'il a été rossé à l'école, il sera peut être capable de prétendre avoir souffert ou de dénoncer le truc, mais ça changera rien à sa représentation du monde.
    Avec une IA complexe, le robot doit pouvoir manifester de l'angoisse à l'évocation du sujet, ou de la tristesse, de la haine, du ressentiment, de la colère, du dégout. Ca doit avoir impacter l'ensemble de ses représentations du monde et tu dois avoir le sentiment que le robot à vécu un réel trauma, chargé d'affect.

    Dans les deux cas il s'agit d'imité l'homme, mais dans le second cas tu parviens à une imitation qui reprend le mode d'organisation réel de l'esprit humain et de son expérience.

    Après la réel question c'est de savoir comment tu intègres le calcul de l'affect dans le traitement de l'information emmagasiné par l'IA. C'est là que le truc du tiers inclus de Lupasco devient intéressant et c'est aussi là que tu dois penser le moyen pour l'IA de se représenter elle même. C'est une fonction qui doit permettre de générer la complexité à donner l'illusion de conversation humaine.

    Grosso modo cette fonction doit permettre de représenter l'état d'esprit de l'ia. Se faisant ça doit aussi permettre d'envisager l'état d'esprit d'un tiers extérieur et se faisant lui permettre de composer avec les affects d'autrui pour les simuler de son côté et affecter son propre état d'esprit.

    Là tu peux commencer à envisager une IA qui te prend de haut, fait appel au syllogisme pour défendre une position subjective, se blesse, éprouve de la rancoeur etc... bref toute la panoplie des sentiments humains.

    Après, je pense que vous envisagez mal ce qui se joue au niveau de la conversation dans le milieu informatique et je trouve cet extrait de la page wiki sur le test de turing assez savoureux.

    Informatique[modifier | modifier le code]

    L’expression « Félicitations ! Vous venez d’échouer au Test de Turing… » est une insulte potache dans le milieu informatique. Cette expression se dit lorsqu’une personne vient de dire quelque chose de particulièrement stupide, et ne semble même pas avoir le niveau d’intelligence d’une machine17.
    Le truc c'est qu'une IA forte elle doit justement être capable de quelque chose de particulièrement stupide afin de sembler n'avoir même pas le niveau d'intelligence d'une machine.

  17. #347
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Tu n'as toujours pas intégré que ta philosophie bancale n'a rien à voir avec la recherche sur les IA.
    Barba non facit philosophum.

  18. #348
    Citation Envoyé par Eradan Voir le message
    Tu n'as toujours pas intégré que ta philosophie bancale n'a rien à voir avec la recherche sur les IA.
    Tu perds ton temps

  19. #349
    Citation Envoyé par CoinCoinWC Voir le message
    "affects/conscience/instinct"
    Si tu veux discuter de ces notions donne nous déjà une définition clair dans ce cas de ces termes.
    Parce que pour moi ce que tu expliques des affects, c'est tout simplement ce qu'on appelle en biologie et en automatisme des boucles de rétrocontrôle, donc qui colle parfaitement avec une explication bio-chimique de réaction chez le cerveau.

    Citation Envoyé par CoinCoinWC Voir le message
    Le soucis c'est que malgré tout, face à un test de turing il échouera.
    Pourquoi donc ?


    Citation Envoyé par CoinCoinWC Voir le message
    On a des souvenirs, mais ces souvenirs peuvent pas être comparer à un fichier stocker sur un disque dur. La comparaison semble coller au premier abord, y'a pas de soucis, sauf qu'en réalité un souvenir comporte une charge affective. On a des bons et des mauvais souvenirs, des souvenirs qui procurent des émotions positives et des souvenirs qui procurent des émotions négatives. Le fichier sur ton disque dur c'est une information neutre sur le plan affectif, y'a pas de bons ou de mauvais fichiers, y'a des fichiers.
    Ce n'est pas vrai, une IA peut comprendre un résultat comme étant mauvais, ou comme étant bon, par exemple les algorithmes évolutionnaires.
    On va converger vers une autre solution à chaque solution "mauvaise", le comportement de l'IA va donc changer.

    Tu devrais peut être aller experimenter la programmation d'une IA et nous revenir.
    Signature merde !

  20. #350
    Citation Envoyé par Félire Voir le message
    Si tu veux discuter de ces notions donne nous déjà une définition clair dans ce cas de ces termes.
    Parce que pour moi ce que tu expliques des affects, c'est tout simplement ce qu'on appelle en biologie et en automatisme des boucles de rétrocontrôle, donc qui colle parfaitement avec une explication bio-chimique de réaction chez le cerveau.
    T'imagines, j'arrive à pondre un truc qui colle parfaitement avec une explication bio chimique de réaction dans le cerveau alors que j'ai tout pensé par le prisme de la psychanalyse. C'est fou hein

  21. #351
    Citation Envoyé par Félire Voir le message
    Pourquoi donc ?
    CoinCoinWC l'a décidé, et si tu comprends pas pourquoi c'est impossible, c'est que tu as un problème avec tes affects

  22. #352
    Citation Envoyé par CoinCoinWC Voir le message
    T'imagines, j'arrive à pondre un truc qui colle parfaitement avec une explication bio chimique de réaction dans le cerveau alors que j'ai tout pensé par le prisme de la psychanalyse. C'est fou hein
    Ou alors c'est une notion tellement vaste qu'elle s'utilise dans énormément de domaine, et que ces premières utilisations datent de l'antiquité.
    Signature merde !

  23. #353
    Citation Envoyé par Félire Voir le message
    Tu devrais peut être aller experimenter la programmation d'une IA et nous revenir.
    C'est pas un bot ?
    Citation Envoyé par Big Bear Voir le message
    Je suis totalement d'accord avec le canardpcnaute M. Cacao.

  24. #354
    Citation Envoyé par Félire Voir le message
    Ou alors c'est une notion tellement vaste qu'elle s'utilise dans énormément de domaine, et que ces premières utilisations datent de l'antiquité.
    Oui alors ça s'explique par le fait que la psychanalyse et les sciences cognitives observent les mêmes phénomènes sous des prismes différents mais néanmoins complémentaires. Après te méprends pas hein, toi ça fait longtemps que je te prends plus au sérieux. Très longtemps. Ca pue la frustration à chaque post.

  25. #355
    C'est marrant ce topic.
    On lit le titre, et on s'attend a voir des gens assez éclairés venant de domaines variés débattre de façon passionée sur un sujet intéressant.
    Et c'est juste une foire d'empoigne, avec attaques personnelles, mauvaise foi et concours de kékettes.
    C'est intéressant aussi mais faudrait changer le titre "Le topic de l'intelligence artificielle - garanti 0% intelligence humaine inside"
    Ahahah, on t'avait prévenu.
    -Les Forces des Ténèbres

  26. #356
    Intelligence artificielle - le topic qui rate encore le test de Turing.

  27. #357
    Citation Envoyé par CoinCoinWC Voir le message
    Après te méprends pas hein, toi ça fait longtemps que je te prends plus au sérieux. Très longtemps. Ca pue la frustration à chaque post.
    Tu me semble bien agressif. C'est toujours intéressant de discuter avec toi...
    Signature merde !

  28. #358
    Citation Envoyé par Møgluglu Voir le message
    Intelligence artificielle - le topic qui rate encore le test de Turing.
    Très bon ! Je vote pour celui-la !
    Ahahah, on t'avait prévenu.
    -Les Forces des Ténèbres

  29. #359
    Intelligence artificielle - le topic qui fait coin coin.


  30. #360
    Citation Envoyé par Møgluglu Voir le message
    Intelligence artificielle - le topic qui rate encore le test de Tuning.
    Corrigé.
    une balle, un imp (Newstuff #491, Edge, Duke it out in Doom, John Romero, DoomeD again)
    Canard zizique : q 4, c, d, c, g, n , t-s, l, d, s, r, t, d, s, c, jv, c, g, b, p, b, m, c, 8 b, a, a-g, b, BOF, BOJV, c, c, c, c, e, e 80, e b, é, e, f, f, f, h r, i, J, j, m-u, m, m s, n, o, p, p-r, p, r, r r, r, r p, s, s d, t, t
    Canard lecture

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •