Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 36 sur 43 PremièrePremière ... 2628293031323334353637383940414243 DernièreDernière
Affichage des résultats 1 051 à 1 080 sur 1288
  1. #1051
    J'trouve la vidéo vraiment médiocre, ça mélange philosophie et AI un peu n'importe comment, c'est bien trop long pour ce que ça présente. Il ne comprend pas les commentaires de Yann LeCun et les balaye d'un revers de la main alors qu'il travaille sur le sujet depuis 30 ans.

    C'est dingue de faire 40 minutes de vidéo sur un sujet qui a une réponse assez claire, si tu veux comprendre n'importe quelle réponse donnée par l'AI dans son entièreté, c'est possible. Il est simple (plus coûteux en terme de perf) de faire un réseau de neurone entièrement observable, quelque soit le réseau, donc toute réponse donnée par ChatGPT pourrait être expliquée de bout en bout si c'était designé de cette manière. C'est déjà fait mainte fois sur des systèmes moins larges et on le comprend bien, pourquoi ça changerait à une échelle plus large, c'est un peu fantaisiste ou disons spéculatif mais pourquoi pas.
    Cependant pourquoi spéculer pendant 40 min, quand il y a une possibilité de réponse sans ambiguïté c'est ridicule, montre un manque de culture quant aux réseaux de neurone.

    Par opposition il est évident que le cerveau est difficilement observable, ça n'a rien à voir.

    Ensuite y'a le fait que c'est comme ça que sont design les réseaux de neurone en premier lieu, le choix des fonctions d'activation, la taille du réseau, l’entraînement, le corpus etc. c'est, pour simplifier, afin de converger plus ou moins rapidement, ou pour avoir une meilleure précision, etc. Avec les théorèmes d'approximation universelle on sait très bien qu'on peut émuler n'importe quelle fonction avec un réseau. Ce qui est produit par les réseaux de neurone que ce soit ChatGPT ou autre est totalement en ligne avec les résultats escomptés, y'a pas de réponse émergente hors norme qui dépasse l'entendement, c'est construit comme ça en premier lieu, donc il fait l'amalgame entre son émerveillement personnel, via des exemples très superficiels, pour une techno qu'il comprend manifestement mal et la nature de ChatGPT, c'est n'importe quoi.

    En plus c'est ouf d'avoir un tel manque de rigueur quoi, quand blablate pendant 40 minutes de manière aussi informelle, l'exemple à la fin avec le mouton est tellement pas pertinent, c'est un délire. Déjà y'a un milliard de contre exemples, on en avait posté un sur le topic avec les 3 engrenages dans le plan, mais en plus le processus de correction pour avoir la bonne réponse est fondamentalement opposé à la notion de compréhension puisque bien évidemment tu peux converger vers la bonne réponse sans comprendre puisque t'apportes la correction.

    Tout ça pour finir par "je veux pas être alarmiste, mais ne pas reconnaître la vague de l'IA, bla bla bla", espèce de psychologie inversée à 2 balles, sans jamais évoquer le fait le plus simple et évident et bien connu, qui est le coût algorithmique de cette compréhension (sans rentrer dans la discussion sur la notion de compréhension, on sait bien que les réseaux de neurones sont efficaces quant il s'agit d'analyser certains systèmes complexes avec beaucoup de variables, AlphaFold etc.), qui est une limite pratique

    Donc au final on a vraiment la présentation classique de l'étudiant paresseux, on parle d'un côté de concepts de philos bien connus, pertinent dans l'absolu mais on fait un lien douteux avec l'AI sans aucune rigueur, et on valide tout ça via des anecdotes très superficielles. Le tout avec la couche Youtubeur qui rend la vidéo imbuvable. Vraiment le schéma type d'un mec qui baratine un truc qu'il a mal révisé quand on lui dit d'aller au tableau
    Dernière modification par Anonyme20240202 ; 02/08/2023 à 11h56.

  2. #1052
    Oui la vidéo est très sympa.

    Mais elle est un peu longue, et du coup je message de fond est un peu noyé dans l'ensemble, ainsi je en suis pas certain de ce qu'il faut en retenir.
    Il me semble (mais il faudrait que je la revois une seconde fois) qu'on peut résumer comme ceci l'essentiel de la vidéo :

    à la question "ChatGPT comprend-il ce qu'il fait ?", ça dépend de la définition de "comprendre".
    Si on prend la définition "compréhension objective", oui il comprend (il fournit des sorties correctes).
    Si on prend la définition "compréhension subjective" des choses, non, car à la manière de la chambre Chinoise il n'a pas de conscience de ce qu'il réalise. Quoiqu'on ne peut pas être sûrs que ce système n'ait pas une forme de conscience.

  3. #1053
    Le problème c'est qu'à la fin il justifie la compréhension en disant littéralement "oui mais bon quand même là c'est impressionnant", donc il base sa conclusion sur une anecdote personnelle d'un système dont il ne connaît pas le fonctionnement (closed source). L'exemple des échecs est particulièrement mal choisi vu qu'on sait pertinemment que résoudre les échecs n'est qu'un pur problème de combinatoire donc par définition il est possible de construire la machine la plus stupide du monde, c'est à dire n'importe quelle machine arbitraire pour être rigoureux, qui pourra trouver la solution au prochain coup. En particulier des machines non neuronales. Donc on peut jouer au con et balayer son argumentaire là dessus comme il le fait pour Yann LeCun

    D'ailleurs les théorèmes d'approximations universels fonctionnent dans les deux sens donc on peut aussi reproduire le comportement de ChatGPT via des machines "non neuronales", ça serait particulièrement inefficace mais ça fonctionnerait.

    Donc soit il dit que n'importe quelle machine/programme comprend à un certain degré (équivalent à: https://en.wikipedia.org/wiki/Integr...rmation_theory) puisque peut importe l'implémentation sous jacente ce qui compte c'est que le résultat m'émerveille. Soit il sous entend que seul les réseaux de neurones en particulier le peuvent, mais là aussi ça pose problème car ils sont construit de A à Z et tournent de manière déterministe (step by step, reproductible) aussi de A à Z, avec des optimisations par ci par là, des algorithmes standard d'une part, des fonctions d'activation et poids d'autre part, donc y'a pas vraiment de définition formelle de ce qui constitue une IA ou non finalement. On peut aussi scale up ou scale down n'importe quel réseau en réduisant sa taille et évidemment on aura des résultats moins bons avec une taille moindre donc là encore on revient sur l'IIT citée plus haut

    Donc un simple programme qui répond "bonjour" si tu lui dis "bonjour" qui répond rien autrement, donc un if statement, a une compréhension (partielle) du mot bonjour. Pourquoi pas mais c'est simplement inintéressant à constater.
    À aucun moment dans la vidéo il ne dit que ses considérations sont spécifiques aux réseaux de neurones.

    Bref sa vidéo n'apporte rien, c'est simplement triste de médiocrité d'aborder un sujet de manière aussi superficielle. Quand je vois ce genre de truc j'ai l'impression d'un nivellement par le bas, d'imposture intellectuelle, c'est ce qui me gêne. N'importe quelle introduction aux réseaux de neurones, même un tout petit réseau simple de reconnaissance de caractères apporterait bien plus à l'audience, mais c'est plus vendeur de partir dans des tirades floues et grandiloquentes avec de petites blagues de youtubeur par ci par là "oh j'espère que vous aussi vous avez 2 capteurs d'ondes électromagnétiques au milieu du visage, haha je ne suis pas qu'un philosophe j'en connais des choses, hahaha"

  4. #1054
    Citation Envoyé par Ze Venerable Voir le message
    Si on prend la définition "compréhension subjective" des choses, non, car à la manière de la chambre Chinoise il n'a pas de conscience de ce qu'il réalise. Quoiqu'on ne peut pas être sûrs que ce système n'ait pas une forme de conscience.
    Je pense que tu as mal compris la vidéo, alors. Son principal argument est justement que la chambre chinoise est dotée de compréhension subjective. Mais les LLM ne sont pas des chambres chinoises, elles en sont très loin.
    Dernière modification par Railgun ; 02/08/2023 à 14h08.

  5. #1055
    Ah c'est marrant, je viens de regarder à nouveau un passage et je ne comprends pas comme toi (genre autours de 15 min, je ne comprends pas qu'il est affirmé que la chambre Chinoise ait une compréhension subjective, c'est juste que -selon les contradicteurs - on est pas certain que ça ne puisse pas émerger du système chambre+opéateur). Bah je dois passer à côté d'un truc je ferai un visionnage plus attentif (et en entier) plus tard , en tout cas merci

  6. #1056
    Ou alors c'est peut-être moi qui ai mal compris, mais j'ai bien l'impression qu'en tant que fonctionnaliste, tout son argument c'est justement de montrer que puisque la chambre chinoise donne les mêmes sorties pour les mêmes entrées qu'un être doté d'une compréhension subjective, c'est un être doté d'une compréhension subjective.

    Je trouve l'argument discutable (tout en étant fonctionnaliste moi-même) parce qu'il manque l'existence des états mentaux intermédiaires pendant le passage entrées->sorties, qui ne sont pas identiques à ceux d'un être doué d'une compréhension subjective (dans un "cerveau chinois", par contre, si.)

  7. #1057
    Citation Envoyé par Kamikaze Voir le message
    Vraiment le schéma type d'un mec qui baratine un truc qu'il a mal révisé quand on lui dit d'aller au tableau
    Alors je vais être taquin mais quand je vois tes 2 commentaires, j'ai le même sentiment.
    T'es passé pas mal à côté du propos de la vidéo et tu réponds de façon hors-sujet (un brin énervé en plus) sur la technique alors que la question relève de la philosophie de l'esprit.

    Je dis ça sans animosité hein.
    Tu t'y connais pas mal sur la technique (et en théorie de l'information) mais tu sembles assez fermé sur la partie philo.

    Citation Envoyé par Kamikaze Voir le message
    Le problème c'est qu'à la fin il justifie la compréhension en disant littéralement "oui mais bon quand même là c'est impressionnant"
    Euh non, ce n'est pas du tout une justification du raisonnement, c'est juste une illustration un peu fun (ChatGPT a une certaine forme de compréhension de l'image du mouton).
    La justification du raisonnement, c'est les 40min de vidéo qui précèdent.

    Faut pas trop se focus là dessus (ni sur les blagues ou sur la réponse rapide aux commentaire de Yann LeCun.

    Citation Envoyé par Kamikaze Voir le message
    Donc soit il dit que n'importe quelle machine/programme comprend à un certain degré (équivalent à: https://en.wikipedia.org/wiki/Integr...rmation_theory) puisque peut importe l'implémentation sous jacente ce qui compte c'est que le résultat m'émerveille.
    C'est justement une question très importante en philosophie de l'esprit.
    Et oui il plutôt va dans ce sens (à minima pour la compréhension objective, pour la compréhension subjective il botte un peu en touche et approfondira surement dans une autre vidéo).

    Citation Envoyé par Kamikaze Voir le message
    si tu veux comprendre n'importe quelle réponse donnée par l'AI dans son entièreté, c'est possible.
    Sauf que ce n'est pas la problématique qui est abordée en fait.
    La question n'est pas "est-ce qu'un observateur externe peut comprendre le fonctionnement interne d'une IA ?" mais "peut on dire qu'un système (autre que le cerveau humain) comprend un sujet X ?".

    En réponse à cette question, il pose 2 types de compréhension :

    - compréhension objective => on ne teste que les entrées/sorties, c'est plutôt simple.
    Sur ce point, n'importe quelle boite noire peut avoir une compréhension objective d'un sujet X (plus ou moins bon, ce n'est pas absolu), et ce peu importe son fonctionnement interne (esprit humain, réseau de neurone, arbre de décision, etc) et son substrat (neurones biologique, CPU, administration géante de milliards d'individus, chambre chinoise, etc).

    - compréhension subjective => pas vraiment de définition précise, on peut approcher ça d'une forme de conscience.
    Et là c'est le bordel car y'a pleeeein de manières d'aborder le sujet vu que la question de la conscience est très loin d'être tranchée (euphémisme).

    Il donne l'exemple de la chambre chinoise, qui prétend démontrer qu'un tel système ne peut pas avoir de compréhension subjective (et donc en conséquence une IA non plus).
    Sauf que ça ne convainc pas vraiment les philosophes de l'esprit actuellement.
    Notamment car tenir pour vrai la conclusion initiale de l'expérience de pensée mène :
    - soit à une forme de dualisme (la conscience existe en dehors du substrat physique) => pas top d'un point de vue scientifique
    - soit à privilégier le substrat biologique par rapport aux autres => un peu mieux mais difficilement justifiable aussi

    À partir de là, pour lui on ne peut pas infirmer qu'un tel système possède une compréhension subjective en utilisant ce genre d'argument.
    Par contre il n'affirme pas pour autant qu'un tel système a une compréhension subjective.

    Citation Envoyé par Railgun Voir le message
    Ou alors c'est peut-être moi qui ai mal compris, mais j'ai bien l'impression qu'en tant que fonctionnaliste, tout son argument c'est justement de montrer que puisque la chambre chinoise donne les mêmes sorties pour les mêmes entrées qu'un être doté d'une compréhension subjective, c'est un être doté d'une compréhension subjective.

    Je trouve l'argument discutable (tout en étant fonctionnaliste moi-même) parce qu'il manque l'existence des états mentaux intermédiaires pendant le passage entrées->sorties, qui ne sont pas identiques à ceux d'un être doué d'une compréhension subjective (dans un "cerveau chinois", par contre, si.)
    Alors pour moi le raisonnement (enfin plutôt la compréhension que j'en ai) qu'il tient est différent (et se rapproche de ce que dit Ze Venerable) :
    Si on tient la conclusion de l'expérience de pensée de la chambre chinoise pour vraie (un tel système n'a pas de compréhension subjective) alors on ne peut pas être fonctionnaliste.
    Mais il ne démontre pas l'inverse (être fonctionnaliste => chambre chinoise possède une compréhension subjective).
    C'est la faute à Arteis

  8. #1058
    Citation Envoyé par Orhin Voir le message
    Alors pour moi le raisonnement (enfin plutôt la compréhension que j'en ai) qu'il tient est différent (et se rapproche de ce que dit Ze Venerable) :
    Si on tient la conclusion de l'expérience de pensée de la chambre chinoise pour vraie (un tel système n'a pas de compréhension subjective) alors on ne peut pas être fonctionnaliste.
    Mais il ne démontre pas l'inverse (être fonctionnaliste => chambre chinoise possède une compréhension subjective).
    Sans rentrer dans le fond de la discussion, démontrer "A implique B" est équivalent à démontrer "non B implique non A" (avec ici A = "la chambre chinoise n'a pas de compréhension subjective" et B = "on ne peut pas être fonctionnaliste").

  9. #1059
    Sauf que ce n'est pas la problématique qui est abordée en fait.
    La question n'est pas "est-ce qu'un observateur externe peut comprendre le fonctionnement interne d'une IA ?" mais "peut on dire qu'un système (autre que le cerveau humain) comprend un sujet X ?".
    Tu y es, tu poses le problème dont je parle là.

    Si on reste sur l'approche que tu décris comme objective, n'importe quel système trivial a un degré de compréhension, ce qui est une tautologie inintéressante, c'est inutilisable et applicable à tout (puis y'a pas de distinction à faire entre philosophie et science ou "technique" sauf si on veut se permettre de raconter n'importe quoi sous couvert que c'est de la philo franchement).

    Il subordonne beaucoup son discours aux LLMs et réseaux de neurone de manière générale (pourquoi? biais contemporain, la mode du jour), mais donc si on suit ton raisonnement où l'exemple des échecs vous dites bien que des systèmes triviaux ont un degré de compréhension. Pourquoi avoir attendu ChatGPT pour étaler de telles banalités.

    C'est un fait que le cerveau ne peut pas encore être observé au même degré qu'un CPU (qu'on a nous même construit). Donc ignorer toute la science, les efforts actuels (récemment j'avais posté dans le topic des sciences une carte du cerveau d'une souris https://knowledge.brain-map.org/data...S1QUBG/explore) quant à notre meilleure compréhension du cerveau c'est absurde.

    On ne peut pas parler de la même manière d'un système qu'on manipule et comprend en totalité (machine) et d'un système qu'on ne comprend pas au même degré.

    Dire qu'ils ont des similitudes (l'humain répond 1+1=2, la calculette aussi), c'est une chose, mais il n'y pas de conclusions à en tirer sans faire l'effort de comprendre le fonctionnement du cerveau.

    Donc le mec se choisit un adversaire imaginaire bancale (chambre chinoise) dit que ça n'a aucun rapport, puis fait de vague déclaration quant au prouesses de ChatGPT, c'est vraiment toute la vidéo quoi.
    Tous ses exemples sont hors sujet c'est trivial de démontrer qu'un système peut générer de la géométrie même bien plus complexe que le mouton uniquement via du texte, on appelle ça la géométrie analytique, et vu que le code (qui fait partie du corpus) contient précisément des associations genre entre un cercle et l'équation du cercle c'est d'une banalité affligeante.

    M'enfin bref, vive le sponsor VPN, à bas Yann LeCun, vive youtube. J'ai juste pas envie de voir des canards soutenir cette médiocrité quoi. Si t'as trouvé un truc intéressant dans la vidéo pourquoi pas mais t'as l'air de raisonner suffisamment bien pour ne pas avoir besoin de la vidéo en premier lieu.

    Autant recommander un truc de science étonnante, au moins le mec ne fait pas une vidéo sur les AI sans expliquer ce qu'est un neurone dans ce contexte (oui mais non le sujet de la vidéo c'est la philosophie de l'esprit pas les AI, ah bon...? Ca a l'air de l'intéresser pourtant)

    La conclusion de la vidéo c'est très littéralement, Yann LeCun comprend rien et sous estime la vague IA quoi, aucun rapport de bout en bout sa vidéo, y'a rien à sauver il saute de sujet en sujet, s'comme les philosophes qui parlent de physique quantique, maintenant c'est l'IA, avant c'était le théorème d'incomplétude. À chaque génération sa mode
    Dernière modification par Anonyme20240202 ; 02/08/2023 à 15h28.

  10. #1060
    Conclusion de la vidéo, copié collé sans changement

    En somme, on a et on aura de moins en moins de raison de nier que des modèles comme GPT-4 manifestent une intelligence et une compréhension authentiques. Et ce n'est qu'un début. Et on sait pas où ça va. Et c'est extrêmement difficile à contrôler. Et dire tout ça, c'est pas céder à la hype de l'IA ou faire des prophéties dangereuses, c'est juste essayer de mettre des mots adéquats sur ce qui est en train de se jouer.
    Ça c'est mettre la tête dans le sable alors qu'une vague gigantesque est en train de se former et va nous emporter qu'on le veuille ou non. Donc voilà, sortons la tête du sable, arrêtons avec ces histoires de chambre chinoise, et essayons de comprendre ce que ces IA comprennent.
    - La machine ne pourra jamais penser comme l'homme. - Exactement. Ne pourra jamais penser, tout court. Ne pourra jamais...
    - Ta gueule. S'il te plaît ta gueule je t'en supplie c'est insupportable... Voilà pour cette petite vidéo chambre chinoise et compréhension. Ça faisait longtemps que je voulais parler de cet argument de la chambre chinoise et finalement c'est l'occasion.
    Du Baudelaire, vraiment, putain ça m'énerve, faut que j'arrête de regarder des conneries pareilles

  11. #1061
    Citation Envoyé par Cheshire Voir le message
    Sans rentrer dans le fond de la discussion, démontrer "A implique B" est équivalent à démontrer "non B implique non A" (avec ici A = "la chambre chinoise n'a pas de compréhension subjective" et B = "on ne peut pas être fonctionnaliste").
    Oui je sais ce qu'est une contraposée.
    Mais là c'est un peu plus complexe car il y a plusieurs formes de fonctionnalisme, du coup c'est pas juste du B/non B.

    Citation Envoyé par Kamikaze Voir le message
    ce qui est une tautologie inintéressante
    C'est tellement inintéressant que c'est un débat philosophique (comme tout ce qui touche à la conscience) depuis l'antiquité.

    Citation Envoyé par Kamikaze Voir le message
    puis y'a pas de distinction à faire entre philosophie et science ou "technique" sauf si on veut se permettre de raconter n'importe quoi sous couvert que c'est de la philo franchement
    Je ne fais pas de distinction, je dis juste qu'il y a un domaine (philosophie de l'esprit) que tu sembles moins connaitre.

    Citation Envoyé par Kamikaze Voir le message
    Il subordonne beaucoup son discours aux LLMs et réseaux de neurone de manière générale (pourquoi? biais contemporain, la mode du jour)
    Où ça ?
    Si tu regardes ses vidéos qui traitent de philosophie de l'esprit, la majorité ne traitent pas de LLMs (ou d'une forme particulière d'IA).

    Oui il parle pas mal de ChatGPT récemment car c'est un sujet d'actu, mais c'est surtout une manière d'aborder d'autres sujets.

    Citation Envoyé par Kamikaze Voir le message
    Pourquoi avoir attendu ChatGPT pour étaler de telles banalités.
    Ben c'est pas le cas en fait.
    Et ce serait bien que tu discutes de façon un peu plus sereine, c'est pas très agréable d’interagir avec toi sur ce ton.

    Citation Envoyé par Kamikaze Voir le message
    C'est un fait que le cerveau ne peut pas encore être observé au même degré qu'un CPU (qu'on a nous même construit). Donc ignorer toute la science, les efforts actuels (récemment j'avais posté dans le topic des sciences une carte du cerveau d'une souris https://knowledge.brain-map.org/data...S1QUBG/explore) quant à notre meilleure compréhension du cerveau c'est absurde.
    Alors c'est assez marrant car la branche de la philosophie s'intéresse justement en générale de très prêt aux neurosciences (particulièrement les fonctionnalistes).
    Notamment pour essayer d'avancer sur le problème difficile de la conscience (pour lequel pour l'instant aucune réponse scientifique n'est satisfaisante).
    C'est la faute à Arteis

  12. #1062
    My bad pour le ton des posts, j'vais stopper la. La discussion est intéressante, la vidéo moins, elle au moins le bon point d'avoir suscité la discussion.

  13. #1063
    Grand maître du lien affilié

  14. #1064
    Tout vu la Vidéo. Elle est excellente et je valide 100% des points évoqués en tant que chercheur en IA. C'est la position de la plupart des chercheurs en IA je pense.
    C'est très bien expliqué le pourquoi du comment on en arrive à cette position. Rien a ajouter pour ma part du coup.

    Je ne sais pas si j'ai le courage de répondre à vos pavés de discussions avec Kamikaze haha. Vous en avez écrit des tonnes

    edit : allez je tente.




    Citation Envoyé par Kamikaze Voir le message
    J'trouve la vidéo vraiment médiocre, ça mélange philosophie et AI un peu n'importe comment, c'est bien trop long pour ce que ça présente. Il ne comprend pas les commentaires de Yann LeCun et les balaye d'un revers de la main alors qu'il travaille sur le sujet depuis 30 ans.
    Je suis désolé mais Yann LeCun foire toute ses prédictions depuis le début, il est vraiment très très mauvais sur le sujet. C'est un matheux technique mais qui ne maitrise pas du tout les tenants et aboutissants de mon point de vue de chercheur en IA, déso, et c'est pas son prix turing qui y change quoi que ce soit. Le plus petit début de réflexion d'Asimov explose Yann LeCun sur les réflexions associées.

    Par ailleurs, tout ce que fait le mec dans la vidéo, c'est de rappeler ... le point de vue de Turing sur le sujet en fait ... qui amha, est un peu plus profond que les réflexion de Yann LeCun.


    Citation Envoyé par Kamikaze Voir le message
    Par opposition il est évident que le cerveau est difficilement observable, ça n'a rien à voir.
    On arrive à reproduire des bouts de cerveau de manière très précise. Et le fait que ce qui échappe à ton observation dans de vrais neurones en actions (souvent des pouillème de virgule hein), ait un quelconque apport, reste à prouver : il n'y a aucune preuve dans ce sens. C'est de la foi de penser que la conscience ou la compréhension se nicherait dans le détail mal observé du cerveau humain et pas dans la très large partie comprise et observée.


    Citation Envoyé par Kamikaze Voir le message
    Ce qui est produit par les réseaux de neurone que ce soit ChatGPT ou autre est totalement en ligne avec les résultats escomptés, y'a pas de réponse émergente hors norme qui dépasse l'entendement,
    Alors là tu tombe mal, je suis spécialiste des comportements émergent avec des réseaux ne neurones, c'est un peu mon taf. Dire qu'il n'y a pas de comportement émergent avec ChatGPT c'est un peu du grand n'importe quoi. ChatGPT lui même n'est qu'un immense comportement émergent : le pari initial qu'ils ont fait c’est que le machin arriverait à saisir des situations et à les exploiter en n'apprenant que des choses basiques, c'est un pari sur un comportement émergent et c'était pas du tout du tout sur de fonctionner (beaucoup pariaient que ça ne marcherait pas du tout, moi même j'étais douteux qu'on puisse le faire avec nos puissances de calcul actuel avec une méthode aussi bourine : car on demande littéralement à un réseau de reconstruire une image du monde en prédisant la suite d'une phrase, imaginez l'éducation d'un gamin comme ça : prédit la phrase suivante exactement, ça pourrait vaguement fonctionner si le gamin est très vif et si l'éducation prends 27 fois plus longtemps que pour ses camarades, mais c'est laborieux, intuitivement on sait que c'est une voie trop complexe, et pourtant ... parfois raser une foret permet de la traverser tout autant qu'en y cherchant un chemin, c'est inélégant, bourrin, ça demande de très gros calculateur et de la grosse thune, mais ça marche aussi).

    Citation Envoyé par Kamikaze Voir le message
    En plus c'est ouf d'avoir un tel manque de rigueur quoi, quand blablate pendant 40 minutes de manière aussi informelle, l'exemple à la fin avec le mouton est tellement pas pertinent, c'est un délire. Déjà y'a un milliard de contre exemples, on en avait posté un sur le topic avec les 3 engrenages dans le plan, mais en plus le processus de correction pour avoir la bonne réponse est fondamentalement opposé à la notion de compréhension puisque bien évidemment tu peux converger vers la bonne réponse sans comprendre puisque t'apportes la correction.
    Critique vide à mon sens : ça illustre parfaitement ce qu'il voulait illustrer : le réseau peut se représenter une image, ou du moins générer une image, à partir d'entrée purement textuelle. Bref, il a réussi à abstraire le concept mouton, avec forme et tout, à partir de texte ET à le reproduire (en passant en plus par un code intermédiaire). Ce qui est au contraire une excellente démo, très impressionnante au passage.
    C'est exactement le même taf qu'on ferait en dessinant une espèce extraterrestre décrites dans un livre et en transformant cette représentation interne en algorithme (les commandes de nos bras/mains) pour dessiner le-dit extraterrestre.
    C'est un procédé assez haut niveau, donc c'est très bon et ça illustre pas mal ce que la personne voulait illustrer.

    Citation Envoyé par Kamikaze Voir le message
    sans jamais évoquer le fait le plus simple et évident et bien connu, qui est le coût algorithmique de cette compréhension , qui est une limite pratique
    Je ne vois pas trop en quoi c'est un argument ou même une donnée pertinente pour un philosophe
    Puis nous aussi on a un cout computationnel immense si on fait le calcul ...

    Citation Envoyé par Ze Venerable Voir le message
    Ah c'est marrant, je viens de regarder à nouveau un passage et je ne comprends pas comme toi (genre autours de 15 min, je ne comprends pas qu'il est affirmé que la chambre Chinoise ait une compréhension subjective, c'est juste que -selon les contradicteurs - on est pas certain que ça ne puisse pas émerger du système chambre+opéateur). Bah je dois passer à côté d'un truc je ferai un visionnage plus attentif (et en entier) plus tard , en tout cas merci
    Dans la vidéo il dit que le système chambre chinoise a une compréhension objective. C'est testable, c'est objectif. Il dit également qu'on ne pas dire que le système chambre chinoise n'a PAS de compréhension subjective. Déjà parce que dire que quelques chose n'a pas de compréhension subjective est assez couillu vu que quand on commence à partir par là on s'oriente vers l'exceptionnalité de l'homme, et qu'on a même pas de preuve que notre voisin d'en face a bel et bien une compréhension subjective.
    Ensuite parce que si on étends l'argument de la chambre chinoise on se rends compte qu'on peut faire faire la chose à des milliers de bonhommes comme des neurones. Et personne ne dit que les neurones ont des compréhension subjective. De fait : il est plutôt admis que la compréhension subjective né d'élément qui n'ont pas de compréhension subjective. C'est donc un phénomène émergent. Rien n’empêche donc qu'il naisse d'un super neurone (le mec dans la chambre chinoise, qui ne comprends rien) ou de mille bonhomme faisant la tache dans la chambre (chacun étant un petit neurone), en interaction avec la mémoire de la chambre (le bouquin dans la chambre). Dans ce cas la chambre est un élement « conscient » ou « comprenant subjectivement », en gros, alors que ces éléments ne comprennent rien.

    Voila ce qu'il dit.

    Et c'est un peu un truc de base parmi les chercheurs en IA.

    Citation Envoyé par Railgun Voir le message
    Ou alors c'est peut-être moi qui ai mal compris, mais j'ai bien l'impression qu'en tant que fonctionnaliste, tout son argument c'est justement de montrer que puisque la chambre chinoise donne les mêmes sorties pour les mêmes entrées qu'un être doté d'une compréhension subjective, c'est un être doté d'une compréhension subjective.
    Nop nop nop, il ne dit jamais jamais ça. Il dit simplement que l'utilisation de cet argument pour démontrer qu'il n'y a pas de compréhension subjective est très débattable (pour les raisons juste au dessus), mais qu'en plus quand on parle de compréhension objective c'est de complétement idiot comme argument.
    Jamais il ne dit que la chambre chinoise est doté de compréhension subjective. Mais par contre il dit clairement qu'on ne peut pas dire l'inverse non plus (0 preuve sur le sujet). Le bon sens voudrait même, par analogie avec les neurones qui ne comprennent rien non plus, que la chambre chinoise SOIT doté de compréhension subjective. Mais c'est juste le bon sens, pas une preuve.
    Ce bon sens permets par contre de dire que l'argument de la chambre chinoise est :

    - Meh (je reprends le terme dans la vidéo), quand il s'agit de l'utiliser pour s'opposer à la compréhension subjective d'un système artificiel.
    - Complétement con, quand il s'agit de l'utiliser pour s'opposer à la compréhension objective d'un système artificiel.

    Citation Envoyé par Orhin Voir le message
    C'est tellement inintéressant que c'est un débat philosophique (comme tout ce qui touche à la conscience) depuis l'antiquité.
    J'allais le dire, oui, si on admets qu'un système artificiel, constitué d'élément « con », peut avoir une compréhension subjective alors se pose évidemment la question de où ça s’arrête. Un circuit électronique est-il un peu conscient, et un arbre ? Un caillou ?
    Rien ne permets vraiment d'énoncer l'inverse en fait et des religions majeures de l'humanité postule en ce sens d'ailleurs.

    Ceci étant dit :
    - Normalement, vu qu'il n'y a pas de définition propre de la conscience permettant d'en débattre de manière constructive, un bon chercheur en IA cherche à ne pas aborder le sujet très sérieusement, sous aucun prétexte, sauf pour le fun.
    C'est d'ailleurs tout le blabla de base de Turing de dire que cette discussion est parfaitement stérile et de proposer une méthode de mesure de paramètre objectif plutôt que d'intelligence ou de conscience subjective. (Test de Turing : paramètre retenu = est-ce que mon système peut bluffer un humain dans un certain cadre (cadre à définir).

    - La vidéo n'aborde pas vraiment ce problème et il prends grand soin de bien le mettre sur le coté donc c'est plutôt propre et j'approuve totalement cette approche : il montre juste que les personnes qui nient la possibilité de quelque chose de subjectif (Les Kamikazien ^^) ne s'appuie sur aucun argument vraiment solide. Il montre que la démonstration inverse est fausse. Sans pour autant, bien évidemment, démontrer dans l'autre sens.
    Dernière modification par Nilsou ; 02/08/2023 à 23h36.

  15. #1065
    Citation Envoyé par Nilsou Voir le message
    Tout vu la Vidéo. Elle est excellente et je valide 100% des points évoqués en tant que chercheur en IA.
    Tu parles de celle postée par tompalmer, ou de celle de Mr Phi qui a déclenché l'ire de Kamikaze? (je suis sans casque en ce moment donc difficile de regarder les vidéos sans emmerder tout le monde dans une petite baraque)

  16. #1066
    Celle de Mr Phi qui emmerde Kamikaze.

    M'enfin c'est pas nouveau la réaction de Kamikaze, ça fait quelque temps qu'on a compris qu'il a une sorte de blocage profond sur le fait d'admettre que la conscience ou la « compréhension subjective » puisse apparaitre dans un processus artificiel.
    Il ne l'admets pas totalement mais c'est un défendeur profondément convaincu de l'exceptionnalité de l'humain. Et ça, depuis les premières discussions sur le sujet sur le forum.

    Mr Phi ne fait que répéter un truc de base finalement, qui n'est autre que la position de Turing, D’Asimov, de la plupart des chercheurs en IA aujourd'hui etc. Rien de bien nouveau. Mais c'est absolument opposé à l'exceptionnalisme de l'homme. Ça ne peut qu'énerver en profondeur Kamikaze.

    Je dirais même que sa vidéo vise presque directement les Kamikaze de tout les pays ^^.
    Dernière modification par Nilsou ; 02/08/2023 à 23h42.

  17. #1067
    La vidéo que j'ai posté parle plutot des implications de Chat GPT.

    Savoir si c'est intelligent, élégant ou autre est une chose, mais dans son état actuel c'est quand meme la technologie avec le taux d'adoption le plus rapide, et elle a déja un impact

    Je pense que le mec s'alarme un peu beaucoup en se basant sur les quelques annonces de licenciement. Mais bon, il faut croire que tout le monde pense que ca va vraiment remplacer les humains.

    La greve a Hollywood est a 90% a cause de l'IA, franchement je ne vois pas d'usage de l'IA dans l'industrie qui soit suffisamment avancé et économique pour remplacer les acteurs/figurants dans les 3 ans qui viennent.

    En revanche pour les scénaristes on est assez proches de leur obsolescence.Au mieux certains pourront relire et paufiner les scénarios
    Grand maître du lien affilié

  18. #1068
    T'as ignoré la moitié de mes posts Nilsou. Mais comme d'hab je me rends compte que l'écrit n'est pas super adapté pour discuter de sujets comme celui là.
    Ca fait un moment que j'ai en tête de commencer un Github et des média interactifs où les gens pourront expérimenter eux même sur divers sujets, et se forger une opinion viable plutôt que la spéculation outre mesure qu'on voit.

    Concernant la conscience t'es hors sujet c'est absolument pas le thème de la discussion. Par ailleurs t'as absolument tort concernant ma vue sur "l’exceptionnalité de l'être humain". C'est l'opposé total, je suis plutôt du côté super déterministe pour le cerveau, donc machine, remplit de tout plein d'algo qu'on peut reverse engineering comme avec les illusions d'optique par exemple, donc aucune exceptionnalité. Avec pour seule interrogation la nature de la qualia.

    J'ai juste la rigueur de dire que pour l'instant y'a pas une observation aussi profonde du cerveau que des processus déterministes, réalisables step by step, d'un ordinateur sur lequel tourne une IA et que donc faut en toute rigueur ne pas spéculer sur la notion de conscience telle que vécu par le cerveau.

    Mais bref.

    Franchement tu te discrédites beaucoup à mes yeux dans ton passage sur les comportements émergents. Tu ne réponds absolument au fait que ces comportements demeurent par définition calculables et entièrement explicables, de bout en bout. Et je parle pas de conscience ici, mais soit du thème de phénomènes émergents, soit de pourquoi dans sa vidéo il parle d'IA et pas d'algos classiques. On pourrait donner un exemple, et ça me prendra un peu de temps mais je pense faire un petit projet github de LLMs expliqué (au sens XAI) et les gens arrêteront d'être mystifiés, je ferai de même pour stable diffusion. Comme ça on pourra itérer step by step dans le code et comprendre la nature des comportements qualifiés d'émergents. On pourra même visualiser les neurones en temps réel et la représentation interne qu'il font, tous les paramètres expliqués etc.

    Ca sera plus adapté que des posts.

    Tu passes à côté de tous mes arguments sur le fait que sa vidéo n'est pas spécifique aux AIs, donc pourquoi cette discussion pour ces systèmes, et pas des systèmes "non AI", où est la différence. Si c'est simplement le niveau de complexité, j'ai déjà évoqué l'IIT plus haut et j'ai pas dit être pour ou contre. Jamais je parle de conscience, je souligne juste l'effet de mode de l'IA qui lui fait lier un sujet donné avec l'IA, sans raison.

    Je me répète t'façon, j'pense que l'argumentaire est clair et simple. À la limite on peut juste s'arrêter sur la forme de la vidéo, le manque de source, les explications avec les mains, la conclusion scénario catastrophe en 2 minutes, c'est pas sérieux, c'est du divertissement.

    En somme, on a et on aura de moins en moins de raison de nier que des modèles comme GPT-4 manifestent une intelligence et une compréhension authentiques. Et ce n'est qu'un début. Et on sait pas où ça va. Et c'est extrêmement difficile à contrôler. Et dire tout ça, c'est pas céder à la hype de l'IA ou faire des prophéties dangereuses, c'est juste essayer de mettre des mots adéquats sur ce qui est en train de se jouer.
    Pourquoi ce commentaire pour l'IA et pas pour d'autres algos exécutés par des machines.

    x^(2)+y^(2)=1 c'est l'équation d'un cercle
    Si je passe ça à un langage genre python il me dessinera un cercle, même si jamais eu de visualisation d'un cercle
    Un mouton c'est un cercle avec des petits cercles, j'ai lu ça dans mon corpus
    Boom, mouton, pouah, quel comportement émergent impossible à comprendre, uniquement via du texte, révolutionnaire

    Une licorne y'a un cercle pour la tête un cercle pour le corps, les couleurs de l'arc en ciel et du rose, le code couleur du rose en hexadecimal, c'est #ff007f, boom licorne, wow incroyable

    Ca vaut vraiment 100 million de coût d’entraînement et 2 trillions de paramètres. Et vu que visiblement seules les IA sont intéressantes à étudier, il va falloir payer cher pour aller plus loin.

    T'façon même ça c'est hors sujet quand je le formule comme ça, bien évidemment qu'en entraînant une IA tu peux avoir n'importe quel comportement peu importe le medium utilisé, c'est le principe même du théorème d'approximation universelle. Faire l'amalgame entre medium et prouesse de l'IA car elle répond avec apparemment un autre medium ça n'a aucun sens. C'est comme dire que c'est incroyable parce que les poids des neurones sont stockés en binaire mais que l'AI peut faire une image. C'est tellement faux sur toute la ligne que je sais pas par où commencer, c'est ça qui me rend fou avec de genre de vidéo, y'a vraiment aucune rigueur, aucune volonté pédagogique, aucun effort, c'est la paresse intellectuelle puissance 1000.
    Dernière modification par Anonyme20240202 ; 03/08/2023 à 00h33.

  19. #1069
    J'avais aussi une observation pour Nilsou et Kamizake

    Dans la série Westworld, Ford dit qu'il a réussi a donner la conscience aux robots grace à la théorie du cerveau Bicaméral.

    De mémoire, en gros, le robot a un deuxième programme qui sont des voix qui lui parle et au bout d'un moment il croit que ce sont les siennes



    Je me demande a quel point la théorie tient la route
    Grand maître du lien affilié

  20. #1070
    Citation Envoyé par Kamikaze Voir le message
    T'as ignoré la moitié de mes posts Nilsou. Mais comme d'hab je me rends compte que l'écrit n'est pas super adapté pour discuter de sujets comme celui là.
    J'ignore pas, j'ai lu, mais j'élague et je ne vais pas faire des pavés alors que d'autres l'ont déjà fait

    Citation Envoyé par Kamikaze Voir le message
    Concernant la conscience t'es hors sujet c'est absolument pas le thème de la discussion.
    Ha si ha si, en creux c'est totalement ça et Mr Phi le dit à deux trois occasions. Ce qu'il nomme « compréhension subjective » dans son blabla, à savoir la connaissance du chaud, du froid, tel que « vraiment vécu » est une des définition de la conscience. C'est totalement lié. Et comme tu réponds principalement sur ce sujet ...

    Citation Envoyé par Kamikaze Voir le message
    Par ailleurs t'as absolument tort concernant ma vue sur "l’exceptionnalité de l'être humain". C'est l'opposé total, je suis plutôt du côté super déterministe pour le cerveau, donc machine, remplit de tout plein d'algo qu'on peut reverse engineering comme avec les illusions d'optique par exemple, donc aucune exceptionnalité. Avec pour seule interrogation la nature de la qualia.
    Mais alors pourquoi réagir comme ça dès que quelqu'un te dit qu'on ne peut pas nier une compréhension subjective à un algo ?


    Citation Envoyé par Kamikaze Voir le message
    J'ai juste la rigueur de dire que pour l'instant y'a pas une observation aussi profonde du cerveau que des processus déterministes, réalisables step by step, d'un ordinateur sur lequel tourne une IA et que donc faut en toute rigueur ne pas spéculer sur la notion de conscience telle que vécu par le cerveau.
    Il y a pas mal de supposition dans ce que tu dis. Déjà la science se base sur des avancées qui se font sur des hypothèses, donc des spéculations. Pourquoi aurait-on plus le droit de spéculer sur la capacité d'un neurone à, je ne sais pas, calculer 1+1, qu'a être conscient ? On peut spéculer ce qu'on veut ^^.

    Ensuite je ne vois pas pourquoi on interdirait spécifiquement le sujet de la conscience, n'est-ce pas comme si tu déifiait un peu le sujet donc interdiction d'en parler ?

    Enfin, en l'absence de définition de la conscience et assimilé, la plupart des gens ne spéculent pas là dessus. Mr Phi dans sa vidéo, par exemple, ne fait que dire que les gens qui disent qu'il n'y a pas de compréhension subjective / conscience dans un système artificiel (ou tout autre système), ceux qui affirment ça, ne basent leur affirmation que sur du rien.
    En toute logique, si je lis bien ce que tu dis, tu devrait donc être 100% d'accord avec Mr Phi. (et pourtant, à te lire, que ce soit avec Mr Phi ou avec cette phrase générale elle même, tu n'es pas du tout d'accord, tu présente même la conclusion logique de cette porte ouverte comme une tautologie, quelque chose de fondamentalement ridicule).

    Si on ne formule aucune conclusion c'est ni dans un sens ni dans l'autre non ?


    Citation Envoyé par Kamikaze Voir le message
    Franchement tu te discrédites beaucoup à mes yeux dans ton passage sur les comportements émergents. Tu ne réponds absolument au fait que ces comportements demeurent par définition calculables et entièrement explicables, de bout en bout. On pourrait donner un exemple, et ça me prendra un peu de temps mais je pense faire un petit projet github de LLMs expliqué (au sens XAI) et les gens arrêteront d'être mystifiés, je ferai de même pour stable diffusion. Comme ça on pourra itérer step by step dans le code et comprendre la nature des comportements qualifiés d'émergents. On pourra même visualiser les neurones en temps réel et la représentation interne qu'il font, tous les paramètres expliqués etc.
    Tout comportement émergent émerge de la somme de comportement explicable. C'est la base même de la définition de « comportement émergent », ce n'est pas en suivant les signaux neurone par neurone que tu va enlever le fait que c'est un comportement émergent ...

    Par ailleurs bon courage pour suivre des signaux « explicable » dans un réseau de neurone de la taille de ChatGPT, c'est parfaitement ridicule. C'est la somme d'apprentissage dont on connait la teneur, et ça va dans une direction qu'on maitrise plus ou moins, mais ça n'en reste pas moins émergent. Nul part le machin n'a appris à répondre à une question lui demandant de dessiner un poney dans un langage. C'est donc un comportement parfaitement émergent de la somme d'apprentissage qui ne portent pas vraiment sur le sujet.

    Citation Envoyé par Kamikaze Voir le message
    Tu passes à côté de tous mes arguments sur le fait que sa vidéo n'est pas spécifique aux AIs, donc pourquoi cette discussion pour ces systèmes, et pas des systèmes "non AI", où est la différence. Si c'est simplement le niveau de complexité, [...]
    Pourquoi ce commentaire pour l'IA et pas pour d'autres algos exécutés par des machines.
    Ben je passe pas à coté, je ne vois pas en quoi ce sont des « arguments » en fait ... Oui et alors ?
    De plus le philosophe en question en a parfaitement conscience, il le dit à plusieurs moment que ce sont des réflexion bien plus général, aucun rapport avec l'IA en elle même à la base. On peut se poser la même question pour un arbre, une poule, un caillou.
    Et alors ?

    J'arrive pas à voir ton point.

    Explicite ?

    Citation Envoyé par Kamikaze Voir le message
    Boom, mouton, pouah, quel comportement émergent impossible à comprendre, uniquement via du texte, révolutionnaire
    Dans la mesure où il n'a jamais appris explicitement à dessiner des moutons, oui c'est plutôt émergent .
    En tout cas c'est la définition qu'on donne dans les papiers d'IA au terme comportement émergent : quand un système donne un comportement, des sorties, qui n'étaient pas explicitement fournies dans la base d'apprentissage.

    Parfois on va parler de comportement émergent parce que le résultat est très différent de la base d'apprentissage, parfois parce que c'est en interagissant avec le monde extérieur qu'il devient très différent de ce qu'on a mit dedans (robotique).

    Citation Envoyé par Kamikaze Voir le message
    Ca vaut vraiment 100 million de coût d’entraînement et 2 trillions de paramètres. Et vu que visiblement seules les IA sont intéressantes à étudier, il va falloir payer cher pour aller plus loin.
    C'est là qu'on voit les raisons du fond de ta colère hihi, qui n'ont que peu de rapport avec le sujet finalement.
    Que ça coute cher ou beaucoup de paramètre n'ont rien à voir avec la vidéo.

    Mais je te comprends, moi aussi je suis deg que ce soit ce domaine des réseaux de neurone large qui « gagne » sur ce chemin alors que je pense qu'il y a bien plus élégant sur d'autres voies. C'est la vie.

  21. #1071
    Je ne suis pas un chercheur en ia et je serais totalement incompétent pour participer à vos discussions techniques ou philosophiques.
    Donc je suis conscient mais j'entrave que dalle à des discussions très techniques qui dépassent ma compréhension.

    Mais sauf erreur, ChatGPT ne possède pas de système limbique, centre des émotions. Donc dire qu'on ne pourrait pas vérifier sa conscience subjective est faux puisqu'il en est physiquement dépourvu (contrairement à l'humain dans la chambre chinoise) ?
    Ou alors il faut comprendre l'utilisation du terme conscience subjective du point de vue purement philosophique ?

    Je suis perdu là .

  22. #1072
    Haha j'ai l'impression d'être sur un divan, je parle de mes problèmes au boulot et Nilsou me dit que ça vient d'un traumatisme dans l'enfance avec le plus grand aplomb.

    La réflexion sur l'argent investit c'était uniquement pour souligner que c'était trivial d'avoir des comportements émergents tels que décrit avec une telle taille. Et que d'autre part ça ouvre la question de la scalabilité. Puisque dans la quote de la vidéo que j'ai déjà copié collé 2 fois on a une annonce de catastrophe imminente.

    Par ailleurs, même si la conscience n'existait pas, la puissance que vous attribuez à ces systèmes n'est diminué en rien, donc la catastrophe est toujours là. Donc je me répète encore une fois (lol), on a une vidéo qui parle de la notion de compréhension et je vais pas encore copier coller l'extrait, qui termine en disant que du coup ChatGPT c'est une vague extrêmement difficile à contrôler, c'est quoi le rapport. Les centrales nucléaires c'est aussi difficile à contrôler visiblement. 'Tain y'a vraiment aucun respect quoi, on parle de tout et n'importe quoi. C'est quoi le rapport.

    On accomplit quoi en disant que les cailloux sont conscients, on accomplit quoi, c'est quoi la science Nilsou, c'est des déclarations spéculatives sans conséquences? C'est quoi le projet vous allez où hahaha, nan mais en plus tu entraines toujours la discussion dans des thèmes bien plus profond, alors qu'à la base je crachais juste mon dégoût pour une vidéo youtube mal faite

    Objectivement quelqu'un qui regarde la vidéo sans connaître le sujet il en ressort avec rien, un vague sentiment d'inquiétude peut être. Il sait toujours pas ce que c'est un LLM. Ca spécule, ça explique rien, bref, au dodo!

    - - - Mise à jour - - -

    Citation Envoyé par Munshine Voir le message
    Je ne suis pas un chercheur en ia et je serais totalement incompétent pour participer à vos discussions techniques ou philosophiques.
    Donc je suis conscient mais j'entrave que dalle à des discussions très techniques qui dépassent ma compréhension.

    Mais sauf erreur, ChatGPT ne possède pas de système limbique, centre des émotions. Donc dire qu'on ne pourrait pas vérifier sa conscience subjective est faux puisqu'il en est physiquement dépourvu (contrairement à l'humain dans la chambre chinoise) ?
    Ou alors il faut comprendre l'utilisation du terme conscience subjective du point de vue purement philosophique ?

    Je suis perdu là .
    Là c'est une autre discussion mais en gros ce que Nilsou explique c'est que:

    On n'a pas de définition de la conscience en premier lieu
    A priori quand on observe le cerveau on a l'air de ne rien voir de plus qu'une machine (y'a certes des parties qu'on suppute liées à la conscience mais on sait pas, et même la de toute façon ça reste a priori des processus déterministes): https://en.wikipedia.org/wiki/Neural..._consciousness
    Par ailleurs "émotion" et "système limbique" sont pas vraiment liés à la notion de conscience mais je vois ce que tu veux dire
    On fait des machines (ordinateurs) qui ont l'air d'émuler des comportements humains, via des processus déterministes tout pareil

    Donc a priori on est en train de regarder la même chose, quelque soit la définition de conscience, les deux sont analogues.

    Et moi je suis ni pour ni contre, je dis je sais pas (et j'aimerais bien que les charlatans arrêtent de dire on sait quand il savent pas)

    Mais Nilsou il dit qu'il sait que je pense que je suis contre cette idée (lol)
    Dernière modification par Anonyme20240202 ; 03/08/2023 à 01h07.

  23. #1073
    Citation Envoyé par Kamikaze Voir le message
    La réflexion sur l'argent investit c'était uniquement pour souligner que c'était trivial d'avoir des comportements émergents tels que décrit avec une telle taille. Et que d'autre part ça ouvre la question de la scalabilité. Puisque dans la quote de la vidéo que j'ai déjà copié collé 2 fois on a une annonce de catastrophe imminente.
    Par ailleurs, même si la conscience n'existait pas, la puissance que vous attribuez à ces systèmes n'est diminué en rien, donc la catastrophe est toujours là. Donc je me répète encore une fois (lol), on a une vidéo qui parle de la notion de compréhension et je vais pas encore copier coller l'extrait, qui termine en disant que du coup ChatGPT c'est une vague extrêmement difficile à contrôler, c'est quoi le rapport. Les centrales nucléaires c'est aussi difficile à contrôler visiblement. 'Tain y'a vraiment aucun respect quoi, on parle de tout et n'importe quoi. C'est quoi le rapport.
    Déja c'est une longue vidéo, donc pardonne nous de ne pas forcément prendre en grande considération les trois petite phrase à la fin. C'est un youtubeur, il essai de finir sur une note Waaaa, ça n'a absolument aucune importance.

    De plus je pense que dans le contexte, ce qu'il souhaite dire ici c'est qu'il est envisageable, envisageable hein, d’atteindre un niveau d’intelligence suffisante pour être assez proche de l'humain, ce qui amènerais quelques changement évident du fait des usages que ça ouvre. Déjà que les « petits » usages actuels sont en pleine explosion et changent quelques peu certains métiers...

    Citation Envoyé par Kamikaze Voir le message
    On accomplit quoi en disant que les cailloux sont conscients, on accomplit quoi, c'est quoi la science Nilsou, c'est des déclarations spéculatives sans conséquences? C'est quoi le projet vous allez où hahaha, nan mais en plus tu entraines toujours la discussion dans des thèmes bien plus profond, alors qu'à la base je crachais juste mon dégoût pour une vidéo youtube mal faite
    Ben nan je t'entraine à préciser le fond de ta pensée sur ce point, qui transparait dans chacun de tes posts sur l'IA depuis le début .
    Et on le revoit transparaitre dans la partie en gras

    Je repete que l'auteur de la vidéo, je m'autocite : « ne fait que dire que les gens qui disent qu'il n'y a pas de compréhension subjective / conscience dans un système artificiel (ou tout autre système), ceux qui affirment ça, ne basent leur affirmation que sur du rien. » . Il n'aborde ce sujet que pour dire ça. Principalement en réponse au philosophe interviewé qui dit ça. (de manière plus précise il critique aussi YannLeCun qui dit ça pour les réseaux LLM précisément, ce qui est bien foireux comme affirmation de la part de LeCun)

    Tout ce qu'il fait c'est montrer que quelqu'un fermant a priori des portes, comme le fait les quelques interviewé qu'il montre, est vraiment très con. Le philosophe dont il montre l'interview est vraiment très con par exemple. Asimov et Turing se retournant dans leur tombe.

    Citation Envoyé par Kamikaze Voir le message
    Et moi je suis ni pour ni contre, je dis je sais pas (et j'aimerais bien que les charlatans arrêtent de dire on sait quand il savent pas)
    Mais Nilsou il dit qu'il sait que je pense que je suis contre cette idée (lol)
    Bah à chaque fois qu'on mets une vidéo où le mec dit très clairement et posément : « on ne sait pas, et les mecs qui disent « NON » sont stupide », ce qui est le cas de cette vidéo, c'est 100% du propos. Tu viens t'enflammer.
    En clair à chaque fois qu'une vidéo critique des gens passant du « on ne sait pas » à « on sait et c'est non », ça t’énerve. Alors que les vidéos en questions souhaitent juste dire qu'on revient à l'état « on ne sait pas ».

    Si ce que tu écris (ni pour ni contre) reflétait vraiment le fond de ta pensée tu trouverais le fond de la vidéo excellent. Ce n'est pas le cas pourtant.

    Par ailleurs si tu ne savait vraiment pas, tu accepterais les deux hypothèses à égalité, pourtant quand on lit des phrases comme ceci :

    On accomplit quoi en disant que les cailloux sont conscients, on accomplit quoi, c'est quoi la science Nilsou, c'est des déclarations spéculatives sans conséquences?
    le cerveau est difficilement observable, ça n'a rien à voir.
    Si on reste sur l'approche que tu décris comme objective, n'importe quel système trivial a un degré de compréhension, ce qui est une tautologie inintéressante, c'est inutilisable et applicable à tout
    Donc soit il dit que n'importe quelle machine/programme comprend à un certain degré (équivalent à: https://en.wikipedia.org/wiki/Integr...rmation_theory) puisque peut importe l'implémentation sous jacente ce qui compte c'est que le résultat m'émerveille.

    Et j'en passe, il y a clairement un malaise de ton coté à admettre la possibilité de l'existence de l'hypothèse selon laquelle une machine à un degrés de compréhension subjective (=conscience). Tu dit être neutre, mais ce que tu écris montre que tu es neuuuutre, en considérant l'une des hypothèses comme ridicule et te gênant énormément

    Tu va même au delà, et je ne m'en était pas rendu compte, puisque tu nie même les mesures de compréhension objective :

    Donc un simple programme qui répond "bonjour" si tu lui dis "bonjour" qui répond rien autrement, donc un if statement, a une compréhension (partielle) du mot bonjour. Pourquoi pas mais c'est simplement inintéressant à constater.
    Pourtant c'est bien la seule chose qui est actuellement mesurable objectivement. C'est l'essence même des travaux de Turing sur la question. Et c'est la quasi totalité des travaux de système IA complexe que de faire ce type de mesure. Tout le domaine est donc inintéressant ?

    C'est très surprenant car à la relecture je vois que ta principale négation c'est sur la compréhension objective, même si tu mélange un peu tout. Alors que la mesure de compréhension objective c'est un truc de base en IA depuis bien longtemps, c'est juste la mesure des performances vu de l'exterieur d'un système en considérant que si on ne peut pas le distinguer d'un autre système (l'homme) alors c'est bon du point de vue extérieur. C'est Turing, Asimov et tuti quanti. Si ça te gène aux entournures, c'est que tu ne considère que valide la « vrai compréhension », c'est à dire la compréhension subjective. Ce qui est particulier car on a 0 donnée sur cette compréhension.

  24. #1074
    Citation Envoyé par Nilsou Voir le message
    Alors que la mesure de compréhension objective c'est un truc de base en IA depuis bien longtemps
    Du coup, on lui met combien à ChatGPT comme note, niveau "compréhension objective de notre monde" ? Pas plus de 7 sur 10, compte-tenu qu'encore à l'heure actuelle il nous sort parfois des énormités (oeuf de cheval, ...) ?

  25. #1075
    Bah faut voir les tests en rapport dans les papiers, il y a pas mal de métrique différente, c'est malheureusement pas uniformisé. Il aurait probablement une très bonne note mais pas 10/10 si on reprends ta notation, 10 étant un humain éduqué.

  26. #1076
    Citation Envoyé par Kamikaze Voir le message
    Concernant la conscience t'es hors sujet c'est absolument pas le thème de la discussion.
    Euh si, c'est complètement le sujet en fait.
    C'est bien ce que je disais dans ma première réponse : tu passes totalement à côté du propos de la vidéo et c'est toi qui fait du hors sujet depuis le début.

    Typiquement, tous tes propos sur la complexité/scalabilité sont totalement hors sujet.
    Beaucoup d'expériences de pensées font intervenir des systèmes dont les échelles/vitesse peuvent être très différentes de celle d'un cerveau humain.

    Citation Envoyé par Kamikaze Voir le message
    Mais Nilsou il dit qu'il sait que je pense que je suis contre cette idée (lol)
    Ben vu que tu répondes systématiquement de manière très agressive sur le sujet, y'a quand même une forme de malaise.

    Citation Envoyé par Ze Venerable Voir le message
    Du coup, on lui met combien à ChatGPT comme note, niveau "compréhension objective de notre monde" ? Pas plus de 7 sur 10, compte-tenu qu'encore à l'heure actuelle il nous sort parfois des énormités (oeuf de cheval, ...) ?
    Il aurait surement d'excellente note sur certains sujets et serait un cancre sur d'autres.
    C'est la faute à Arteis

  27. #1077
    Citation Envoyé par Munshine Voir le message
    Mais sauf erreur, ChatGPT ne possède pas de système limbique, centre des émotions. Donc dire qu'on ne pourrait pas vérifier sa conscience subjective est faux puisqu'il en est physiquement dépourvu (contrairement à l'humain dans la chambre chinoise) ?
    Ou alors il faut comprendre l'utilisation du terme conscience subjective du point de vue purement philosophique ?

    Je suis perdu là .
    Le système limbique est nécessaire au fonctionnement du cerveau humain et donc à sa conscience.

    Cependant :
    - il est tout à fait possible d'avoir des système d'émotion ne reposant pas sur le système limbique (tout comme pour la plupart des capacités de cognitions)
    - rien ne garantit que les émotions soient nécessaire pour la conscience phénoménale
    - les émotions ont pu apparaitre indépendamment (ou en parallèle) de la conscience car elles offrent des avantages évolutifs assez intéressants

    Pour la chambre chinoise, le fait qu'il y ait un humain dedans n'a pas de rapport avec le débat sur le fait qu'elle ait une compréhension subjective (ou non).
    Si tu remplaces l'humain par une machine capable de lire, écrire et manipuler les pages du livre, le système est identique (et donc les conclusions qu'on peut en tirer).

    Il faut vraiment voir cet exemple comme une boite noire dont on peut remplacer facilement les différentes pièces et le mécanisme à l’œuvre.
    La chambre chinoise peut s'appliquer à n'importe quel sujet qu'on saurait décrire de façon algorithmique.
    C'est la faute à Arteis

  28. #1078
    C'est pour ca que je suis pas trop inquiet sur l'aspect remplacement des travailleurs, tu peux pas te satisfaire d'un truc qui même une fois sur 100 va te sortir une énormité, il faudra un mec derrière pour contrôler.

    Par contre t'as besoin de moins de monde pour la production donc quand meme c'est destructeur d'emploi
    Dernière modification par tompalmer ; 03/08/2023 à 14h53.
    Grand maître du lien affilié

  29. #1079
    Ce que j'aime bien avec la vidéo c'est qu'elle amène un peu à réfléchir au sens de "comprendre".
    Citation Envoyé par Orhin Voir le message
    - compréhension subjective => pas vraiment de définition précise, on peut approcher ça d'une forme de conscience.
    Et là c'est le bordel car y'a pleeeein de manières d'aborder le sujet vu que la question de la conscience est très loin d'être tranchée (euphémisme).
    Question de quelqu'un qui n'a rien lu comme bouquin sur la conscience, je me demande si on a la certitude qu'un "niveau de compréhension objective très élevé" (genre supérieur à l'homme) implique forcément qu'il y ait compréhension subjective/conscience. Dans l'autre sens j'imagine que la recherche sur le sujet s'intéresse aussi au niveau mini de compréhension objective pour avoir de la conscience.

  30. #1080
    Citation Envoyé par Ze Venerable Voir le message
    Ce que j'aime bien avec la vidéo c'est qu'elle amène un peu à réfléchir au sens de "comprendre".
    Ah bah c'est toujours fun la philosophie de l'esprit, ça implique pas mal d'expériences de pensée (et de nouvelles de SF) intéressantes.





    Citation Envoyé par Ze Venerable Voir le message
    Question de quelqu'un qui n'a rien lu comme bouquin sur la conscience, je me demande si on a la certitude qu'un "niveau de compréhension objective très élevé" (genre supérieur à l'homme) implique forcément qu'il y ait compréhension subjective/conscience.
    D'instinct je dirais que non.

    Ça se rapproche du concept de zombie philosophique : https://fr.wikipedia.org/wiki/Zombie_(philosophie)
    Puis après tu tombes sur des courants philosophiques mineurs comme l'illusionnisme (en résumé : la conscience phénoménale/compréhension subjective n'existe pas) un peu mindfuck mais plausibles.
    C'est la faute à Arteis

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •