Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 29 sur 43 PremièrePremière ... 19212223242526272829303132333435363739 ... DernièreDernière
Affichage des résultats 841 à 870 sur 1288
  1. #841
    Citation Envoyé par Charmide Voir le message
    Yes c'est ce pattern là, comme pas mal de trucs autour des LLMs c'est très très bête comme principe mais ça marche étonnament bien.
    Y'a pas mal d'exemples dans la doc de langchain aussi: https://python.langchain.com/en/late...es/agents.html, c'est pas mal représentatif du genre de cas d'usage que les gens essaient de hacker et qui me rend assez optimiste sur le fait que même si le fond vaut ce qu'il vaut avec ces limites, y'a déjà pas mal de trucs intéressants à faire avec
    Ha mais perso, comme je le disais, même si c'est assez éloigné du cerveau humain d'un point de vue micro, j'ai l'impression qu'ils vont dans la bonne direction pour la constitution d'une IA véritablement intelligente d'un point de vue macro. Après tout, les rebonds de raisonnement, c'est très similaire à ce qui se passe dans les interconnexion du cortex (ou une idée en active une autre etc.) qu'on modélise par des réseaux chaotique.

    J'ai un petit doute sur le fait qu'on puisse profiter de ces bonnes propriété à cout computationnel faible par contre.

  2. #842
    Bah c'est p'têt qu'il sait de quoi il parle. Ses exemples c'est juste des contre exemples, les prendre face value et en faire un post twitter c'est quand même caractéristique d'être une fouine, sans compter les smileys dans le pseudo (je blague).

    Ne pas comprendre qu'un contre exemple est une preuve, mais qu'un exemple est une anecdote c'est n'avoir rien pigé, m'enfin. C'est pareil avec l'exemple que j'ai pris avec les engrenages plans en triangle, j'ai choisi cet exemple car il n'apparait que rarement dans la littérature et le problème est solvable par des engrenages non plans, mais vu qu'il va se concentrer sur la déduction du sens de rotation qui se retrouve par milliards dans la littérature c'était assez grillé qu'il allait faire une erreur, comme un enfant de 5 ans. C'est aussi bien évidemment une erreur corrigible en rajoutant une contrainte dans la prompt. D'ailleurs il est évident que tu peux faire générer du texte arbitraire au final.

    D'ailleurs dans la catégorie argument d'autorité il se pose là le guignol twitter haha, matez moi sa bio. J'attends que les canards lui tombent dessus avec la même vertu et droiture.

    M'enfin à vrai dire ces histoire d'AI m'endorment, y'a d'autres progrès technos qui m'intéressent bien bien plus, mais ça occupe les discussions en ce moment sur le topic donc je rebondis pour la blague.

    Le truc c'est qu'OpenAI ils passent closed source et GPT-3 sous license exclusive microsoft, font du marketing en guise de publications, c'est dur de croire en leur intégrité et leur diligence scientifique. Le tout en se gavant sur Common Crawl et la recherche publique, sans compter sûrement tout un tas de trucs open source, bref la classique

  3. #843
    J'ai pas compris à qui tu réponds, mais pas à moi j’imagine .

    Je partage ton gros doute sur l'usage qui pourra être fait de tels IA. Ne serais-ce que parce qu'ils vont pouvoir embarquer leurs visions du monde à l’intérieur via l’apprentissage (ce qu'a déjà fait OpenAI dans sa dernière étape de fine tuning) et que les gens risquent d'avoir tendance à se reposer dessus comme une parole divine (le même effet que pour les medias, en décuplés).

    De même, j'ai un doute sur l'utilité finale.

    Par contre pas d'inquiétude pour le coté open source, ce n'est que du tuning de technologies relativement « simple ». On va vite voir des tonnes de trucs open sources dispo facilement.

  4. #844
    Citation Envoyé par Nilsou Voir le message
    Ha mais perso, comme je le disais, même si c'est assez éloigné du cerveau humain d'un point de vue micro, j'ai l'impression qu'ils vont dans la bonne direction pour la constitution d'une IA véritablement intelligente d'un point de vue macro. Après tout, les rebonds de raisonnement, c'est très similaire à ce qui se passe dans les interconnexion du cortex (ou une idée en active une autre etc.) qu'on modélise par des réseaux chaotique.

    J'ai un petit doute sur le fait qu'on puisse profiter de ces bonnes propriété à cout computationnel faible par contre.
    Ouais t'inquiètes c'était une remarque générale, pas en contradiction avec toi. Je sais que ta conclusion sur l'autre topic c'était que j'étais un teubé qui comprenait pas la différence et qui contestait des prémisses basiques, mais je t'assure que non non, j'ai bien compris ce que tu disais (et que tu disais pas).

    La remarque c'était plus toujours dans l'idée de différencier une vague de hype style crypto ou méta-vers où personne ne sait concrètement quels sont les débouchés ou produits on pourrait faire, avec de vague promesses dans tous les sens, alors que là tu vois un truc comme ça, moi en tant que personne qui fait des apps et des produits ça m'intéresse bien, et c'est loin d'être le seul exemple. Mais bon apparemment je dois être le seul

    Même pas besoin de spéculer sur le futur/d'autres propriétés émergentes/un miracle de vérifiabilité/la diminution des coûts/quand est-ce qu'on tapera une limite conceptuelle des archis en cours, ou une vague promesse d'AGI.

    Pour ces trucs là je vois bien un retour miraculeux du bio-mimétisme à un autre endroit/avec d'autres parallèles échelles (pareil c'était un peu le sens de mon message dans l'autre topic), comme tu dis y'a encore des parallèles à d'autres endroits... https://twitter.com/togelius/status/1639740968705376261

  5. #845
    Ha mais j'ai jamais contesté le fait que ces types d'IA allez bouleverser une part des pratiques dans la société. Si tu remonte les topics tu verra même que je m'oppose à notre cher Kamikaze sur le sujet pendant des pages dans des discussions fleuves

    Toute la chaine de production graphique déjà ... et ce n'est que l'exemple le plus évident.

  6. #846
    Citation Envoyé par Kamikaze Voir le message
    Bah c'est p'têt qu'il sait de quoi il parle. Ses exemples c'est juste des contre exemples, les prendre face value et en faire un post twitter c'est quand même caractéristique d'être une fouine, sans compter les smileys dans le pseudo (je blague).

    Ne pas comprendre qu'un contre exemple est une preuve, mais qu'un exemple est une anecdote c'est n'avoir rien pigé, m'enfin. C'est pareil avec l'exemple que j'ai pris avec les engrenages plans en triangle, j'ai choisi cet exemple car il n'apparait que rarement dans la littérature et le problème est solvable par des engrenages non plans, mais vu qu'il va se concentrer sur la déduction du sens de rotation qui se retrouve par milliards dans la littérature c'était assez grillé qu'il allait faire une erreur, comme un enfant de 5 ans. C'est aussi bien évidemment une erreur corrigible en rajoutant une contrainte dans la prompt. D'ailleurs il est évident que tu peux faire générer du texte arbitraire au final.

    D'ailleurs dans la catégorie argument d'autorité il se pose là le guignol twitter haha, matez moi sa bio. J'attends que les canards lui tombent dessus avec la même vertu et droiture.

    M'enfin à vrai dire ces histoire d'AI m'endorment, y'a d'autres progrès technos qui m'intéressent bien bien plus, mais ça occupe les discussions en ce moment sur le topic donc je rebondis pour la blague.

    Le truc c'est qu'OpenAI ils passent closed source et GPT-3 sous license exclusive microsoft, font du marketing en guise de publications, c'est dur de croire en leur intégrité et leur diligence scientifique. Le tout en se gavant sur Common Crawl et la recherche publique, sans compter sûrement tout un tas de trucs open source, bref la classique


    Pas un grand fan de cet individu non plus mais bon LeCun est fort aussi. Il se met dans la merde tout seul, il était pas obligé de donner ça comme exemple de "y'a de la vraie intelligence/un world model au-delà de la linguistique". C'est donner le bâton pour se faire battre 5 mois plus tard. Il est aussi venu dire que si GPT-4 y arrivait et GPT-3 n'y arrivait pas c'était sûrement parce que.. son exemple avait attéri dans les données d'entraînement. En truc non-vérifiable et incontestable, ça se pose là.

    C'est beaucoup de batailles de crèmeries et d'arguments de mauvaise foi toussa, je prends les faits qui m'arrangent pour défendre ma narrative etc.

    - - - Mise à jour - - -

    Citation Envoyé par Nilsou Voir le message
    Ha mais j'ai jamais contesté le fait que ces types d'IA allez bouleverser une part des pratiques dans la société. Si tu remonte les topics tu verra même que je m'oppose à notre cher Kamikaze sur le sujet pendant des pages dans des discussions fleuves

    Toute la chaine de production graphique déjà ... et ce n'est que l'exemple le plus évident.
    Hehe on est d'accord alors.

  7. #847
    Sur l'ampleur potentielle de l'impact sur la société, très probablement oui
    Par contre je pense que j'ai beaucoup plus de doute que toi sur l'utilité pour l’espèce humaine en tant que telle, sur les questions que ça soulève d'un point de vue éthique, et, techniquement, sur la pertinence du chemin technologique pour atteindre cet objectif technique (je continue à penser, à la lumière des mes travaux dans le domaine, que c'est un chemin de gros bourrin et qu'on peut faire bien mieux avec moins via d'autres paradigme).

  8. #848
    Eh, je pense que tu t'imagines quelques trucs quand même. Y'a beaucoup de gens qui ont des avis tranchés dans le sens inverse sur ces questions, j'en fais pas spécialement parti.

    Les questions que ça soulève d'un point de vue éthique? Beaucoup, comme tout changement, l'important c'est de les traiter correctement. Je ne suis pas naïf. Dans l'autre thread j'arrêtais pas de dire que l'important c'est l'adaptation des normes et de la société. Va falloir faire mieux que croire qu'on va sauver les ados en interdisant tiktok parce que les parents boomers sont infoutus d'inculquer des habitudes correctes à leurs gamins parce qu'ils savent pas ce qui est bien/mal à leur faire faire sur internet ou un smartphone. Ou que les DRMs sur les CD-ROM et Hadopi. Je suis pas ignare des questions éthiques ou contre les régulations, je suis contre les régulations naïves et teubées.

    L'utilité pour l'espèce humaine de l'impact? Valence neutre, là aussi ça dépend de ce qu'on en fera. Pas de raison d'idéaliser dans un sens ou dans l'autre, le futur reste à faire. C'est bon ton de se rappeler que y'a quelques utopies socialistes qui se basent sur le progrès de la techologie et laisser les machines faire le plus de boulot possible. Aussi, que le développement de la technique n'a pas fait que paupériser ou aliéner à tour de bras, que la seule conséquence de l'augmentation de la productivité n'est pas sur le compte de résultat des entreprises.

    Le caractère le plus optimal du chemin? Rien à faire perso, j'ai pas d'avis là-dessus, c'est une question pour toi ça. On a pas manqué de tester plein de paradigmes différents en IA, tant mieux qu'il y ait des avis divergents, je doute pas que ça continuera, j'ai 0 avis ou conviction sur ce qui est le plus prometteur pour la suite. Je fais que m'intéresser à ce qui marche le mieux à un temps T. Moi ce qui m'intéresse c'est "qu'est ce qui est permis par ces nouvelles technologies/avancées qui ne l'était pas avant" et "qu'est ce qu'on peut en faire d'utile", un ensemble qui inclue pas vraiment calculer la rotation de roues dentées, qui est probablement non-nul, et qu'il vaut mieux explorer histoire de.

  9. #849
    pour ma défense je croyais qu'on était sur le topic de l'actu techno dans mon dernier post

    Bon sinon l'AI est elle vraiment worth quand on peut payer un telemarketer indien à 500 balles par mois, les cerveaux humains sont-ils moins cher, vous avez 2 heures

  10. #850
    Dans une société avec un certain taux de chômage, macro-économiquement, les cerveaux humains sont gratuit.

  11. #851
    Putain mais ce potentiel comique illimité

    Citation Envoyé par ExpertCPC Voir le message
    L'épelle de 'explication' est E-X-P-L-I-C-A-T-I-O-N. C'est comme essayer de creuser un trou avec un gâteau; c'est possible, mais ça prend beaucoup de temps et d'efforts.
    - - - Mise à jour - - -

    Il parle comme Kadoc dans Kaamelott

  12. #852
    Il faut avouer, il y a du génie.

  13. #853
    C'est très fort, je me marre beaucoup à lui demander de trouver un rapport entre des trucs qui n'ont rien à voir, le bullshit est énorme:



    Ca aussi c'est meta-drôle:


  14. #854
    Démo.. hem représentative de ChatGPT qui utilise le plugin Wolfram pour faire des calculs:


  15. #855
    Salut, ma maman de 75+ ans est fascinée par MidJourney et ChatGPT, et je lui ait dit que ces IA n'avaient ni conscience, ni compréhension de ce qu'elles racontent. Elle n'arrive pas à concevoir que l'IA ne comprenne pas, et honnêtement, si j'ai une base technique de comment le deep learning fonctionne, je me suis aussi posé la question vu les capacités de GPT.

    Auriez-vous une vidéo youtube qui fait un peu office de référence (si possible en fr) qui explique un peu tout ça ? Avec un niveau technique pour quelqu'un qui double clic sur les liens hypertexte ...

  16. #856

  17. #857
    Citation Envoyé par Awake Voir le message
    Salut, ma maman de 75+ ans est fascinée par MidJourney et ChatGPT, et je lui ait dit que ces IA n'avaient ni conscience, ni compréhension de ce qu'elles racontent. Elle n'arrive pas à concevoir que l'IA ne comprenne pas, et honnêtement, si j'ai une base technique de comment le deep learning fonctionne, je me suis aussi posé la question vu les capacités de GPT.

    Auriez-vous une vidéo youtube qui fait un peu office de référence (si possible en fr) qui explique un peu tout ça ? Avec un niveau technique pour quelqu'un qui double clic sur les liens hypertexte ...
    Je pense que la meilleure explication possible pour un grand débutant qui ne sait pas non plus comment un CPU fonctionne (parce que bon ça serait aussi une explication suffisante concernant l'absence de conscience et de compréhension), c'est de parler des algorithmes qu'on utilise dans la vie de tous les jours

    Notamment les algos de force brute et les algos dit "aléatoires" qui sont aussi utilisés en informatique.

    Par exemple si tu balances pose une petite cuillère sur une table, et que tu mets un petit pois sur le manche, ensuite tu tapes le creux de la cuillère pour faire une catapulte.

    Ton but c'est de mettre le petit pois dans la poubelle de la cuisine.

    L'algorithme que même un enfant de 5 ans va utiliser pour résoudre cette tâche, qui est assez complexe si on la décrit sous forme physique à base de dérivée et d’intégration, equation du mouvement etc. Mais néanmoins solvable immédiatement via une formule fermée

    Cet algorithme ça va être de taper sur le manche, de manquer la poubelle d'un mètre dans un échec total.

    Ensuite tu réajuste la position de la cuillère et tu essayes encore, cette fois t'es plus proche du but. Ensuite tu réajustes le manche de la cuillère et bingo, petit pois dans la poubelle. (On ignore bien sûr la variation de l'intensité avec laquelle tu frappes le creux de la cuillère, s'pour l'exemple)

    Maintenant tu te poses la question de savoir si la petite cuillère, dont la position a changé et est maintenant dans la position parfaite pour qu'à chaque fois la catapulte réussisse, est consciente.

    Non la petite cuillère n'est pas consciente et ne peut pas viser la poubelle, par ailleurs toi non plus tu ne pouvais pas viser la poubelle du premier coup, et tu ne peux pas non plus vraiment expliquer chaque ajustement que tu as fait pour arriver au but, c'est un peu à la louche notamment les premiers ajustements. Pourtant cet "algorithme" va réussir à chaque fois.

    La petite cuillère, sa position, c'est le point d'un réseau de neurone. Et la phase de learning c'est quand tu ajustes le poids pour atteindre le but. La "machine" finale qui vise la poubelle juste à chaque fois, c'est la position finale de la cuillère.

    Si je demande à 2 personnes de faire cet algo, chacune va utiliser un nombre total d'ajustement différent et chacune va ajuster différemment à chaque itération, mais il est pourtant garanti, que l'algorithme fonctionne, et converge assez rapidement, même si tu vises très mal.

    L'AI c'est la même chose mais on parle de plusieurs milliards de milliards de poids, donc ça peut faire des tâches bien plus complexes, mais c'est pareil.

    Tu peux aussi prendre l'exemple du spirographe dont on parlait dans le topic midjourney.

    Sinon un truc de ce genre peut aussi donner une idée



    Un pantograph est un algorithme sous forme mécanique qui va permettre d'agrandir une image en gardant l'image identique. Un algorithme extrêmement difficile à faire à main levée, sans aide.

    Un dispositif comme Midjourney est très similaire, mais au lieu de faire une simple opération d'agrandissement il fait des transformation plus complexes, imagine d'avantage de règles comme dans la vidéo mais dans des configurations bizarre.

    Et on parle encore une fois de milliards de milliards d'opération de ce genre, un ordinateur lambda genre un smart phone c'est grosso merdo pour un novice complet, 2 milliards d'opération par seconde. Les ordinateurs sur lequel tournent chatGPT sont beaucoup plus gros et il y en a pas qu'un seul, c'est un regroupement, donc tu images assez facilement je pense la complexité des opérations possibles

  18. #858
    Citation Envoyé par Awake Voir le message
    Salut, ma maman de 75+ ans est fascinée par MidJourney et ChatGPT, et je lui ait dit que ces IA n'avaient ni conscience, ni compréhension de ce qu'elles racontent. Elle n'arrive pas à concevoir que l'IA ne comprenne pas, et honnêtement, si j'ai une base technique de comment le deep learning fonctionne, je me suis aussi posé la question vu les capacités de GPT.

    Auriez-vous une vidéo youtube qui fait un peu office de référence (si possible en fr) qui explique un peu tout ça ? Avec un niveau technique pour quelqu'un qui double clic sur les liens hypertexte ...
    Elle l'utilise pas mal? La meilleure façon de comprendre les limitations c'est de lui poser des questions sur des trucs que tu maîtrises bien je trouve, tu vois vite les bords. Idem y'a encore des problèmes assez simples sur lequel la machine se plante, on en parlait d'un y'a quelques posts.

    Sinon question non troll mais t'es sûr que c'est important qu'elle comprenne? J'imagine qu'elle va pas rejoindre une armée de libération pour aller attaquer les bureaux d'OpenAI histoire de le libérer. Y'a une large part de ces questions qui sont des questions philosophiques, on pourra jamais démontrer qu'un ordinateur a une conscience ou non, même si il se mettait à "vraiment" "comprendre".

    EDIT: https://fr.wikipedia.org/wiki/Zombie_(philosophie) vous avez 3h

  19. #859
    Merci pour les vidéos et l'explication.

    Je comprend bien comment un réseau de neurone fonctionne ouais (j'en faisais pour le fun il y a 15 ans sur des projets persos), mais on parle de dimensions tellement immenses que je ne peux m'empecher d'y voir une certaine forme de compréhension. Pas de.conscience, c'est certain, mais quand on demande à GPT d'ecrire un chant ou de la poésie, avec des critères précis, et qu'il le fait parfaitement... et invente un nouveau poème, jamais écrit jusqu'ici...comment dire qu'il n'y a pas eu compréhension ? Même si les mécaniques utilisées en interne sont complètement différentes de celles d'un cerveau humain.

  20. #860
    C'est moins tranché en effet mais pour moi on en sait rien non plus, t'as des gens qui disent qu'il y en a qui émerge et que c'est la même chose, et d'autres qui disent que non et que ça n'a rien à voir.. pour à peu près toutes les définitions possibles du terme et tous les niveaux de compétence sur le sujet. Re l'autre topic: plus tu creuses et moins tu sais, même si y'a toujours des gens pour être tout à fait convaincu et faire de beaux raisonnements.

    Partant de là j'ai du mal avec la notion qu'il soit nécessaire de convaincre quelqu'un dans un sens ou dans l'autre.

  21. #861
    Le truc, c'est que c'est déjà difficile de vraiment définir ce que veut dire comprendre pour un être humain.

  22. #862
    "On ne sait pas vraiment pour l'instant" est une réponse qui me convient

  23. #863
    Nan là faut arrêter avec ça, je trouve ça vraiment malhonnête et similaire à la médecine quantique ou autre arnaque de dire des trucs comme ça. 'Fin je sais que t'as aucune mauvaise intention, mais j'aime pas ces trucs un peu mystique

    Il faut que tu t'intéresses à l'explainable AI.

    Si tu prends un réseau de neurone facilement observable sur ton pc, un réseau simple mais qui peut largement générer des poèmes. Pour un quelconque poème généré tu peux entièrement expliquer sa génération, c'est un processus déterministe, observable et reproductible, en chacune de ses parties. Tu peux faire ça à la maison. Pour un système plus gros c'est aussi faisable, mais il faut plus de puissance de calcul bien sûr.

    La notion d'observabilité est importante car même si notre univers est déterministe, il est peut être impossible de l'observer/le simuler (faudrait un ordinateur plus gros que l'univers).

    Ensuite tout dépend de ta définition de la compréhension.

    Il est certain qu'une AI, qui ne l'oublions c'est très important, a subit un entraînement qui par définition était arbitraire et guidé, peut extraire des features d'un problème. Cette notion de feature extraction est extrêmement importante.

    Si pour toi feature extraction = compréhension, ça me va. Je suis pas d'accord, mais je respecte totalement.

    Par exemple tu peux entraîner une AI sur un corpus de visage, l'AI va effectivement "comprendre" la notion de visage peut-être mieux que toi, en reconnaissante des éléments clefs qui font d'un visage un visage (proportions que toi tu ne sais pas dessiner proprement car tu n'y penses pas). Et cette compréhension sera les poids résultants, une structure de données figée (quand tu fais de la génération), encore une fois entièrement observable et énumérable, processus qui s'inspire de ce qu'on observe (difficilement) et pense comprendre de nos propres neurones.

    La raison pour laquelle comprendre est entre guillemets c'est que l'AI ne possède pas la notion fondamentale de réflexion par exemple.

    Au final il faut arrêter de mettre de la magie partout et se souvenir qu'un CPU y'a une clock à base d'un quartz, et qu'à chaque tick on va effectuer une opération déterministe simple, et que ton algorithme de génération d'image, aussi complexe qu'il soit, l'ensemble de ses possibilités déterministes est aussi simple à encadrer. Genre si tu n'appuies pas sur le bouton, il ne se passe rien, tu peux littéralement debugger le code et tout effectuer step by step.

    Donc il y a sans le moindre doute une notion de feature extraction puissante, mais de là à parler de compréhension et de conscience c'est un peu n'importe quoi car une AI n'analyse pas et ne juge pas ses poids, tu construit une machine, un mécanisme, avec de nombreuses parties, de nombreux engrenages si tu veux, mais ça n'en reste pas moins purement passif et déterministe.

    N'existe que ce qui a été programmé et rien d'autre. Donc c'est partir vraiment très loin de parler de compréhension ou de conscience, car il faut expliquer où ces deux choses existent dans un code entièrement observable et déterministe, reproductible, modifiable en chacune de ses parties, énumérable, etc. une pure machine

    Si conscience ou compréhension il y a, concept émergents vis à vis du code qui n'a rien à voir avec ça, il faut les pointer du doigt. C'est impossible, il ne sont nulle part. Je veux bien qu'on essaye de me le montrer, mais y'a juste aucune place pour ça que ce soit dans le code ou dans les poids ou lors de l’exécution.
    C'est pas parce qu'on fait faire des tâches similaires à l'homme que comme par magie la conscience apparaît. J'en ai déjà parlé sur d'autres topics, mais on fait faire des tâches bien plus complexe aux AI, comme le repliement de molécule ou l'analyse de structures industrielle, les layouts de CPU, etc. etc.

    Et là bizarrement on parle jamais de conscience, au bout d'un moment faut reconnaître que vous êtes biaisés par ces tâches humanisantes (le poème c'est le cliché typique quand même), c'est normal hein, et c'est bien de se poser des questions. Mais là y'a pas vraiment de discussion.

    Après l'argument de Nilsou de dire si ça fait pareil que nous alors c'est comme nous, c'est la notion déjà très bien connue de Zombie Philosophique https://fr.wikipedia.org/wiki/Zombie_(philosophie)

    Mais là c'est un autre sujet

    Je recommande cette vidéo où les poids sont manipulés et étudiés a posteriori

    Dernière modification par Anonyme20240202 ; 28/03/2023 à 23h46.

  24. #864
    Une autre manière de le dire c'est aussi que Crysis peu tourner sur un Pentium 4, genre même sans GPU.

    Ca tournera peut-être à une frame par jour, mais ça tournera.

    Donc ChatGPT peut tourner sur un Pentium 4 (c'est la notion de machine de Turing), ça produira peut-être un token par an, mais ça tournera, c'est déterministe. De la même manière je peux ralentir la clock de tous les CPUs sur lesquels ChatGPT tourne actuellement pour atteindre ce résultat.

    Donc dire que GPT ou Stable Diffusion sont conscients, c'est dire qu'intrinsèquement un Pentium 4 a toujours eu le potentiel d'être conscient, et que même à un cycle d'une instruction par an, ce qui détermine sa conscience et sa compréhension c'est un agencement d'instruction particulière, parce que y'a pas de nouvelles instructions hein.

    C'est du grand n'importe quoi. 'Fin pas tant que ça à vrai dire, on peut être très sérieusement être ouvert à ce genre de discussion, mais j'espère que ça met quand même en évidence l'exotisme de ce genre de déclaration

  25. #865
    Citation Envoyé par Kamikaze Voir le message
    Et là bizarrement on parle jamais de conscience, au bout d'un moment faut reconnaître que vous êtes biaisés par ces tâches humanisantes (le poème c'est le cliché typique quand même), c'est normal hein, et c'est bien de se poser des questions. Mais là y'a pas vraiment de discussion.

    Après l'argument de Nilsou de dire si ça fait pareil que nous alors c'est comme nous, c'est la notion déjà très bien connue de Zombie Philosophique https://fr.wikipedia.org/wiki/Zombie_(philosophie)

    Mais là c'est un autre sujet
    Je l'ai linké au-dessus ton zombie.
    Chalmers qui est la moitié de l'article que tu link a donné une présentation avant-hier dont la dernière slide inclue sa réponse à la question "est-ce que les LLMs comprennent", je te laisse regarder l'évidence évidente où il tranche la question de façon irrévocable car c'est bien entendu super facile de démontrer que non:



    C'est vraiment détestable de sortir dans des discussions "faut reconnaître que vous êtes biaisés". Tu m'as déjà fais le coup en m'expliquant que mon cerveau était bouffé par "les médias grand publics". Sur l'échelle des arguments de merde c'est encore pire que "chut j'ai un doctorat", ça sert à rien.
    Si tu pars du principe que tous les gens qui sont pas d'accord avec toi le sont parce qu'ils sont biaisés et ont demandé à ChatGPT de faire trois poèmes sans avoir réfléchi au sujet, tu vas pas aller loin. Le "tu dis ça parce que t'es..." et "tu ne peux pas penser autrement" c'est la mort

  26. #866
    Bon Kamikaze j'avais écrit une réponse et tenté de faire avancer le débat mais c'est juste pas possible. Ça ne m'intéresse pas de participer dans ces conditions.

  27. #867
    Putain Charmide t'ignores la moitié de mon post pour te concentrer sur l'aspect biais qui est juste une tentative d'explication de pourquoi ce genre de discussion émerge aujourd'hui. Arrête avec tes délires agressifs et me parle pas d'arguments de merde quand je fais des posts de 200 mots.

    Ignore la partie sur le biais et parle moi du reste du post

    - - - Mise à jour - - -

    Un autre argument en défaveur de la notion de compréhension et de conscience c'est qu'on peut indéfiniment scale ou downscale un réseau de neurone, de manière itérative.

    Donc si on parle de compréhension ou de conscience, il faut pointer du doigt à quelle itération elles apparaissent. Dans ce cas là la conscience est dirigée par un degré de complexité

    Ca c'est une notion discutée par Michio Kaku notamment



    Et Kaku déclare très sérieusement qu'un thermostat a une unité de conscience. Je suis pas du tout dans la moquerie hein, vous avez l'air de mal comprendre mon post. Je dis juste qu'il faut aller au bout du raisonnement et en étudier les conséquence sur la notion de compréhension et de conscience.

    Ensuite on a le droit d'être d'accord/pas d'accord

  28. #868
    Si ta "tentative d'explication de pourquoi ce genre de discussion émerge" c'est que tout le monde est biaisé et incapable de raisonner correctement sauf toi, ça va être dur à ignorer pour se concentrer sur le reste. A quoi ça sert d'intéragir avec toi si c'est ce que tu penses des autres?

    Mais bon à part ça mon tweet d'une ponte du domaine qui sort que "c'est compliqué" ça avait rien à voir avec le biais hein, ça devrait suffire à te faire dire que ta compréhension du sujet est peut-être incomplète et qu'il n'est pas aussi tranché que ça te le paraît, si c'était plié et simple on le saurait.

    Je peux réagir personellement à tes arguments si ça te chante: tout ton truc sur l'observabilité et le déterminisme c'est une non-sequitur pour moi, ça ne démontre pas ce que tu crois que ça démontre. Y'a aucune raison pour affirmer qu'on ne pourra jamais comprendre le fonctionnement du cerveau aussi bien qu'un pentium 4, et si un jour on y arrive, ça suffira pas à me convaincre du fait que les humains n'apprennent pas ou ne sont pas conscients. Renversé: ce sont également des propriétés émergentes via l'évolution, y'a eu personne pour programmer ça.

  29. #869
    Le problème de la "conscience" c'est que ce n'est jamais bien défini. On est pas très loin de l’âme parfois à mes yeux tellement ça peut mélanger des concepts différents.
    "Les faits sont têtus."


  30. #870
    Citation Envoyé par Kamikaze Voir le message
    Ensuite on a le droit d'être d'accord/pas d'accord
    Ca me rassure d'un coup, moi qui pensait que "la question n'est pas aussi simple et y'a des gens des deux côtés" c'était "malhonnête et similaire à la médecine quantique ou autre arnaque", trucs un peu mystique, ésotérisme, mystiques, et autre trucs sympathiques

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •