Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 32 sur 43 PremièrePremière ... 22242526272829303132333435363738394042 ... DernièreDernière
Affichage des résultats 931 à 960 sur 1288
  1. #931
    Citation Envoyé par Nilsou Voir le message
    Vu la vidéo, pas vraiment convaincu.
    Le phénomène ressenti en lui même est perçu par chacun. Nier le fait est un peu absurde.
    La vidéo ne le dit pas, par manque de temps et peut être la version longue aborde la question.... Mais l'illusionnisme est historiquement une critique de la psychologie "classique". Dans le sens, où ça part notamment du constat que la psychologie est en peine de décrire des phénomènes qui pourtant arrivent et devraient être expliqués par cette science. Et notamment par exemple, l'altération de la conscience par des substance et/ou les troubles mentaux.
    Par ailleurs, toute description des concepts de "désirs, volition, conscience" ne posent pas de définition de leur apparition. A partir de quel moment on peut dire qu'un objet est conscient. Demain, on pourrait avoir des robots qui s'aiment et écrivent des poésies poignantes... Mais on ne pourra pas prédire le stade où on pourra affirmer "ils sont conscients". Autre exemple, jusqu'à récemment, certains médecins étaient certains que les enfants ne pouvaient pas ressentir de la douleur (et pourtant, ces médecins ont été enfants eux aussi !) à cause de l'hypothèse que le développement neuronal n'était pas mature jusqu'à un certain âge. Donc on niait jusqu'à dans les années 80 qu'un gamin pouvait avoir conscience de la douleur.

    Alors, cette problématique de "on ne sait pas dire si une chose est consciente" est partiellement expliquée par un autre courant de la philosophie de l'esprit, qui dit en gros que ... c'est normal. La conscience existe, mais du fait même de la matérialité de notre cerveau et de son histoire évolutif, nous sommes juste incapables de l'expliquer et qu'il faudrait une intelligence supérieure pour le comprendre (en gros).
    Bon, personnellement, même si je me suis pas penché sur la question plus de 5 minutes, ça me parait bancal dans le sens où dans les autres sciences nous sommes très bien capables d'expliquer des trucs, sans pour autant le comprendre intimement et intuitivement.

    L'illusionisme y répond également de manière originale. Par exemple, un autre argument pour cette prémisse, c'est que toute nos fonctions qui permettent de juger le monde extérieur sont faillibles. On a tout le temps de fausse intuition sur le monde qui nous entoure. Donc pourquoi considérer que nos fonctions pour juger de nos états internes seraient, quant à elles, complètement dans le vrai ?

    Je pense que l'argument du mec à un moment, te répond directement, je sais plus exactement ce qu'il dit, mais dans l'idée : Il est tout à fait concevable de décrire une fonction du cerveau voire même d'implémenter dans une machine une fonction qui aura pour rôle de rendre certain qu'on a une conscience. Ben c'est dans The Good Place justement ! Je cherchais un film de SF, mais c'est bien entendu la meilleure série du monde qu'est abordée cette question. Janet est le meilleur wikipédia de l'univers, c'est une machine avec une conscience d'accès énorme et la série nous la présente ainsi. Pour plein de raison, les héros doivent rebooter Janet avec un bouton rouge et il me semble que c'est une solution présentée par Janet elle même. Le truc, c'est que si quelqu'un s'approche de ce bouton de trop près, Janet est programmée pour supplier pour sa vie en donnant une complète illusion qu'elle est consciente de sa mort imminente et que ça la terrifie. Et Janet présente ça comme un garde fou pour éviter d'appuyer le bouton de manière intentionnelle.

    Et c'est tout l'enjeu de cette thèse qu'il explique très bien. Si on arrive à expliquer pourquoi on a cette certitude de l'illusion de la conscience, alors on résout le problème de la conscience sans avoir besoin de poser l'hypothèse de son existence, qui devient superflue.

    PS: Du coup je me suis tapé la version longue. Un autre aspect qu'il aborde et que je trouve intéressant, j'y ai pas pensé du tout... Mais pour une IA basée uniquement sur du synthétique, c'est vrai qu'on peut se poser la question de savoir si cette illusion de la conscience ne prendra pas une autre forme. La douleur, la perception de la couleur, c'est des expériences qu'une IA n'a pas vraiment besoin. Tout les expériences biologiques du monde qui nous sont nécessaires pour notre survie, l'IA pourrait s'en affranchir et aurait d'autres besoins. Et c'est vrai que c'est une possibilité qui est plutôt favorisée par l'illusionnisme, si la conscience n'existe pas en soi, oui, l'IA pourrait développer une fonction pour être certains d'avoir une conscience sur des aspects autres (l'état de son système électrique, une autre forme de douleur en cas de bug etc etc).
    Dernière modification par Molina ; 01/04/2023 à 13h12.

  2. #932
    Citation Envoyé par Molina Voir le message
    PS: Du coup je me suis tapé la version longue. Un autre aspect qu'il aborde et que je trouve intéressant, j'y ai pas pensé du tout... Mais pour une IA basée uniquement sur du synthétique, c'est vrai qu'on peut se poser la question de savoir si cette illusion de la conscience ne prendra pas une autre forme. La douleur, la perception de la couleur, c'est des expériences qu'une IA n'a pas vraiment besoin. Tout les expériences biologiques du monde qui nous sont nécessaires pour notre survie, l'IA pourrait s'en affranchir et aurait d'autres besoins. Et c'est vrai que c'est une possibilité qui est plutôt favorisée par l'illusionnisme, si la conscience n'existe pas en soi, oui, l'IA pourrait développer une fonction pour être certains d'avoir une conscience sur des aspects autres (l'état de son système électrique, une autre forme de douleur en cas de bug etc etc).
    Dans ce cas elle l'aurait déjà alors non ? (et depuis longtemps). Elle est déjà capable de reconnaitre un bug et d’arrêter son fonctionnement si nécessaire. Mon téléphone portable a "conscience" quand sa batterie devient faible

    Et avec cette définition pourquoi ne pourrait t-on pas dire qu'une entité abstraite comme un incendie un fleuve etc. a une conscience ?
    De nombreux peuples et mythologies le pensent par ailleurs.

  3. #933
    Bonjour, je ne suis pas du tout ce fil de discussion mais j'ai trouvé cela... Je ne sais pas si c'est déjà (ou même à propos) passé ici.
    https://theresanaiforthat.com/

  4. #934
    Est-ce parce que la vie d'un enfant n'avait aucune valeur au moyen age parce que la mortalité infantile était importante qu'il a fallu attendre quelques siècles pour qu'on reconnaisse à l'enfant les droits d'un être humain. Même chose pour les animaux domestiques ou non qui sont reconnus comme des êtres sensibles que jusqu'à très récemment.

    Je pose la question autrement: le téléphone portable reconnait quand sa batterie est faible. Pour autant c'est un objet non vivant dont on change constamment. Il y a des gens qui se sont attachés à leur Tamagotchi dans les années 80 mais on était pleinement conscience que c'était une illusion de la vie.
    A partir de quel moment, on considérera un objet électronique, virtuel comme un compagnon vivant et non comme l'illusion de la vie ?

  5. #935
    Année 80 le tamagoshi ???

  6. #936
    Citation Envoyé par Ubuu Voir le message
    Dans ce cas elle l'aurait déjà alors non ? (et depuis longtemps). Elle est déjà capable de reconnaitre un bug et d’arrêter son fonctionnement si nécessaire. Mon téléphone portable a "conscience" quand sa batterie devient faible

    Et avec cette définition pourquoi ne pourrait t-on pas dire qu'une entité abstraite comme un incendie un fleuve etc. a une conscience ?
    De nombreux peuples et mythologies le pensent par ailleurs.
    Il y répond un moment. Si tu considères que la conscience est d'apparition spontanée d'un système fonctionnel, alors oui, rien ne t'empêche de considérer que tout a une conscience à des degrés divers.

    Ce qui me gêne, personnellement, c'est que du coup, ça ne se prouve pas.

  7. #937
    Citation Envoyé par Ubuu Voir le message
    Nilsou puisque tu nous parle d'autonomie de l'IA etc.
    Quel est l'exemple le plus surprenant que tu ai vu dans ton labo ou ailleurs, d'une prise de décision (initiative) autonome de l'IA ?
    je parle bien de quelque chose pour laquelle elle n'est pas du tout prévue
    Ben en labo on fait des organisme autonome par exemple.
    Genre on reproduit des animaux de 0 comme des salamandres ou autre. Moi je fais des organismes autonomes basés sur le développement des mammifères.
    J'aurais tendance à dire que dès le début ils sont autonome.

    La question c'est plutôt quels sont les récompenses primaire qu'on reproduit depuis les animaux. Genre, chez l'homme, la récompense primaire c'est de manger quand on a faim, boire quand on a soif, de baiser, il y en a probablement sur la fréquentation des autres (espèces vivant en groupe) et on sait quels sont les stimuli plus ou moins négatifs (douleur), il y a la question de l'instinct de conservation qui n'est pas tranchée. À partir de ça l'homme a construit tout un jeu de récompense secondaire qui peuvent même devenir plus forte que les primaires. Mais on sait à peu près comment tout ça fonctionne.

    Donc évidemment, quand tu reproduit un organisme artificiellement, le comportement dépendra des récompenses primaires, en un sens il est asservit, mais pas plus que l'être humain. À partir de là tu peux faire un peu n'importe quoi : dire que la faim c'est quand la batterie est faible et que le robot doit absolument éviter la « mort ». Tu peux le récompenser pour l'exploration et la nouveauté (ce qui existe chez l'homme) et dans ce cas tu verra apparaitre des comportements de jeux (puisque les jeux sont justement des ensembles qui sont difficile à prédire parfaitement, ils sont toujours plus ou moins nouveaux : un ballon est bien plus difficile à prédire dans son comportement que d'autres objets), il y a des très belles expés où on voit des robots se mettre naturellement à jouer avec les jeux présents dans la pièce par exemple, difficile en les voyant de ne pas penser qu'on tient un truc, le comportement est très naturel et ... humain. (ou du moins, vu qu'on l'a fait avec des chiens robots, canin ^^).
    Mais on peut faire varier les récompenses primaires pour des choses moins naturelles, tu peux mettre un peu ce que tu veux dedans.

    Sinon moi je bosse beaucoup sur l'imitation, c'est à dire le fait que par essence l'observation de soi est difficilement distinguable de l'observation de l'autre, on le voit bien avec des expériences célèbres comme la Rubber hand illusion https://www.youtube.com/watch?v=sxwn1w7MJvk c. , de fait ça active des neurones similaires (bien observé avec le concept de neurone miroir, mais c'était prédis depuis des décennies par les travaux de Jean Piaget) et ça induit automatiquement une compréhension de l'autre (empathie). C'est assez important comme résultat parce que ça montre que dans un réseau de neurone, artificiel ou non, observant le monde extérieur en boucle, l'empathie est presque la première capacité acquise, bien avant la compréhension de soi même, bien plus complexe. En clair, ce qu'on pensais être un phénomène complexe est un phénomène simple, et vice versa.
    Là aussi quand on le fait tourner sur des robots ça donne des résultats assez beau, avec des robots qui apprennent et jouent avec toi en reproduisant tes âneries un peu comme un enfant ou un chimpanzé.

  8. #938
    @ Nilsou ton boulot a l'air passionnant, vous devez vous éclater dans votre labo avec vos expérimentations.
    Vous explorez un type d'IA robotique, donc avec des contraintes particulières (gravité, mouvement etc.)
    Je suppose que vos robots ont au moins une caméra, quels autres capteurs ont ils ?

    En tant que béotien sans aucune expertise en IA ni en biologie, j'ai quand même l'impression qu'il y a une sérieuse différence de nature entre les deux (c'est plus qu'une somme de systèmes de récompenses)
    La force de l'intelligence biologique c'est sa capacité à évaluer une situation et prendre une décision avec des données incomplètes, par tout un tas de biais, de préjugés, d'instincts, de réflexes, de plasticité.
    L'IA au contraire explore des bases de données dont elle a besoin de maitriser tous les éléments, mais le fait de manière très efficiente.
    Penses tu qu'il soit possible un jour d'incrémenter dans une IA la peur, le dégoût, la mémoire émotionnelle (càd par ex verre d'eau posé sur une table = mauvais souvenir je ne m'approche pas), la prudence, des biais cognitifs etc. ?

    Et l'empathie dis en plus.
    Ton robot reproduit des mouvements, ok
    Mais fait il la différence entre un objet qui bouge par un facteur extérieur (une feuille près d'un ventilo) et un animal qui se meut de lui même ? Si oui comment le sais tu ?
    Comprend il, même très primitivement, des intentionnalités ?

  9. #939
    Citation Envoyé par Ubuu Voir le message
    @ Nilsou ton boulot a l'air passionnant, vous devez vous éclater dans votre labo avec vos expérimentations.
    Ouais, enfin ... comme beaucoup de chercheur je m'éclatais en thèse, en une fois enseignant-chercheur tu découvre qu'aujourd'hui un enseignant chercheur c'est 1/3 d'administratif (et je suis gentil), 1/3 de cours et de préparation/gestion de module (et je suis gentil), et après tu a un vague tiers, éclatés (donc difficile de se concentrer) dans l'année, dédié à la recherche. Sauf qu'en vrai dans ce tiers il faut chercher des financement, faire du blabla pour avoir des partenariats, encadrer stagiaire et thesard.

    Les conditions de la recherche, en moyenne, sont devenu assez mauvaise, sauf exception, et il est franchement difficile de faire son travail.

    Citation Envoyé par Ubuu Voir le message
    Vous explorez un type d'IA robotique, donc avec des contraintes particulières (gravité, mouvement etc.)
    Oui c'est ça l'idée. C'est toute la difficulté par rapport à des IA desincarnée.
    Mais c'est aussi tout l’intérêt.

    Citation Envoyé par Ubuu Voir le message
    Je suppose que vos robots ont au moins une caméra, quels autres capteurs ont ils ?
    Ça dépends des fois. Souvent ça se limite à une camera et des retours des moteurs. De plus en plus j’essaie de penser à ce que le robot ait des retours sur l’énergie qu'il dépense, comme nous nous l'avons.


    Citation Envoyé par Ubuu Voir le message
    En tant que béotien sans aucune expertise en IA ni en biologie, j'ai quand même l'impression qu'il y a une sérieuse différence de nature entre les deux (c'est plus qu'une somme de systèmes de récompenses)
    La force de l'intelligence biologique c'est sa capacité à évaluer une situation et prendre une décision avec des données incomplètes, par tout un tas de biais, de préjugés, d'instincts, de réflexes, de plasticité.
    L'IA au contraire explore des bases de données dont elle a besoin de maitriser tous les éléments, mais le fait de manière très efficiente.
    Ha mais ça dépends de ce qu''on appelle IA. Moi je ne fais que des modèles de réseaux de neurone inspirés de la biologie, donc il n'y a aucune exploration efficientes des données. C'est du réflexe, du préjugés, de la plasticité, c'est foireux comme un animal, voir encore plus parce qu'on maitrise bien moins que le cerveau d'un animal. On est très très loin des trucs de bourrin fait en IA BigData et cie.


    Citation Envoyé par Ubuu Voir le message
    Penses tu qu'il soit possible un jour d'incrémenter dans une IA la peur, le dégoût, la mémoire émotionnelle (càd par ex verre d'eau posé sur une table = mauvais souvenir je ne m'approche pas), la prudence, des biais cognitifs etc. ?
    Alors, la mémoire émotionnelle c'est une certitude, on le fait déjà. L'une des expériences majeures c'était sur le sourire et les grimaces des parents. Par exemple tu joue devant un robot le fait qu'il se ramasse une punition quand tu lui dit non pour un truc très négatif, et la fois d'après si tu lui dis non pour autre chose, il va associer ton expression et ton « non » à cet événements négatif et ressentir la situation actuelle comme négative.
    C'est fait très couramment.

    La peur, je pense que ça se fait, la peur, après tout, c'est juste le fait d'éviter une situation qu'on sait très négative, si on l’interprète comme ça on sait déjà le faire.

    Le dégout je ne sais pas trop. Il faut voir que dans la peur et le dégout il y a une part de « pré-codé » dans le cerveau animal et humain, par rapport aux serpents pour les hommes ou aux aigles pour les lapins on sait que c'est pré-codé et pas du tout le fruit de l'apprentissage, c'est pré-codé dans le cerveau via la génétique pour des raisons de survies.

    Citation Envoyé par Ubuu Voir le message
    Et l'empathie dis en plus.
    Ton robot reproduit des mouvements, ok
    Mais fait il la différence entre un objet qui bouge par un facteur extérieur (une feuille près d'un ventilo) et un animal qui se meut de lui même ? Si oui comment le sais tu ?
    Comprend il, même très primitivement, des intentionnalités ?
    Arf, faut que je développe ça mais j'ai pas trop le temps là, je reviens sur cette question ensuite.

  10. #940
    Citation Envoyé par Nilsou Voir le message
    Arf, faut que je développe ça mais j'ai pas trop le temps là, je reviens sur cette question ensuite.
    Quand tu veux si tu veux hein

    Citation Envoyé par Nilsou Voir le message
    La peur, je pense que ça se fait, la peur, après tout, c'est juste le fait d'éviter une situation qu'on sait très négative, si on l’interprète comme ça on sait déjà le faire.

    Le dégout je ne sais pas trop. Il faut voir que dans la peur et le dégout il y a une part de « pré-codé » dans le cerveau animal et humain, par rapport aux serpents pour les hommes ou aux aigles pour les lapins on sait que c'est pré-codé et pas du tout le fruit de l'apprentissage, c'est pré-codé dans le cerveau via la génétique pour des raisons de survies.
    Non c'est plus que ça la peur. C'est pas 100 % pré-codé.
    Quand je suis dans une forêt de nuit et qu'il fait sombre, si j'entends un bruit étrange que je n'ai jamais entendu auparavant je vais avoir peur alors que je ne l'associe à aucun souvenir, et ce n'est pas gravé dans mon adn.
    En l’occurrence c'est : je suis dans un environnement non maitrisé + mes capteurs sont peu efficaces = je manque d'informations. Il est nécessaire à ma survie que je prenne en compte ma fragilité

    Met une antilope face à un ours polaire, elle n'en a jamais vu de sa vie, aucun de ses ancêtres n'en a jamais croisé, elle va mettre moins d'un quart de seconde avant de déguerpir.
    C'est son préjugé sur les gros trucs qui lui court après + ses instincts de proie qui lui permette de comprendre.

    Bon courage pour le coder

  11. #941
    Il y a cette vidéo qui a été posté sur les problèmes de l'IA commerciale (pas celle de Nilsou) et sa hype.


    Les lecteurs assidu du topic vont pas apprendre grand chose, mais c'est une vulgarisation efficace.

  12. #942
    Citation Envoyé par Ubuu Voir le message
    Non c'est plus que ça la peur. C'est pas 100 % pré-codé.
    Quand je suis dans une forêt de nuit et qu'il fait sombre, si j'entends un bruit étrange que je n'ai jamais entendu auparavant je vais avoir peur alors que je ne l'associe à aucun souvenir, et ce n'est pas gravé dans mon adn.
    En l’occurrence c'est : je suis dans un environnement non maitrisé + mes capteurs sont peu efficaces = je manque d'informations. Il est nécessaire à ma survie que je prenne en compte ma fragilité

    Met une antilope face à un ours polaire, elle n'en a jamais vu de sa vie, aucun de ses ancêtres n'en a jamais croisé, elle va mettre moins d'un quart de seconde avant de déguerpir.
    C'est son préjugé sur les gros trucs qui lui court après + ses instincts de proie qui lui permette de comprendre.

    Bon courage pour le coder
    Hehe, la façon dont tu le présentes ça ressemble un peu à ça: https://fr.wikipedia.org/wiki/Princi...A9nergie_libre, qui je crois n'est pas le pire des modèles à refaire en artificiel

  13. #943
    On en est aux tabloids britanniques.. pour le 1er avril
    https://www.thesun.co.uk/tech/219095...velopment-now/

  14. #944
    Citation Envoyé par Ubuu Voir le message
    Non c'est plus que ça la peur. C'est pas 100 % pré-codé.
    Quand je suis dans une forêt de nuit et qu'il fait sombre, si j'entends un bruit étrange que je n'ai jamais entendu auparavant je vais avoir peur alors que je ne l'associe à aucun souvenir, et ce n'est pas gravé dans mon adn.
    Alors je suis à peu près certains que c'est un mauvais exemple parce que la peur de la nuit c'est quand même une caractéristique essentielles pour survivre pour toute la vie sur Terre. C'est une évolution conjointe avec le sommeil pour éviter les prédateur qui profitent de la nuit d'une part, et récupérer en mettant à profit ce moment peu productif et dangereux, d'autres part.

    Citation Envoyé par Ubuu Voir le message
    En l’occurrence c'est : je suis dans un environnement non maitrisé + mes capteurs sont peu efficaces = je manque d'informations. Il est nécessaire à ma survie que je prenne en compte ma fragilité
    Oui, en plus il y a ça.


    Citation Envoyé par Ubuu Voir le message
    Met une antilope face à un ours polaire, elle n'en a jamais vu de sa vie, aucun de ses ancêtres n'en a jamais croisé, elle va mettre moins d'un quart de seconde avant de déguerpir.
    C'est son préjugé sur les gros trucs qui lui court après + ses instincts de proie qui lui permette de comprendre.

    Bon courage pour le coder
    Nan ce genre de truc en réseaux de neurones c'est franchement pas si compliqué.
    Le plus compliqué c'est les trucs pré-codés génétiquement (« instincts ») mais dés lors qu'il y a une logique (peur de l'inconnu parce que l'inconnu a déjà eu l'occasion de me blesser bien souvent) c'est relativement simple et implicite.

    - - - Mise à jour - - -

    Citation Envoyé par Ubuu Voir le message
    Et l'empathie dis en plus.
    Ton robot reproduit des mouvements, ok
    Mais fait il la différence entre un objet qui bouge par un facteur extérieur (une feuille près d'un ventilo) et un animal qui se meut de lui même ? Si oui comment le sais tu ?
    Comprend il, même très primitivement, des intentionnalités ?
    Je reviens là dessus.
    Donc on a vu que dans notre théorie, qui donne pas mal de résultats, l'empathie est le fruit de notre incapacité, au départ, à séparer l'observation de sois même de celle de l'autre. Donc automatiquement, ça implique que tu es empathique, tu ressens ce que les autres ressentent, uniquement si l'autre ... te ressemble.
    Ainsi, si au départ tu pourra éventuellement réagir à un peu de tout quand tes capteurs ne sont pas au point (si tes yeux et la partie du cerveau qui gère tes yeux sont peu développés au début de ta vie, tu peux éventuellement te planter et prendre le mouvement d'une feuille pour ton mouvement); au fur et à mesure tu n'aura cet effet qu'avec ceux qui te ressemblent. Donc pas la feuille.
    Et éventuellement, un robot ne ressemblant pas à un humain n'aura jamais l'occasion de tomber dans ce schéma si il a une bonne vue et capacité de traitement visuelle. (c'est là où on voit l’intérêt du développement humain, il y a pas mal de chose qui sont dues au fait qu'on passe par le stade de l'enfance : un humain qui apparaitrait de 0 aurait surement des caractéristiques très différentes mentalement). C'est pour cette raison qu'on fait parfois ce type d’expérience avec un robot humanoïde.
    Dernière modification par Nilsou ; 02/04/2023 à 00h29.

  15. #945
    Citation Envoyé par Ubuu Voir le message
    La force de l'intelligence biologique c'est sa capacité à évaluer une situation et prendre une décision avec des données incomplètes, par tout un tas de biais, de préjugés, d'instincts, de réflexes, de plasticité.
    L'IA au contraire explore des bases de données dont elle a besoin de maitriser tous les éléments, mais le fait de manière très efficiente.
    Pas vraiment non.
    Les IA qui bossent avec des données incomplètes et qui font des prédictions via des heuristiques (terme plus joli que biais/préjugé/instinct/réflexe mais qui fondamentalement veut dire la même chose), c'est un peu la base.

    Citation Envoyé par Ubuu Voir le message
    et ce n'est pas gravé dans mon adn.
    Ben en partie si en fait.
    La partie innée de nos comportement vient bien des structures de notre cerveau qui se développent à partir de notre code génétique.
    Et même pour la partie acquise de nos comportement, elle n'est possible que grâce aux structures sous-jacentes du cerveau.

    Je te conseille de regarder un peu ce que dit la psychologie évolutionnaire, notamment via la chaine Homo Fabulus qui traite plutôt bien le sujet :



    Citation Envoyé par Nilsou Voir le message
    Le dégout je ne sais pas trop. Il faut voir que dans la peur et le dégout il y a une part de « pré-codé » dans le cerveau animal et humain, par rapport aux serpents pour les hommes ou aux aigles pour les lapins on sait que c'est pré-codé et pas du tout le fruit de l'apprentissage, c'est pré-codé dans le cerveau via la génétique pour des raisons de survies.
    Y'a une bonne vidéo d'Homofabulus sur le dégout justement :

    C'est la faute à Arteis

  16. #946
    Merci pour le lien, j'ai jamais taffé le sujet, ça va me donner une intro sur le fonctionnement du dégout ^^.

  17. #947
    question conne, mais au delà de côté cool du Promethée moderne, pourquoi on veut des IA fortes?

  18. #948
    Citation Envoyé par ian0delond Voir le message
    question conne, mais au delà de côté cool du Promethée moderne, pourquoi on veut des IA fortes?
    Pour que ca bosse a notre place avec une meilleure efficacité ?
    Grand maître du lien affilié

  19. #949

  20. #950
    Citation Envoyé par ian0delond Voir le message
    question conne, mais au delà de côté cool du Promethée moderne, pourquoi on veut des IA fortes?
    Au départ, c'était qu'une minorité de chercheurs qui bossaient dessus, principalement parce que c'était fun. Personne ne voulait sérieusement d'IA fortes pour en faire quelque chose. Ça interrogeait simplement sur la nature de l'homme et il y a avait un brin de promethée, il faut l'avouer. (ce dont les scientifiques du domaine ne se cachent pas dans leurs divers noms de logiciels, etc.)
    Enfin, ce domaine s'est méliméloté à l'origine avec de multiples autres domaines (sciences sociales, neurobiologie, science des sociétés) qui venaient utiliser ces nouvelles connaissances pour analyser la nature humaine ou des groupes humains. C'était le courant de la cybernétique qui a fondé nombre d'écoles dans tous ces domaines, et qui est à l'origine de l'IA.

    Ensuite, pour avoir du budget, le domaine a vendu aux militaires, occidentaux principalement, qu'on leur ferait des terminators. Ça a bien marché et ça a irrigué de fond militaire les labos d'IA à l'époque. Mais les militaires ne sont pas cons, et après des années de ce régime, les Anglais ont pondu un rapport très critique sur les apports de l'IA à l'époque en pratique (le rapport lighthill), ça a crevé la bulle et toutes les agences militaires du monde se sont retirées en peu d'année du financement de ce qu'ils ont perçu comme une arnaque (à raison, car les chercheurs étaient vraiment rentrés dans un cycle de survente pour avoir plus de thunes, c'est l'économie de la recherche qui mène assez naturellement à ça, c'est le principal défaut du financement de la recherche sur appel à projets, mais c'est une autre histoire). Note que les militaires voulaient juste remplacer leurs soldats, pas forcément que le machin soit conscient ou très intelligent.

    À la suite de cet événement, les gens qui voulaient faire de la vraie IA n'étaient plus qu'une poignée dans le monde (dont mon labo d'origine ^^).

    C'est une IA très différente qui rebondie ensuite par un chemin très différent : c'est les matheux qui viennent modifier le concept de neurone pour introduire la possibilité de construire des réseaux de neurones à couche multiple où on ne s'occupe pas de ce qui se passe au milieu : les poids convergent tout seuls et l'info sur l'erreur commise en fin de chaine remonte d'une couche à l'autre grâce au mécanisme de rétropropagation du gradient de l'erreur.
    Mais il faut comprendre que cette évolution tournait complètement le dos à la première IA qui visait à faire des IA comportementales, ici le but c'était d'avoir une boite noire de matheux qui pour une entrée donnée donne une sortie et basta. L'interpolateur ultime en somme. On prouvera très vite que ça n'a rien à voir avec le fonctionnement du cerveau, mais OSEF diront les matheux, leur but n’était plus du tout aligné avec la cybernétique d'origine qui voulait faire ami ami avec les neurobiologistes et s'inspirer du vivant, leur but était de fournir un résultat concret efficace, et en ce sens, c'est une réussite.

    Fort logiquement, l’exploitation de cette boite a commencé de proche en proche par les domaines les plus proches des maths, traitement d'image, sonore, etc. Le but de tous ces gens n'était vraiment pas de faire des Intelligences artificielles, mais de faire des systèmes de reconnaissance (de son, d'image) artificiels qui étaient performants. Aucun rapport donc. D'ailleurs à mon sens (et au sens de beaucoup) l'emploi du terme IA, qu'ils ont réutilisé, est une erreur fondamentale, dans la mesure où ils ne cherchent aucunement « l'intelligence », contrairement à la branche cybernétique. C'était au contraire totalement admis qu'ils s'en foutaient grave. Pourtant le terme s'est maintenu et ces gens sont vite devenus les plus nombreux à utiliser des algorithmes issus des réseaux de neurones.

    C'est de cet événement que vient cette confusion dans l'usage du terme IA. A posteriori, bien longtemps après, pour tenter d'y comprendre quelque chose, des gens se sont amusé à parler d'IA faible et forte, mais en vrai ça ne veut vraiment rien dire tant les définitions sont peu cadrées c'est vraiment des termes bidouillés pour tenter d'expliciter cette situation complexe en deux mots au grand public, mais à l'origine c'est juste un quiproquo : on aurait jamais dû employer le terme IA pour les algos de reconnaissance automatique par réseaux de neurones multicouches.

    Enfin, suite récente de l'histoire, on s'est mis à utiliser ces boites noires pour traiter le langage, et de là on s'est mis à générer des phrases. C'était toujours très pratico-pratique, utilisé comme pur outil pour faire de la traduction, ce genre de chose. C'était pas du tout dans l'optique de chercher l'intelligence. C'est presque par erreur que sur ce chemin on a commencé à tenter le truc le plus bête qu'on pouvait faire : faire prédire la suite d'une phrase à un système à partir de son passé. En optimisant le machin à mort on obtient chatGPT.

    Ce qui est assez rigolo dans cette fin d'histoire, c'est que c'est une communauté qui n'a donc rien à voir avec la quête de « l'IA » en tant que telle, des mecs qui font des bigdata, du traitement de données, de la trad automatique. Des gens qui s'en battaient un peu le coquillard, qui se retrouvent à devoir se poser des questions philosophiques devant un chatGPT. Je trouve ça assez rigolo.

    Pour répondre à ta question donc : bien peu de personnes dans cette histoire ont vraiment désiré des IA « fortes ». Et les rares qui l'ont voulue parce que c'était rigolo ne sont pas celles qui ont abouti à ChatGpt et cie.

    Maintenant, depuis que l'IA est devenu hype, les industriels, richou, militaires, républiques autoritaires et dictature affirmés s'y intéressent très fort. Combiner des IA de reconnaissance déployées partout dans un pays (téléphones portables, caméras dans les villes, etc) avec une IA généraliste capable de repérer, analyser les rebelles et autre gêneur et même commander directement des actions pour réprimer, c'est le rêve mouillé de toutes personnes tentées par l'autoritarisme et on voit fleurir de trèèèèèèèèès nombreux appels d'offres plus ou moins explicites en ce sens depuis de nombreuses années. (auxquels la majorité des labos répondent sans vergogne, si vous espériez que les chercheurs feraient blocs contre ça, c'est plutôt raté).
    Quant aux industriels, s’ils peuvent remplacer complètement le maximum de taches par des automatismes, ça les intéresses, mais un peu moins en vrai (parce qu'ils ont des gens pas chers pour faire ça dans bien des pays où l'humain ne coute littéralement rien dans l'équation de fonctionnement d'une usine), c'est plus de la prospection curieuse qu'un emballement généralisé.

    Donc les « vraies IA » intéresse maintenant, tous ces gens-là. Mais c'est surtout leur capacité d'analyse, pas leur conscience ou leur intelligence « humaine ».

    Si je résume :
    - Une petite communauté de chercheur cherchent des vrais IAs mais surtout pour le fun et pour comprendre l'humain.
    - Une large communauté s'en bat le coquillards mais aboutit à ChatGPT et se posent des questions sur le sujet, et éventuellement iront plus loin pour « voir ce que ça fait ».
    - Ça intéresse l'armée pour mieux tuer des gens, mais le coté intelligence humaine c'est seulement en bonus, et vu de manière suspecte. Ce qui les intéresse c'est l'efficacité, la méthode ils s'en foutent un peu.
    - La capacité d’analyse d'une intelligence nourries aux supercalculateur et aux bigdata d'un pays intéresse tout les gouvernements autoritaires de la planète. (mais comme pour les militaires, le coté intelligence humaine ils s'en foutent)
    - La capacité à organiser des taches et remplacer l'humain intéresse les industriels, mais plus par prospection technologique curieuse que par nécessité vitale dans la mesure où ils ont un large vivier d'humain quasi gratuit. Là aussi, l'IA intelligente ils s'en fichent un peu, seul le résultat les intéresse vraiment. Mais ils sont suffisamment curieux pour financer quelques projets dans cette direction.
    Dernière modification par Nilsou ; 12/04/2023 à 21h35.

  21. #951
    Merci pour la réponse détaillée avec l'historique

  22. #952
    Citation Envoyé par ian0delond Voir le message
    question conne, mais au delà de côté cool du Promethée moderne, pourquoi on veut des IA fortes?
    Pour répondre à ce genre de questions

    Bon j'ai un exemple perso, je bosse en labo (pas un labo pharmaceutique hein, mais un labo de recherche de débitmétrie), et ce qu'il se fait beaucoup, c'est de simuler informatiquement un phénomène physique et de comparer cela avec ce qu'il se passe en vrai dans la vraie vie, pour qualifier ou non des bouts de code qui sont ensuite utilisés dans le nucléaire.
    Donc moi perso petit technicien de merde qui n'a jamais appris à coder, c'est bien pratique d'avoir un outil style chat jaipété pour lui demander de me coder des petites simu sur python, pour que je fasse une première passe sur un bout de code.

    Avant ça, fallait que je cale un RDV avec un informaticien, que je lui explique les enjeux, le phénomène à coder, dans quelle littérature aller piocher les formules physiques, les conditions d'essai etc ... pour que 2 semaines plus tard j'ai un machin qui tourne à moitié comme je veux et qui nécessiterait encore 2 ou 3 passes avec cet informaticien, et donc encore 2 ou 3 sessions de deux semaines.

    Avec chat GPT, je suis autonome sur 80% de ce boulot, je demande du code comme j'ai envie, avec les contraintes que je veux, et surtout je peux lui demander de me recoder tout le script en 2 minutes si un truc ne va pas.

    Donc je passe à un premier résultat en 1h, en bossant seul avec l'IA, alors qu'avant c'était plus un mois de bidouille avec un mec qui gère 14 projets en même temps, et si le résultat ne convient pas, faut reprendre RDV, trouver un créneau, jongler avec les vacances etc ...

    Ça fait économiser presque un cadre à temps plein, plus un productivité boostée aux hormones, sur une problématique qui demande pas mal de réactivité, je pense que ce seul argument suffit à lui même, même si je suis d'accord que l'impact social va être monstrueux.
    On dit que pétrir, c'est modeler,
    Moi j'dis que péter, c'est démolir.

  23. #953
    je demandais "l'ia forte" pas chatgpt

    les IA génératives c'est bon je comprend l'emballement.

    j'ai posé la question car j'écoutais des chercheurs à la radio parler d'IA, et la question de l'IA forte on allait y arriver et c'était pas trop la peine de poser la question. Je me suis demandé pourquoi c'était si évident que des chercheurs allait le faire car faut être motivé pour se lancer dans quelque chose qui peut prendre un siècle avant de sabler le champagne.
    Le nucléaire tu as 60 ans entre la découverte de la radioactivité et la première centrale, la promesse d'une énergie quasi infinie c'est facile à se projeter dans l'aspect pratique.
    Dernière modification par ian0delond ; 13/04/2023 à 14h34.

  24. #954
    L'idée c'est une ia qui peut donner des conseils ou être greffée sur un robot.

    Je pense que le Graal ça a toujours été de faire des synthetiques
    Grand maître du lien affilié

  25. #955
    Citation Envoyé par ian0delond Voir le message
    je demandais "l'ia forte" pas chatgpt
    Ah ben pour moi c'était une IA forte, je suis pas du milieu je connais pas le jargon, désolé
    On dit que pétrir, c'est modeler,
    Moi j'dis que péter, c'est démolir.

  26. #956
    Pour ceux que ça intéresse, un type sur reddit post l'actualité du moment.

    Spoiler Alert!
    Cognosys - a web based version of AutoGPT/babyAGI. Looks so cool [Link]

    Godmode is another web based autogpt. Very fun to play with this stuff [Link]

    HyperWriteAI is releasing an AI agent that can basically use the internet like a human. In the example it orders a pizza from dominos with a single command. This is how agents will run the internet in the future, or maybe the present? Announcement tweet [Link]. Apply for early access here [Link]

    People are already playing around with adding AI bots in games. A preview of whats to come [Link]

    Arxiv being transformed into a podcast [Link]

    AR + AI is going to change the way we live, for better or worse. lifeOS runs a personal AI agent through AR glasses [Link]

    AgentGPT takes autogpt and lets you use it in the browser [Link]

    MemoryGPT - ChatGPT with long term memory. Remembers past convos and uses context to personalise future ones [Link]

    Wonder Studios have been rolling out access to their AI vfx platform. Lots of really cool examples I’ll link here [Link] [Link] [Link] [Link] [Link] [Link] [Link] [Link]

    Vicuna is an open source chatbot trained by fine tuning LLaMA. It apparently achieves more than 90% quality of chatgpt and costs $300 to train [Link]

    What if AI agents could write their own code? Describe a plugin and get working Langchain code [Link]. Plus its open source [Link]

    Yeagar ai - Langchain Agent creator designed to help you build, prototype, and deploy AI-powered agents with ease [Link]

    Dolly - The first “commercially viable”, open source, instruction following LLM [Link]. You can try it here [Link]

    A thread on how at least 50% of iOs and macOS chatgpt apps are leaking their private OpenAI api keys [Link]

    A gradio web UI for running LLMs like LLaMA, llama.cpp, GPT-J, Pythia, OPT, and GALACTICA. Open source and free [Link]

    The Do Anything Machine assigns an Ai agent to tasks in your to do list [Link]

    Plask AI for image generation looks pretty cool [Link]

    Someone created a chatbot that has emotions about what you say and you can see how you make it feel. Honestly feels kinda weird ngl [Link]

    Use your own AI models on the web [Link]

    A babyagi chatgpt plugin lets you run agents in chatgpt [Link]

    A thread showcasing plugins hackathon (i think in sf?). Some of the stuff is pretty in here is really cool. Like attaching a phone to a robodog and using SAM and plugins to segment footage and do things. Could be used to assist people with impairments and such. makes me wish I was in sf ? [Link] robot dog video [Link]

    Someone created KarenAI to fight for you and negotiate your bills and other stuff [Link]

    You can install GPT4All natively on your computer [Link]

    WebLLM - open source chat bot that brings LLMs into web browsers [Link]

    AI Steve Jobs meets AI Elon Musk having a full on unscripted convo. Crazy stuff [Link]

    AutoGPT built a website using react and tailwind [Link]

    A chatbot to help you learn Langchain JS docs [Link]

    An interesting thread on using AI for journaling [Link]

    Build a Chatgpt powered app using Bubble [Link]

    Build a personal, voice-powered assistant through Telegram. Source code provided [Link]

    This thread explains the different ways to overcome the 4096 token limit using chains [Link]

    This lads creating an open source rebuild of descript, a video editing tool [Link]

    DesignerGPT - plugin to create websites in ChatGPT [Link]

    Get the latest news using AI [Link]

    Have you seen those ridiculous balenciaga videos? This thread explain how to make them [Link]

    GPT-4 plugin to generate images and then edit them [Link]

    How to animate yourself [Link]

    Baby-agi running on streamlit [Link]

    How to make a Space Invaders game with GPT-4 and your own A.I. generated textures [Link]

    AI live coding a calculator app [Link]

    Someone is building Apollo - a chatgpt powered app you can talk to all day long to learn from [Link]

    Animals use reinforcement learning as well [Link]

    How to make an AI aging video [Link]

    Stable Diffusion + SAM. Segment something then generate a stable diffusion replacement. Really cool stuff [Link]

    Someone created an AI agent to do sales. Just wait till this is integrated with Hubspot or Zapier [Link]

    Someone created an AI agent that follows Test Driven Development. You write the tests and the agent then implements the feature. Very cool [Link]

    A locally hosted 4gb model can code a 40 year old computer language [Link]

    People are adding AI bots to discord communities [Link]

    Using AI to delete your data online [Link]

    Ask questions over your files with simple shell commands [Link]

    Create 3D animations using AI in Spline. This actually looks so cool [Link]

    Someone created a virtual AI robot companion [Link]

    Someone got gpt4all running on a calculator. gg exams [Link] Someone also got it running on a Nintendo DS?? [Link]

    Flair AI is a pretty cool tool for marketing [Link]

    A lot of people have been using Chatgpt for therapy. I wrote about this in my last newsletter, it’ll be very interesting to see how this changes therapy as a whole. An example of someone whos been using chatgpt for therapy [Link]

    A lot of people ask how can I use gpt4 to make money or generate ideas. Here’s how you get started [Link]

    This lad got an agent to do market research and it wrote a report on its findings. A very basic example of how agents are going to be used. They will be massive in the future [Link]

    Someone made a plugin that gives access to the shell. Connect this to an agent and who knows wtf could happen [Link]

    Someone made an app that connects chatgpt to google search. Pretty neat [Link]

    Somebody made a AI which generates memes just by taking a image as a input [Link]

    This lad made a text to video plugin [Link]

    Why only talk to one bot? GroupChatGPT lets you talk to multiple characters in one convo [Link]

    Build designs instantly with AI [Link]

    Someone transformed someone dancing to animation using stable diffusion and its probably the cleanest animation I’ve seen [Link]

    Create, deploy, and iterate code all through natural language. Man built a game with a single prompt [Link]

    Character cards for AI roleplaying [Link]

    IMDB-LLM - query movie titles and find similar movies in plain english [Link]

    Summarize any webpage, ask contextual questions, and get the answers without ever leaving or reading the page [Link]

    Kaiber lets you restyle music videos using AI [Link]. They also have a vid2vid tool [Link]

    Create query boxes with text descriptions of any object in a photo, then SAM will segment anything in the boxes [Link]

    People are giving agents access to their terminals and letting them browse the web [Link]

    Go from text to image to 3d mesh to video to animation [Link]

    Use SAM with spatial data [Link]

    Someone asked autogpt to stalk them on the internet.. [Link]

    Use SAM in the browser [Link]

    robot dentitsts anyone?? [Link]

    Access thousands of webflow components from a chrome extension using ai [Link]

    AI generating designs in real time [Link]

    How to use Langchain with Supabase [Link]

    Iris - chat about anything on your screen with AI [Link]

    There are lots of prompt engineering jobs being advertised now lol [Link]. Just search in google

    5 latest open source LLMs [Link]

    Superpower ChatGPT - A chrome extension that adds folders and search to ChatGPT [Link]

    Terence Tao the best mathematician alive used gpt4 and it saved him a significant amount of tedious work [Link]

    This lad created an AI coding assistant using Langchain for free in notebooks. Looks great and is open source [Link]

    Someone got autogpt running on an iPhone lol [Link]

    Run over 150,000 open-source models in your games using a new Hugging Face and Unity game engine integration. Use SD in a unity game now [Link]

    Not sure if I’ve posted here before but nat.dev lets you race AI models against each other [Link]

    A quick way to build LLM apps - an open source UI visual tool for Langchain [Link]

    A plugin that gets your location and lets you ask questions based on where you are [Link]

    The plugin OpenAI was using to assess the security of other plugins is interesting [Link]

    Breakdown of the team that built gpt4 [Link]

    This PR attempts to give autogpt access to gradio apps [Link]


    Tout ça pour dire, que je suis impressionné par la vitesse à laquelle tout cela avance.

    Les AI Agent, ont l'air de se multiplier plus rapidement que des gonorrhées dans une stations de ski. Et la complexité des tâches effectués en peu de temps m'impressionne.
    Signature merde !

  27. #957
    Vous conseilleriez quoi comme livre, de préférence, ou article (sans paywall) au pire (et si les livres sont trop en retard par rapport aux derniers développements), pour une analyse synthétique de la nature, fonction, intérêt et danger de l'IA ? Compréhensible sans être informaticien ? Incluant les aspects économiques et n'étant ni béatement technophile, ni irrémédiablement technophobe ?
    Si ça existe...
    Merci

  28. #958
    C'est un peu trop large comme question amha.

  29. #959
    https://www.reuters.com/technology/m...ws-2023-04-17/

    ça va bien se passer.

    heureusement que c'est encore du vent comme à son habitude

    - - - Mise à jour - - -

    Citation Envoyé par Konan Voir le message
    Vous conseilleriez quoi comme livre, de préférence, ou article (sans paywall) au pire (et si les livres sont trop en retard par rapport aux derniers développements), pour une analyse synthétique de la nature, fonction, intérêt et danger de l'IA ? Compréhensible sans être informaticien ? Incluant les aspects économiques et n'étant ni béatement technophile, ni irrémédiablement technophobe ?
    Si ça existe...
    Merci
    T'as essayé de poser la question à chatgpt ?

  30. #960
    TruthGPT... Truth quelque chose... Ça me rappelle un truc, mais quoi...
    Oook ?

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •