Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 182 sur 189 PremièrePremière ... 82132172174175176177178179180181182183184185186187188189 DernièreDernière
Affichage des résultats 5 431 à 5 460 sur 5663
  1. #5431
    Citation Envoyé par dralasite Voir le message
    Sauf que l'humain est capable de dire "je ne sais pas"
    Sur CPC j'ai rarement vu ca

  2. #5432
    Citation Envoyé par Shosuro Phil Voir le message
    Avec les LLM qui répondent avec applomb sur tous les sujets même quand ils "hallucinent" (j'aime bien le terme), c'est super dangereux parce que les signaux d'alerte sont au minimum.

    Peut-être que ça va bouger et que les LLM vont devenir meilleurs pour indiquer un niveau de confiance, mais en attendant je m'en méfie comme de la peste.
    Oui totalement d'accord c'est + l'utilisation qui est problématique et le marketing autour et qui pourrait amener à de gros problème à long terme, un peu à mes yeux comme quand google te donne en première page des liens hyper douteux pour de l'information.
    Une partie des utilisateurs va faire confiance par défaut et ça s'est véritablement problématique (surtout si la précision des IA ne s'améliore pas).
    Pareil si le but n'est que de faire des économies ça pourrait donner des aberrations.

    Une autre problématique dans le style qu'on voit déjà pointé c'est que beaucoup de personnes notamment chez les (jeune mais pas que) informaticiens utilisent ça en entreprise sans se poser la question de ou va l'information en mettant potentiellement des données confidentielles par exemple.

    D'autant que niveau budget je me demande aussi comment ça va être rentable pour le moment, je pense qu'il faut que ça se tasse un peu, voir si on arrive à mettre en production, pour quel coût avec quelle scalabilité (parce que quand modèle prend une A100 à lui tout seul ça te donne 20 000 euro les 10 utilisateurs, ça fait chère l'utilisateur ). Tout en mettant en parallèle les progrès qu'on va faire niveau carte graphique (qui vont ralentir mais à quel rapidité?).
    "Les faits sont têtus."


  3. #5433
    Citation Envoyé par dralasite Voir le message
    Une IA n'est pas capable de donner de sources (et peut parfois en fabriquer des fausses), on ne peut donc pas savoir si la réponse a été "inspirée" par un texte dans l'Encyclopedia Britanica ou par un shipost sur reddit.
    En fait si, rien n'empeche l'IA de faire la recherche a ta place, lire des pages et les synthétiser. C'est ce que font les plugs ins.

    Mais on se dirige vers ca, parce c'est plus pertinent. Déjà la démo de Gemini / Google de la Google IO disait que c'est ce qu'ils vont faire

  4. #5434
    Citation Envoyé par Laya Voir le message
    Oui, si tu préfères si l'IA fait régulièrement des erreurs, parce qu'au final il est là le problème le taux de réponses erroné.
    mmm non.

    une machine comme gpt te donne surtout des réponses correcte à la question.

    La question étant comment bien poser une question pour correctement questionner la réponse à la question.

    Intuitivement, un être humain connait les conventions sociales et professionnelles (pas tous ). Quand on donne des citations, on les vérifie avant par exemple.

    gpt... non. Si tu lui demandes d'inclure des citations de Georges W. Bush, il invente les citations. Il fait des citations. Fausses. Mais parfois ce sont de vraies citations.

    Mais c'est logique par rapport à son fonctionnement,

    Citation Envoyé par ChatGPT
    Mon objectif principal est de générer du texte qui semble cohérent et pertinent par rapport à la question posée.
    Donc il te fait plaisir.
    Le détail est que gpt prend les instructions au minimum. il n'invente pas de contexte. Il n'a jamais travaillé non plus.

    Il a ses handicaps aussi

    Citation Envoyé par ChatGPT
    Mon apprentissage est basé sur une grande quantité de textes provenant de diverses sources disponibles jusqu'en 2023. Cela inclut des livres, des articles, des sites web, etc. Cependant, je ne dispose pas d'une base de données en temps réel ou d'une capacité à vérifier des citations en ligne de manière dynamique.
    Et en mélangeant les deux:
    Citation Envoyé par ChatGPT
    Lorsque je fournis des citations ou des informations spécifiques, elles sont tirées des données que j'ai vues pendant l'entraînement. Parfois, cela conduit à la création de contenu plausible mais non vérifié si les données d'origine n'étaient pas explicitement correctes ou si des détails spécifiques n'ont pas été explicitement codés comme véridiques.
    Et le pire, c'est une feature, pas un bug

    Citation Envoyé par ChatGPT
    Mon but est de fournir une réponse utile et pertinente dans le contexte donné. Lorsqu'on me demande d'inclure des citations pour renforcer un argument, je peux générer des exemples basés sur des modèles de discours observés durant l'entraînement. Malheureusement, cela peut conduire à des citations inventées si je n'ai pas été explicitement programmé pour vérifier chaque citation dans une base de données spécifique.
    Donc il faut lui préciser le contexte jusqu'au moindre détails (imagine les gens stupides au travail qui font très très exactement ce qu'on leur dit de faire) et développer les moyens de lui faire vérifier son travail.


  5. #5435
    De toutes facons, vu le tournant qu'a pris google ces dernières années, je suis a peu près sûr que l'intégration de l'IA en première reponse de leur moteur de recherche, c'est une giga idée de merde. En l'état et même si ca se "perfectionne" plus tard (ce dont je doute également)

  6. #5436
    Citation Envoyé par Laya Voir le message
    Sauf que même le meilleur spécialiste peut donner des réponses erroné (et strictement parlant va en donner).
    Pour ça qu'il faut toujours remettre en perspective de l'acceptation ou non du nombre d'erreur.

    Pour prendre un exemple concret wikipedia fait des erreurs mais assez peu pour qu'on se dise que c'est souvent très acceptable comme réponse (et il a le bon coté de sourcer).
    Là ou une IA généraliste type GPT3 n'est pour le moment pas à ce niveau là et donc la confiance n'est pas la même. On commence à avoir de la source d'ailleurs sur des IA qui vont questionner le net au final et s'approcher d'un wiki mais on est pas encore au niveau.

    C'est pour ça que je pense qu'il ne faut pas se concentrer sur les exemples faux mais sur un tout et déterminer à quel moment c'est acceptable ou non et ça va dépendre de l'utilisation qu'on en fait. Plutôt que d'être dans une logique presque déontologique ou par nature on accepterait pas l'erreur d'IA qu'on accepterait pour des humains.
    Je pense que le biais initial c’est qu’ « on » a tendance à prendre tout ce qui vient d’un ordinateur (ex : un calcul) pour argent comptant. Pour les recherches sur Internet on a tous (enfin, presque.) appris à regarder la source de la donnée. Là on a aucune prise. De fait, si le taux d’erreur est significatif, c’est très problématique. Surtout s’il n’y a aucune mise en perspective, et que « c’est bien présenté ».
    Moi aussi j’ai tendance à éliminer d’office les sources pas fiables, un exemple parlant, ce sont les médias.
    Et franchement, j’ai un doute sur l’esprit critique moyen. Ca risque de pas être très beau tout ça.

  7. #5437
    De toute façon pour le moment l'IA sert surtout à ça:



    Et on fera jamais meilleur utilisation ...
    Weng Weng Weng Weng two feet nine, He kicks you in the nutsack from behind

  8. #5438
    Citation Envoyé par Zapp le Grand Voir le message
    De toutes facons, vu le tournant qu'a pris google ces dernières années, je suis a peu près sûr que l'intégration de l'IA en première reponse de leur moteur de recherche, c'est une giga idée de merde. En l'état et même si ca se "perfectionne" plus tard (ce dont je doute également)
    Sur les exemples que donnent Google c'est pas mal, il peut combiner plusieurs recherches en une et tu peux faire une recherche en langage naturel.
    Et cerise sur le gateau tu as une présentation unique des résultats, fini la liste

    Toutes ces années au CDI ou on nous apprenait les opérateurs Bouléens




  9. #5439
    Citation Envoyé par Bah Voir le message
    Bien sûr qu'il faut justement se concentrer sur les exemples faux. Wikipedia va parfois te donner des infos fausses (et encore, pas beaucoup), mais le site ne va te donner que les infos qu'il a. L'IA elle va ajouter des trucs faux selon tes questions. Ca veut dire que le taux de retour de trucs faux est potentiellement énorme. Contrairement à Wiki qui ne te donnera pas d'infos qu'il n'a pas, l'IA va quoi qu'il arrive te créer une réponse. Elle peut répondre à une infinité de questions, chaque question entraîne une réponse définitive (contrairement à wiki ou un humain), ça fait une potentiellement une chiée de réponses fausses, qui potentiellement encore, vont s'ajouter au corpus des autres IA.

    Et vu le modèle actuel, les IA vont favoriser les réponses des plus bruyants, si on accepte ça, je veux plus jamais voir quelqu'un se plaindre d'avoir l'avis d'un acteur sur la gestion d'une crise.
    C'est pour ça que beaucoup de projet en cours vont vers le RAG qui consiste grosso modo à mettre des données juste dans des bases de données (vectoriel) pour ensuite les piocher selon la question (assisté ou pas par IA à ce moment) et donner à l'IA le devoir de chercher la réponse dans ce lot de document.
    Normalement ça diminue les chances de faire de fausse réponse, encore + si tu demandes à l'IA de dire 'je n'ai pas l'information' quand elle n'est pas explicit dans les documents, et encore + si tu utilises une autre IA qui va vérifier que la réponse de la première IA est bien en adéquation avec la question (voire avec les documents trouvés).

    Reste qu'ici aussi il peut y avoir hallucination et plein de manière de mal le faire, mais probablement aussi des manière de faire un truc propre qui répond bien. Et ca on devrait le savoir dans les années/mois qui viennent.

    Et pour reprendre le cas des champignons tu peux imaginer un système qui va justement rechercher dans une base de données assez rigoureuse pour ressortir ce à quoi la photo semble correspondre. Si tu fais le tout au conditionnel : cette photo semble être le bolet machin truc en te sortant la photo du bolet en question voire la page de document de champignons correspondant et potentiellement faire moins d'erreur qu'un humain (tu rajoutes les champignons dangereux les plus ressemblant aussi).
    C'est pas parfait, mais c'est peut être moins dangereux qu'une personne avec son bouquin de champignon a essayé de voir si ça ressemble à la seule photo du bouquin dessiné à la main .
    "Les faits sont têtus."


  10. #5440
    C'est évident que ce problème de Confiance envers les IA va devoir etre réglé et qu'i lest pris au sérieux.

    La première étape était d'avoir un truc qui passe le test de Turing, et maintenant on est les Dr Zaius.


    L'étape 2 est de les rendre fiables, donc selection dynamique de corpus, appairage avec des bots/scripts ou API ...

    La partie LLM / Perroquet ne servira plus a donner l'information dans un futur proche, ce sera juste sa partie du cerveau qui correspond au langage.


    On en demande trop et trop rapidement

  11. #5441
    Citation Envoyé par Laya Voir le message
    Tu peux faire l'expérience tu mets par exemple ce code de trie à bulle dans gpt 3 (https://www.guru99.com/fr/bubble-sort.html)
    Tu lui demandes de t'expliquer le code et tu auras une explication assez détaillé en général bonne de ce que ça fait. C'est assez pratique pour plein d'applications.
    Le tri à bulle c'est genre l'exercice 0 de tous les cours sur les algorithmes de tri, il y a forcément dans le corpus internet des centaines de milliers de codes et de pseudocodes qui le font et qui ne sont pas trop faux. Je ne suis d'ailleurs pas certain que les codes corrects soient plus nombreux que les faux, mais bon.

    Mais c'est pervers: c'est un truc hyper bateau et ça donne une fausse impression de sécurité, résultat le risque de lui faire confiance pour des trucs plus complexes est élevé.

    Je viens de faire l'expérience (félicitations: ça faisait presque 2 ans que j'avais réussi à ne pas créer de compte ChatGPT), et après le tri bulle en Python je lui ai demandé un peu plus compliqué: suppression dans un arbre rouge et noir, en Ocaml. C'est un exercice nettement moins bateau, parce qu'il y a des cas compliqués à gérer, et il est beaucoup moins présent dans les textes facilement trouvables. Et là, ça fait 20 minutes que le LLM me sert des salades, en me présentant du code d'apparence raisonnable mais soit en me disant "ça couvre la majorité des cas", soit quand j'insiste, "voici du code complet et correct", mais à chaque fois que je souligne un problème il change un peu son code, puis il me sert des explications vaseuses...

    C'est hyper pervers, parce qu'en apparence c'est très convaincant: la grande majorité des étudiants de Licence s'expriment dans un français beaucoup moins clair, et en surface ça ressemble à des explications correctes; les descriptions des propriétés attendues sont les bonnes, c'est juste que le code proposé ne les respecte pas. Mais quand je lui présente un argument rhétorique ("on est bien d'accord que...", avec le truc qui suit qui est manifestement faux), il me dit oui oui, vous avez totalement raison, suivi d'explications forcément fausses (vu que je sais que l'affirmation est fausse).

  12. #5442
    Citation Envoyé par Laya Voir le message
    ...
    De mon point de vue, Wikipedia reste meilleur sur le fonctionnement.

    Le système qui permet à chacun de corriger, mais sous l'oeil de tous, est infiniment plus ouvert que les bases de données d'entrainement qui sont opaques, et qui ne sont pas forcément corrélées aux erreurs ensuite de l'IA (enfin si, c'est corrélé mais l'IA peut inventer des trucs faux sans qu'on ne puisse le deviner à partir de la base de donnée, ni le corriger facilement).

    Le fait de guider vers une source d'info, c'est surement mieux mais ça va être chaud puisque l'usage principal serait de trouver des infos un peu difficile à piocher par exemple.

    J'ai du mal à voir le temps que ça me ferait gagner perso... mais je peux me tromper. Après tout par flemme maintenant dès qu'on cherche un truc un peu flou on demande à chatGPT certaines choses.

    J'ai l'impression qu'en parallèle il y a aussi une redistribution des gens vers des recherches dans des réseaux fermés, genre reddit, où c'est parfois plus simple de trouver des infos.

    En aparté, l'IA ça fait bien du mal à une recherche google déja bien pété. Sur certains sujets j'ai presque tout les premiers résultats où c'est des textes générés par IA, j'en peut JUSTE PLUS. Ça me tue ça. C'est assez épuisant.
    Dernière modification par Nilsou ; 23/05/2024 à 16h31.

  13. #5443
    Citation Envoyé par Shosuro Phil Voir le message
    Le tri à bulle c'est genre l'exercice 0 de tous les cours sur les algorithmes de tri, il y a forcément dans le corpus internet des centaines de milliers de codes et de pseudocodes qui le font et qui ne sont pas trop faux. Je ne suis d'ailleurs pas certain que les codes corrects soient plus nombreux que les faux, mais bon.

    Mais c'est pervers: c'est un truc hyper bateau et ça donne une fausse impression de sécurité, résultat le risque de lui faire confiance pour des trucs plus complexes est élevé.

    Je viens de faire l'expérience (félicitations: ça faisait presque 2 ans que j'avais réussi à ne pas créer de compte ChatGPT), et après le tri bulle en Python je lui ai demandé un peu plus compliqué: suppression dans un arbre rouge et noir, en Ocaml. C'est un exercice nettement moins bateau, parce qu'il y a des cas compliqués à gérer, et il est beaucoup moins présent dans les textes facilement trouvables. Et là, ça fait 20 minutes que le LLM me sert des salades, en me présentant du code d'apparence raisonnable mais soit en me disant "ça couvre la majorité des cas", soit quand j'insiste, "voici du code complet et correct", mais à chaque fois que je souligne un problème il change un peu son code, puis il me sert des explications vaseuses...

    C'est hyper pervers, parce qu'en apparence c'est très convaincant: la grande majorité des étudiants de Licence s'expriment dans un français beaucoup moins clair, et en surface ça ressemble à des explications correctes; les descriptions des propriétés attendues sont les bonnes, c'est juste que le code proposé ne les respecte pas. Mais quand je lui présente un argument rhétorique ("on est bien d'accord que...", avec le truc qui suit qui est manifestement faux), il me dit oui oui, vous avez totalement raison, suivi d'explications forcément fausses (vu que je sais que l'affirmation est fausse).
    C'est l'inverse dont parle Laya : donner un algo qu'on sait correct à ChatGPT et lui demander de te l'expliquer, des retours que j'ai eu aussi globalement ça semble fonctionner pas trop mal, contrairement à l'écriture de code.
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  14. #5444
    Citation Envoyé par Shosuro Phil Voir le message
    Le tri à bulle c'est genre l'exercice 0 de tous les cours sur les algorithmes de tri, il y a forcément dans le corpus internet des centaines de milliers de codes et de pseudocodes qui le font et qui ne sont pas trop faux. Je ne suis d'ailleurs pas certain que les codes corrects soient plus nombreux que les faux, mais bon.

    Mais c'est pervers: c'est un truc hyper bateau et ça donne une fausse impression de sécurité, résultat le risque de lui faire confiance pour des trucs plus complexes est élevé.

    Je viens de faire l'expérience (félicitations: ça faisait presque 2 ans que j'avais réussi à ne pas créer de compte ChatGPT), et après le tri bulle en Python je lui ai demandé un peu plus compliqué: suppression dans un arbre rouge et noir, en Ocaml. C'est un exercice nettement moins bateau, parce qu'il y a des cas compliqués à gérer, et il est beaucoup moins présent dans les textes facilement trouvables. Et là, ça fait 20 minutes que le LLM me sert des salades, en me présentant du code d'apparence raisonnable mais soit en me disant "ça couvre la majorité des cas", soit quand j'insiste, "voici du code complet et correct", mais à chaque fois que je souligne un problème il change un peu son code, puis il me sert des explications vaseuses...

    C'est hyper pervers, parce qu'en apparence c'est très convaincant: la grande majorité des étudiants de Licence s'expriment dans un français beaucoup moins clair, et en surface ça ressemble à des explications correctes; les descriptions des propriétés attendues sont les bonnes, c'est juste que le code proposé ne les respecte pas. Mais quand je lui présente un argument rhétorique ("on est bien d'accord que...", avec le truc qui suit qui est manifestement faux), il me dit oui oui, vous avez totalement raison, suivi d'explications forcément fausses (vu que je sais que l'affirmation est fausse).
    Tu lui a demandé d'écrire le code, c'est plus difficile, pas certain que j'aurais fait confiance à chat gpt pour qu'il ponde entièrement un tri à bulle. Par contre dans le sens inverse demande lui de commenter un code qui est bon pour t'expliquer ce qu'il fait, je suppose qu'il devrait mettre moins de bêtise.

    Il est assez bon pour proposer des librairies parfois aussi.

    Typiquement je ne connais pas ton exemple mais quand je lui demande "que me conseil tu comme librairie pour la suppression dans un arbre rouge et noir?"
    Il me pond :
    Pour implémenter la suppression dans un arbre rouge et noir, il existe plusieurs bibliothèques et frameworks en fonction du langage de programmation que vous utilisez. Voici quelques suggestions pour différents langages :
    C++

    Boost.Intrusive : La bibliothèque Boost offre une implémentation d'arbres rouges et noirs, ainsi que d'autres structures de données avancées. Boost est bien documenté et largement utilisé dans la communauté C++.
    Boost.Intrusive Documentation

    GNU libstdc++ : Si vous utilisez le compilateur GCC, la bibliothèque standard C++ inclut une implémentation de std::map et std::set qui utilisent des arbres rouges et noirs sous le capot.

    Python

    SortedContainers : Cette bibliothèque propose des conteneurs triés qui peuvent être utilisés comme des arbres rouges et noirs. Elle est bien optimisée et facile à utiliser.
    SortedContainers Documentation

    bintrees : Une bibliothèque simple pour les arbres binaires, y compris les arbres rouges et noirs.
    bintrees Documentation

    Java

    TreeMap : La classe TreeMap de Java est une implémentation d'arbre rouge et noir. Elle fait partie de la bibliothèque standard de Java.
    TreeMap Documentation

    C#

    SortedDictionary : La classe SortedDictionary de .NET utilise un arbre rouge et noir pour stocker les éléments de manière ordonnée.
    SortedDictionary Documentation

    Go

    RBT : Une implémentation d'arbres rouges et noirs en Go, disponible sur GitHub.
    RBT on GitHub

    Rust

    rbtree : Une bibliothèque simple et efficace pour les arbres rouges et noirs en Rust.
    rbtree on crates.io

    En fonction de votre langage de programmation préféré et de vos besoins spécifiques, vous pouvez choisir l'une de ces bibliothèques pour implémenter la suppression dans un arbre rouge et noir. Assurez-vous de consulter la documentation de chaque bibliothèque pour comprendre comment elle gère les opérations de suppression et d'autres fonctionnalités.
    Vu que j'y connais rien je suis aller voir le homepage de les librairies python qui ont l'air pas trop mal à propos.
    Dans ce cas là si tu es néophyte tu ne peux pas savoir si c'est bon ou pas, néanmoins ça peut te donner des indices de librairie à maîtriser en rapport avec ton problème par exemple. Alors qu'a défaut aucune idée de ce qui aurait pu correspondre.
    "Les faits sont têtus."


  15. #5445
    Citation Envoyé par Laya Voir le message
    Tu lui a demandé d'écrire le code, c'est plus difficile, pas certain que j'aurais fait confiance à chat gpt pour qu'il ponde entièrement un tri à bulle. Par contre dans le sens inverse demande lui de commenter un code qui est bon pour t'expliquer ce qu'il fait, je suppose qu'il devrait mettre moins de bêtise.
    Tu supposes mais encore une fois, on va faire confiance à un truc qui ne "comprend" vraiment rien hein. Et donc il va pouvoir te sortir tout a fait juste comme une hallucination complètement fausse et va te raconter n'importe quoi avec le même aplomb.

    Et non, les hallucinations ne pourront jamais disparaitre. Et les GAFAM changent peu a peu leur discours en mode "oui mais c'est bien de voir les IA halluciner" et ils te sortent ce genre de dingueries :

    AI hallucinations will be solvable within a year, ex-Google AI researcher says—but that may not be a good thing: ‘We want them to propose things that are weird and novel’
    https://fortune.com/2024/04/16/ai-ha...le-researcher/

    (en mode les hallucinations c'est très bien c'est le premier pas vers la création de vraies solutions par des IA, et pas de réponse statistique.

  16. #5446
    Citation Envoyé par Shosuro Phil Voir le message
    Mais quand je lui présente un argument rhétorique ("on est bien d'accord que...", avec le truc qui suit qui est manifestement faux), il me dit oui oui, vous avez totalement raison, suivi d'explications forcément fausses (vu que je sais que l'affirmation est fausse).
    Oui mais c'est comme ça que ca fonctionne. Ce n'est pas un système éducatif.
    Si tu attend qu'il te dise non, c'est mal parti, parce que ce n'est pas sa fonction, il va toujours intégrer l'information que tu lui donnes. Le but de chatGPT est de fournir une réponse dans le contexte que tu lui fournis et fondamentalement il génère une réponse à la question en fonction de ce qu'il a appris. Dès que tu vas sortir du "simple" il va être perdu. il n'est pas capable de créer des réponses fiables sur du complexe. Le but de sa réponse est de te faire plaisir en te donnant une réponse, mais l'exactitude, la contradiction, le débat, non, ce n'est pas l'objectif.

    Voici quelques domaines où je peux généralement fournir des réponses fiables :

    Informations générales : Histoire, géographie, sciences, mathématiques, etc.

    Langues : Grammaire, orthographe, traductions simples, etc.

    Technologie : Informatique, Internet, programmation, nouvelles technologies, etc.

    Culture générale : Littérature, arts, musique, cinéma, etc.

    Aide à la rédaction : Correction grammaticale, suggestions de style, et

    Cependant, gardez à l'esprit qu'il peut y avoir des limites à ma précision et ma compréhension dans des domaines très spécialisés ou techniques, ainsi que dans les langues autres que l'anglais
    En parlant de technologie, je peux fournir des informations et des réponses sur un large éventail de sujets, notamment :

    Informatique : Je peux vous aider à comprendre les concepts informatiques de base tels que les systèmes d'exploitation, les réseaux informatiques, la sécurité informatique, etc.

    Programmation : Je peux répondre à des questions sur différents langages de programmation, des concepts de programmation tels que les structures de données, les algorithmes, la logique de programmation, etc. Cependant, ma capacité à générer du code spécifique dépendra de mes connaissances préalables et de la complexité de la tâche.

    Nouvelles technologies : Je peux vous fournir des informations sur les dernières avancées technologiques dans des domaines tels que l'intelligence artificielle, l'apprentissage automatique, l'Internet des objets, la blockchain, etc.

    Matériel informatique : Je peux répondre à des questions sur les composants matériels tels que les processeurs, les cartes graphiques, les mémoires, les disques durs, etc.

    Applications et logiciels : Je peux vous aider à comprendre le fonctionnement des différentes applications et logiciels, ainsi que vous fournir des conseils sur leur utilisation.

    Tendances technologiques : Je peux discuter des tendances actuelles dans le domaine de la technologie et des implications qu'elles peuvent avoir sur la société et l'économie.
    Son créneau c'est le globalement simple pour la personne lambda. Si tu veux faire du code, non, ce n'est pas le bon agent. C'est plus vikidia que Skynet.


    Sur un autre domaine, tu peux lui demander de t'aider à créer un roman de science-fiction et tu lui promptes ton idée. Ton idée sera toujours formidable/passionnante/intriguante (mettre un adjectif élogieux). Même si elle est complétement nulle.


  17. #5447
    Citation Envoyé par t4rget Voir le message
    Son créneau c'est le globalement simple pour la personne lambda. Si tu veux faire du code, non, ce n'est pas le bon agent.
    Je suis pas d'accord. Son créneau c'est de répondre à tout et n'importe quoi. Si c'était pas le cas, on pourrait pas lui poser tout et n'importe quoi comme question et avoir des réponses.
    Citation Envoyé par Big Bear Voir le message
    Je suis totalement d'accord avec le canardpcnaute M. Cacao.

  18. #5448

  19. #5449
    Citation Envoyé par Shosuro Phil Voir le message
    Le tri à bulle c'est genre l'exercice 0 de tous les cours sur les algorithmes de tri, il y a forcément dans le corpus internet des centaines de milliers de codes et de pseudocodes qui le font et qui ne sont pas trop faux. Je ne suis d'ailleurs pas certain que les codes corrects soient plus nombreux que les faux, mais bon.

    Mais c'est pervers: c'est un truc hyper bateau et ça donne une fausse impression de sécurité, résultat le risque de lui faire confiance pour des trucs plus complexes est élevé.

    Je viens de faire l'expérience (félicitations: ça faisait presque 2 ans que j'avais réussi à ne pas créer de compte ChatGPT), et après le tri bulle en Python je lui ai demandé un peu plus compliqué: suppression dans un arbre rouge et noir, en Ocaml. C'est un exercice nettement moins bateau, parce qu'il y a des cas compliqués à gérer, et il est beaucoup moins présent dans les textes facilement trouvables. Et là, ça fait 20 minutes que le LLM me sert des salades, en me présentant du code d'apparence raisonnable mais soit en me disant "ça couvre la majorité des cas", soit quand j'insiste, "voici du code complet et correct", mais à chaque fois que je souligne un problème il change un peu son code, puis il me sert des explications vaseuses...

    C'est hyper pervers, parce qu'en apparence c'est très convaincant: la grande majorité des étudiants de Licence s'expriment dans un français beaucoup moins clair, et en surface ça ressemble à des explications correctes; les descriptions des propriétés attendues sont les bonnes, c'est juste que le code proposé ne les respecte pas. Mais quand je lui présente un argument rhétorique ("on est bien d'accord que...", avec le truc qui suit qui est manifestement faux), il me dit oui oui, vous avez totalement raison, suivi d'explications forcément fausses (vu que je sais que l'affirmation est fausse).
    Oui il est très fort à ça. Je lui ait demandé un truc en VBA il y a peu, me supprimer les données d'un tableau.
    Il me sort un parcours de boucle avec des indices pété etc.

    Je me doute que le machin est pété, je lui demande, il me corrige les indices. Je lui demande si il n'y a pas plus simple quand même (je me doute qu'avec le nom du tableau on peut supprimer tout le contenu en une ligne dans un langage aussi haut niveau que le VBA) et évidemment il y avait, mais il fallut que je demande trois fois et que j'ai l'esprit critique très allumé.

  20. #5450
    Citation Envoyé par Zapp le Grand Voir le message
    Tu supposes mais encore une fois, on va faire confiance à un truc qui ne "comprend" vraiment rien hein. Et donc il va pouvoir te sortir tout a fait juste comme une hallucination complètement fausse et va te raconter n'importe quoi avec le même aplomb.

    Et non, les hallucinations ne pourront jamais disparaitre. Et les GAFAM changent peu a peu leur discours en mode "oui mais c'est bien de voir les IA halluciner" et ils te sortent ce genre de dingueries :


    https://fortune.com/2024/04/16/ai-ha...le-researcher/

    (en mode les hallucinations c'est très bien c'est le premier pas vers la création de vraies solutions par des IA, et pas de réponse statistique.
    Non mais l'idée ici c'est ensuite de consulter les librairies voir si c'est pertinent et donc de comprendre ce que tu fais.
    D'un point de vu général, aidé ou pas, le mieux c'est toujours de comprendre ce que l'on fait, dans l'idéal avec le moins de boite noir possible.

    On en revient à l'utilisation, pour le moment ça parait complètement impossible à utiliser yeux fermé pour du code par exemple. Par contre pour suggérer, donner des idée ça peut être bon, voire parfois corriger une erreur bête non vue.
    Pour un étudiant au final qui l'utilise pour apprendre en sachant les limitations c'est pas mal.
    "Les faits sont têtus."


  21. #5451
    Citation Envoyé par Laya Voir le message
    Tu lui a demandé d'écrire le code, c'est plus difficile, pas certain que j'aurais fait confiance à chat gpt pour qu'il ponde entièrement un tri à bulle. Par contre dans le sens inverse demande lui de commenter un code qui est bon pour t'expliquer ce qu'il fait, je suppose qu'il devrait mettre moins de bêtise.
    Mouais mais c'est largement moins utile. Soit il reconnaît quelque chose de standard, et dans ce cas c'est inutile sauf pour répondre à la question rhétorique "que fait ce code"; soit il va te paraphraser le truc.

    Typiquement je ne connais pas ton exemple mais quand je lui demande "que me conseil tu comme librairie pour la suppression dans un arbre rouge et noir?"
    Il me pond :
    Alors déjà, j'espère qu'il te reprend quand tu lui parles de librairie et qu'il insiste pour parler de bibliothèque. J'ai déjà remarqué qu'il parlait un meilleur français que la plupart des étudiants.

    Ensuite... très précisément, ce que je lui demande, c'est du code qui pourrait servir de base à une bibliothèque. Le genre de truc qu'on demande dans les cours d'introduction à l'algorithmique (le but c'est d'avoir suffisamment compris comment fonctionnent les algos de base pour être capable de les traduire dans le langage en question). D'ailleurs c'est dans ce sens qu'il essaie de me répondre, c'est juste qu'il ne fait pas ça correctement.

    S'il y avait une réelle volonté d'être utile, plutôt que de donner du code faux et de jouer les carpettes quand je râle, il renverrait à des sources fiables (des bouquins qui expliquent comment ça marche il y en a, et certains donnent des exemples de code dans différents langages évidemment). Il le fait, mais seulement si je le demande explicitement.

  22. #5452
    Citation Envoyé par Nilsou Voir le message
    Déja qu'ils étaient allé bien loin sur ce terrain, ça va devenir pire que les android quoi ...
    Et ben ça sera Linux et Steam pour moi.

    Et pour le PC de ma société, on verra en temps et en heure mais je ne me vois vraiment pas risquer de compromettre les données de mes clients parce que Windows n'aura pas sécurisé son merdier.

  23. #5453
    Citation Envoyé par Shosuro Phil Voir le message
    Mouais mais c'est largement moins utile. Soit il reconnaît quelque chose de standard, et dans ce cas c'est inutile sauf pour répondre à la question rhétorique "que fait ce code"; soit il va te paraphraser le truc.



    Alors déjà, j'espère qu'il te reprend quand tu lui parles de librairie et qu'il insiste pour parler de bibliothèque. J'ai déjà remarqué qu'il parlait un meilleur français que la plupart des étudiants.

    Ensuite... très précisément, ce que je lui demande, c'est du code qui pourrait servir de base à une bibliothèque. Le genre de truc qu'on demande dans les cours d'introduction à l'algorithmique (le but c'est d'avoir suffisamment compris comment fonctionnent les algos de base pour être capable de les traduire dans le langage en question). D'ailleurs c'est dans ce sens qu'il essaie de me répondre, c'est juste qu'il ne fait pas ça correctement.

    S'il y avait une réelle volonté d'être utile, plutôt que de donner du code faux et de jouer les carpettes quand je râle, il renverrait à des sources fiables (des bouquins qui expliquent comment ça marche il y en a, et certains donnent des exemples de code dans différents langages évidemment). Il le fait, mais seulement si je le demande explicitement.
    Il comprend très bien le Franglais et les fautes d'orthographes (et là j'ai fait les deux en plus). Tu remarqueras d'ailleurs qu'il a répondu en utilisant le mot bibliothèque.
    D'ailleurs parfois je suis assez bluffé qu'il "comprenne" tellement j'écris ça à l'arrache.

    Pour revenir à ton problème je pense que chat gpt ne doit pas être utilisé pour faire ce que tu lui demandes. Même un simple tri je ne lui ferais qu'une confiance toute relative. En faite il est meilleur dans exactement l'inverse, quand tu es bloqué par la nomenclature (manque de connaissance du langage) plutôt que par la complexité du problème (donc l'algorithmie). Et pour cause ça fait + appel à du par cœur que du raisonnement.
    Par exemple pour du SQL généralement ça donne d'assez bonne réponses.
    "Les faits sont têtus."


  24. #5454
    Même comme ça, regarde mon exemple du VBA plus haut : c'est de la nomenclature. Face à 15 solutions permettant de faire la même chose, il ne te sortira pas forcément la fonction la plus évidente qui prends une ligne.
    Donc même pour chercher une fonction dont tu te doutes de l'existence mais que tu n'a pas envie de fouiller la doc, c'est moyen, et faut insister très fort !

  25. #5455
    Citation Envoyé par Bah Voir le message
    Je suis pas d'accord. Son créneau c'est de répondre à tout et n'importe quoi. Si c'était pas le cas, on pourrait pas lui poser tout et n'importe quoi comme question et avoir des réponses.
    Il répond à tout et n'importe quoi.


  26. #5456
    Le problème c'est que les utilisations que j'ai tentées, c'est des cas que je soupçonne fort mes étudiants de tenter également (et j'ai la faiblesse de penser que ma formulation est plutôt plus précise que la leur, et mon esprit critique plus affuté; ce qui est normal parce qu'après tout, l'exo je le connais).

    L'autre souci, c'est que les réponses que me fait ChatGPT, elles sont assez longues et elles ont une apparence assez trompeuse. Quand je suis face à l'interface et que je sais que je suis censé chercher la petite bête, je la trouve; mais s'il faut débroussailler 30 réponses d'étudiants dont 20 ont été produites par un LLM, je vais avoir du mal à tenir, sauf à appliquer un délit de sale gueule "c'est écrit dans un français correct, ça doit être un LLM".

  27. #5457
    Citation Envoyé par Zapp le Grand Voir le message
    https://www.arretsurimages.net/chron...calypse-google

    Article super intéressant (et gratuit)
    Merci pour le partage. Outch, Google semble sérieusement et littéralement penser que le caca c'est surpuissant Oo.
    Dernière modification par Oncle_Bob ; 23/05/2024 à 18h40.

  28. #5458
    Citation Envoyé par Nilsou Voir le message
    Même comme ça, regarde mon exemple du VBA plus haut : c'est de la nomenclature. Face à 15 solutions permettant de faire la même chose, il ne te sortira pas forcément la fonction la plus évidente qui prends une ligne.
    Donc même pour chercher une fonction dont tu te doutes de l'existence mais que tu n'a pas envie de fouiller la doc, c'est moyen, et faut insister très fort !
    C'est loin d'être parfait ça reste un peu la roulette mais il donne souvent des truc intéressants de mon utilisation en tout cas.

    Il me propose ça à ta question, c'est faux?
    Sub EffacerToutesDonneesTableau()
    Dim ws As Worksheet
    Dim tbl As ListObject

    ' Définir la feuille de calcul et le tableau
    Set ws = ThisWorkbook.Sheets("NomDeVotreFeuille")
    Set tbl = ws.ListObjects("NomDeVotreTableau")

    ' Effacer toutes les données du tableau
    tbl.DataBodyRange.ClearContents
    End Sub
    "Les faits sont têtus."


  29. #5459
    Citation Envoyé par Zapp le Grand Voir le message
    https://www.arretsurimages.net/chron...calypse-google

    Article super intéressant (et gratuit)
    Très intéressant.
    Bon à la fin il s’énerve un peu quand même. C'est pas bon pour le coeur Pépère.

  30. #5460
    Citation Envoyé par @si
    Google détient 90, 1% du marché de la recherche en ligne. Google est un monopole. Il ne craint ni la régulation, ni la compétition, ni l'échec commercial. Il n'a même plus besoin que son service soit fiable. Google peut s'auto-mutiler sans sourciller
    Le mec, comme beaucoup de gens qui croient savoir, ne réalise pas comment les monopoles sont fragiles dans la Tech

    Regardez l'impact du DMA sur les petits browser , Aloha, Opera ...

    Croyez moi si Google saborde vraiment son produit (ce que je ne pense pas, mais c'est vrai que Google négocie mal le virage algorithme>IA), les gens vont se casser.

    Après l'article a vraiment de quoi etre pris avec des pincette, la diatribe est belle mais elle exagère aussi (Sur Duplex, c'est 25 % des appels qui ont recours a des humains, pas tous)

    On va attendre de voir, et Google est remplie de gens très - voire trop - pragmatiques, si un truc n'est pas assez utilisé ils vont le tuer très rapidement

Page 182 sur 189 PremièrePremière ... 82132172174175176177178179180181182183184185186187188189 DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •