Oui totalement d'accord c'est + l'utilisation qui est problématique et le marketing autour et qui pourrait amener à de gros problème à long terme, un peu à mes yeux comme quand google te donne en première page des liens hyper douteux pour de l'information.
Une partie des utilisateurs va faire confiance par défaut et ça s'est véritablement problématique (surtout si la précision des IA ne s'améliore pas).
Pareil si le but n'est que de faire des économies ça pourrait donner des aberrations.
Une autre problématique dans le style qu'on voit déjà pointé c'est que beaucoup de personnes notamment chez les (jeune mais pas que) informaticiens utilisent ça en entreprise sans se poser la question de ou va l'information en mettant potentiellement des données confidentielles par exemple.
D'autant que niveau budget je me demande aussi comment ça va être rentable pour le moment, je pense qu'il faut que ça se tasse un peu, voir si on arrive à mettre en production, pour quel coût avec quelle scalabilité (parce que quand modèle prend une A100 à lui tout seul ça te donne 20 000 euro les 10 utilisateurs, ça fait chère l'utilisateur ). Tout en mettant en parallèle les progrès qu'on va faire niveau carte graphique (qui vont ralentir mais à quel rapidité?).
"Les faits sont têtus."
mmm non.
une machine comme gpt te donne surtout des réponses correcte à la question.
La question étant comment bien poser une question pour correctement questionner la réponse à la question.
Intuitivement, un être humain connait les conventions sociales et professionnelles (pas tous ). Quand on donne des citations, on les vérifie avant par exemple.
gpt... non. Si tu lui demandes d'inclure des citations de Georges W. Bush, il invente les citations. Il fait des citations. Fausses. Mais parfois ce sont de vraies citations.
Mais c'est logique par rapport à son fonctionnement,
Donc il te fait plaisir.Envoyé par ChatGPT
Le détail est que gpt prend les instructions au minimum. il n'invente pas de contexte. Il n'a jamais travaillé non plus.
Il a ses handicaps aussi
Et en mélangeant les deux:Envoyé par ChatGPT
Et le pire, c'est une feature, pas un bugEnvoyé par ChatGPT
Donc il faut lui préciser le contexte jusqu'au moindre détails (imagine les gens stupides au travail qui font très très exactement ce qu'on leur dit de faire) et développer les moyens de lui faire vérifier son travail.Envoyé par ChatGPT
De toutes facons, vu le tournant qu'a pris google ces dernières années, je suis a peu près sûr que l'intégration de l'IA en première reponse de leur moteur de recherche, c'est une giga idée de merde. En l'état et même si ca se "perfectionne" plus tard (ce dont je doute également)
Je pense que le biais initial c’est qu’ « on » a tendance à prendre tout ce qui vient d’un ordinateur (ex : un calcul) pour argent comptant. Pour les recherches sur Internet on a tous (enfin, presque.) appris à regarder la source de la donnée. Là on a aucune prise. De fait, si le taux d’erreur est significatif, c’est très problématique. Surtout s’il n’y a aucune mise en perspective, et que « c’est bien présenté ».
Moi aussi j’ai tendance à éliminer d’office les sources pas fiables, un exemple parlant, ce sont les médias.
Et franchement, j’ai un doute sur l’esprit critique moyen. Ca risque de pas être très beau tout ça.
De toute façon pour le moment l'IA sert surtout à ça:
Et on fera jamais meilleur utilisation ...
Weng Weng Weng Weng two feet nine, He kicks you in the nutsack from behind
C'est pour ça que beaucoup de projet en cours vont vers le RAG qui consiste grosso modo à mettre des données juste dans des bases de données (vectoriel) pour ensuite les piocher selon la question (assisté ou pas par IA à ce moment) et donner à l'IA le devoir de chercher la réponse dans ce lot de document.
Normalement ça diminue les chances de faire de fausse réponse, encore + si tu demandes à l'IA de dire 'je n'ai pas l'information' quand elle n'est pas explicit dans les documents, et encore + si tu utilises une autre IA qui va vérifier que la réponse de la première IA est bien en adéquation avec la question (voire avec les documents trouvés).
Reste qu'ici aussi il peut y avoir hallucination et plein de manière de mal le faire, mais probablement aussi des manière de faire un truc propre qui répond bien. Et ca on devrait le savoir dans les années/mois qui viennent.
Et pour reprendre le cas des champignons tu peux imaginer un système qui va justement rechercher dans une base de données assez rigoureuse pour ressortir ce à quoi la photo semble correspondre. Si tu fais le tout au conditionnel : cette photo semble être le bolet machin truc en te sortant la photo du bolet en question voire la page de document de champignons correspondant et potentiellement faire moins d'erreur qu'un humain (tu rajoutes les champignons dangereux les plus ressemblant aussi).
C'est pas parfait, mais c'est peut être moins dangereux qu'une personne avec son bouquin de champignon a essayé de voir si ça ressemble à la seule photo du bouquin dessiné à la main .
"Les faits sont têtus."
C'est évident que ce problème de Confiance envers les IA va devoir etre réglé et qu'i lest pris au sérieux.
La première étape était d'avoir un truc qui passe le test de Turing, et maintenant on est les Dr Zaius.
L'étape 2 est de les rendre fiables, donc selection dynamique de corpus, appairage avec des bots/scripts ou API ...
La partie LLM / Perroquet ne servira plus a donner l'information dans un futur proche, ce sera juste sa partie du cerveau qui correspond au langage.
On en demande trop et trop rapidement
Le tri à bulle c'est genre l'exercice 0 de tous les cours sur les algorithmes de tri, il y a forcément dans le corpus internet des centaines de milliers de codes et de pseudocodes qui le font et qui ne sont pas trop faux. Je ne suis d'ailleurs pas certain que les codes corrects soient plus nombreux que les faux, mais bon.
Mais c'est pervers: c'est un truc hyper bateau et ça donne une fausse impression de sécurité, résultat le risque de lui faire confiance pour des trucs plus complexes est élevé.
Je viens de faire l'expérience (félicitations: ça faisait presque 2 ans que j'avais réussi à ne pas créer de compte ChatGPT), et après le tri bulle en Python je lui ai demandé un peu plus compliqué: suppression dans un arbre rouge et noir, en Ocaml. C'est un exercice nettement moins bateau, parce qu'il y a des cas compliqués à gérer, et il est beaucoup moins présent dans les textes facilement trouvables. Et là, ça fait 20 minutes que le LLM me sert des salades, en me présentant du code d'apparence raisonnable mais soit en me disant "ça couvre la majorité des cas", soit quand j'insiste, "voici du code complet et correct", mais à chaque fois que je souligne un problème il change un peu son code, puis il me sert des explications vaseuses...
C'est hyper pervers, parce qu'en apparence c'est très convaincant: la grande majorité des étudiants de Licence s'expriment dans un français beaucoup moins clair, et en surface ça ressemble à des explications correctes; les descriptions des propriétés attendues sont les bonnes, c'est juste que le code proposé ne les respecte pas. Mais quand je lui présente un argument rhétorique ("on est bien d'accord que...", avec le truc qui suit qui est manifestement faux), il me dit oui oui, vous avez totalement raison, suivi d'explications forcément fausses (vu que je sais que l'affirmation est fausse).
De mon point de vue, Wikipedia reste meilleur sur le fonctionnement.
Le système qui permet à chacun de corriger, mais sous l'oeil de tous, est infiniment plus ouvert que les bases de données d'entrainement qui sont opaques, et qui ne sont pas forcément corrélées aux erreurs ensuite de l'IA (enfin si, c'est corrélé mais l'IA peut inventer des trucs faux sans qu'on ne puisse le deviner à partir de la base de donnée, ni le corriger facilement).
Le fait de guider vers une source d'info, c'est surement mieux mais ça va être chaud puisque l'usage principal serait de trouver des infos un peu difficile à piocher par exemple.
J'ai du mal à voir le temps que ça me ferait gagner perso... mais je peux me tromper. Après tout par flemme maintenant dès qu'on cherche un truc un peu flou on demande à chatGPT certaines choses.
J'ai l'impression qu'en parallèle il y a aussi une redistribution des gens vers des recherches dans des réseaux fermés, genre reddit, où c'est parfois plus simple de trouver des infos.
En aparté, l'IA ça fait bien du mal à une recherche google déja bien pété. Sur certains sujets j'ai presque tout les premiers résultats où c'est des textes générés par IA, j'en peut JUSTE PLUS. Ça me tue ça. C'est assez épuisant.
Dernière modification par Nilsou ; 23/05/2024 à 16h31.
Tu lui a demandé d'écrire le code, c'est plus difficile, pas certain que j'aurais fait confiance à chat gpt pour qu'il ponde entièrement un tri à bulle. Par contre dans le sens inverse demande lui de commenter un code qui est bon pour t'expliquer ce qu'il fait, je suppose qu'il devrait mettre moins de bêtise.
Il est assez bon pour proposer des librairies parfois aussi.
Typiquement je ne connais pas ton exemple mais quand je lui demande "que me conseil tu comme librairie pour la suppression dans un arbre rouge et noir?"
Il me pond :
Vu que j'y connais rien je suis aller voir le homepage de les librairies python qui ont l'air pas trop mal à propos.Pour implémenter la suppression dans un arbre rouge et noir, il existe plusieurs bibliothèques et frameworks en fonction du langage de programmation que vous utilisez. Voici quelques suggestions pour différents langages :
C++
Boost.Intrusive : La bibliothèque Boost offre une implémentation d'arbres rouges et noirs, ainsi que d'autres structures de données avancées. Boost est bien documenté et largement utilisé dans la communauté C++.
Boost.Intrusive Documentation
GNU libstdc++ : Si vous utilisez le compilateur GCC, la bibliothèque standard C++ inclut une implémentation de std::map et std::set qui utilisent des arbres rouges et noirs sous le capot.
Python
SortedContainers : Cette bibliothèque propose des conteneurs triés qui peuvent être utilisés comme des arbres rouges et noirs. Elle est bien optimisée et facile à utiliser.
SortedContainers Documentation
bintrees : Une bibliothèque simple pour les arbres binaires, y compris les arbres rouges et noirs.
bintrees Documentation
Java
TreeMap : La classe TreeMap de Java est une implémentation d'arbre rouge et noir. Elle fait partie de la bibliothèque standard de Java.
TreeMap Documentation
C#
SortedDictionary : La classe SortedDictionary de .NET utilise un arbre rouge et noir pour stocker les éléments de manière ordonnée.
SortedDictionary Documentation
Go
RBT : Une implémentation d'arbres rouges et noirs en Go, disponible sur GitHub.
RBT on GitHub
Rust
rbtree : Une bibliothèque simple et efficace pour les arbres rouges et noirs en Rust.
rbtree on crates.io
En fonction de votre langage de programmation préféré et de vos besoins spécifiques, vous pouvez choisir l'une de ces bibliothèques pour implémenter la suppression dans un arbre rouge et noir. Assurez-vous de consulter la documentation de chaque bibliothèque pour comprendre comment elle gère les opérations de suppression et d'autres fonctionnalités.
Dans ce cas là si tu es néophyte tu ne peux pas savoir si c'est bon ou pas, néanmoins ça peut te donner des indices de librairie à maîtriser en rapport avec ton problème par exemple. Alors qu'a défaut aucune idée de ce qui aurait pu correspondre.
"Les faits sont têtus."
Tu supposes mais encore une fois, on va faire confiance à un truc qui ne "comprend" vraiment rien hein. Et donc il va pouvoir te sortir tout a fait juste comme une hallucination complètement fausse et va te raconter n'importe quoi avec le même aplomb.
Et non, les hallucinations ne pourront jamais disparaitre. Et les GAFAM changent peu a peu leur discours en mode "oui mais c'est bien de voir les IA halluciner" et ils te sortent ce genre de dingueries :
https://fortune.com/2024/04/16/ai-ha...le-researcher/AI hallucinations will be solvable within a year, ex-Google AI researcher says—but that may not be a good thing: ‘We want them to propose things that are weird and novel’
(en mode les hallucinations c'est très bien c'est le premier pas vers la création de vraies solutions par des IA, et pas de réponse statistique.
Oui mais c'est comme ça que ca fonctionne. Ce n'est pas un système éducatif.
Si tu attend qu'il te dise non, c'est mal parti, parce que ce n'est pas sa fonction, il va toujours intégrer l'information que tu lui donnes. Le but de chatGPT est de fournir une réponse dans le contexte que tu lui fournis et fondamentalement il génère une réponse à la question en fonction de ce qu'il a appris. Dès que tu vas sortir du "simple" il va être perdu. il n'est pas capable de créer des réponses fiables sur du complexe. Le but de sa réponse est de te faire plaisir en te donnant une réponse, mais l'exactitude, la contradiction, le débat, non, ce n'est pas l'objectif.
Voici quelques domaines où je peux généralement fournir des réponses fiables :
Informations générales : Histoire, géographie, sciences, mathématiques, etc.
Langues : Grammaire, orthographe, traductions simples, etc.
Technologie : Informatique, Internet, programmation, nouvelles technologies, etc.
Culture générale : Littérature, arts, musique, cinéma, etc.
Aide à la rédaction : Correction grammaticale, suggestions de style, et
Cependant, gardez à l'esprit qu'il peut y avoir des limites à ma précision et ma compréhension dans des domaines très spécialisés ou techniques, ainsi que dans les langues autres que l'anglaisSon créneau c'est le globalement simple pour la personne lambda. Si tu veux faire du code, non, ce n'est pas le bon agent. C'est plus vikidia que Skynet.En parlant de technologie, je peux fournir des informations et des réponses sur un large éventail de sujets, notamment :
Informatique : Je peux vous aider à comprendre les concepts informatiques de base tels que les systèmes d'exploitation, les réseaux informatiques, la sécurité informatique, etc.
Programmation : Je peux répondre à des questions sur différents langages de programmation, des concepts de programmation tels que les structures de données, les algorithmes, la logique de programmation, etc. Cependant, ma capacité à générer du code spécifique dépendra de mes connaissances préalables et de la complexité de la tâche.
Nouvelles technologies : Je peux vous fournir des informations sur les dernières avancées technologiques dans des domaines tels que l'intelligence artificielle, l'apprentissage automatique, l'Internet des objets, la blockchain, etc.
Matériel informatique : Je peux répondre à des questions sur les composants matériels tels que les processeurs, les cartes graphiques, les mémoires, les disques durs, etc.
Applications et logiciels : Je peux vous aider à comprendre le fonctionnement des différentes applications et logiciels, ainsi que vous fournir des conseils sur leur utilisation.
Tendances technologiques : Je peux discuter des tendances actuelles dans le domaine de la technologie et des implications qu'elles peuvent avoir sur la société et l'économie.
Sur un autre domaine, tu peux lui demander de t'aider à créer un roman de science-fiction et tu lui promptes ton idée. Ton idée sera toujours formidable/passionnante/intriguante (mettre un adjectif élogieux). Même si elle est complétement nulle.
https://www.arretsurimages.net/chron...calypse-google
Article super intéressant (et gratuit)
Oui il est très fort à ça. Je lui ait demandé un truc en VBA il y a peu, me supprimer les données d'un tableau.
Il me sort un parcours de boucle avec des indices pété etc.
Je me doute que le machin est pété, je lui demande, il me corrige les indices. Je lui demande si il n'y a pas plus simple quand même (je me doute qu'avec le nom du tableau on peut supprimer tout le contenu en une ligne dans un langage aussi haut niveau que le VBA) et évidemment il y avait, mais il fallut que je demande trois fois et que j'ai l'esprit critique très allumé.
Non mais l'idée ici c'est ensuite de consulter les librairies voir si c'est pertinent et donc de comprendre ce que tu fais.
D'un point de vu général, aidé ou pas, le mieux c'est toujours de comprendre ce que l'on fait, dans l'idéal avec le moins de boite noir possible.
On en revient à l'utilisation, pour le moment ça parait complètement impossible à utiliser yeux fermé pour du code par exemple. Par contre pour suggérer, donner des idée ça peut être bon, voire parfois corriger une erreur bête non vue.
Pour un étudiant au final qui l'utilise pour apprendre en sachant les limitations c'est pas mal.
"Les faits sont têtus."
Mouais mais c'est largement moins utile. Soit il reconnaît quelque chose de standard, et dans ce cas c'est inutile sauf pour répondre à la question rhétorique "que fait ce code"; soit il va te paraphraser le truc.
Alors déjà, j'espère qu'il te reprend quand tu lui parles de librairie et qu'il insiste pour parler de bibliothèque. J'ai déjà remarqué qu'il parlait un meilleur français que la plupart des étudiants.Typiquement je ne connais pas ton exemple mais quand je lui demande "que me conseil tu comme librairie pour la suppression dans un arbre rouge et noir?"
Il me pond :
Ensuite... très précisément, ce que je lui demande, c'est du code qui pourrait servir de base à une bibliothèque. Le genre de truc qu'on demande dans les cours d'introduction à l'algorithmique (le but c'est d'avoir suffisamment compris comment fonctionnent les algos de base pour être capable de les traduire dans le langage en question). D'ailleurs c'est dans ce sens qu'il essaie de me répondre, c'est juste qu'il ne fait pas ça correctement.
S'il y avait une réelle volonté d'être utile, plutôt que de donner du code faux et de jouer les carpettes quand je râle, il renverrait à des sources fiables (des bouquins qui expliquent comment ça marche il y en a, et certains donnent des exemples de code dans différents langages évidemment). Il le fait, mais seulement si je le demande explicitement.
Il comprend très bien le Franglais et les fautes d'orthographes (et là j'ai fait les deux en plus). Tu remarqueras d'ailleurs qu'il a répondu en utilisant le mot bibliothèque.
D'ailleurs parfois je suis assez bluffé qu'il "comprenne" tellement j'écris ça à l'arrache.
Pour revenir à ton problème je pense que chat gpt ne doit pas être utilisé pour faire ce que tu lui demandes. Même un simple tri je ne lui ferais qu'une confiance toute relative. En faite il est meilleur dans exactement l'inverse, quand tu es bloqué par la nomenclature (manque de connaissance du langage) plutôt que par la complexité du problème (donc l'algorithmie). Et pour cause ça fait + appel à du par cœur que du raisonnement.
Par exemple pour du SQL généralement ça donne d'assez bonne réponses.
"Les faits sont têtus."
Même comme ça, regarde mon exemple du VBA plus haut : c'est de la nomenclature. Face à 15 solutions permettant de faire la même chose, il ne te sortira pas forcément la fonction la plus évidente qui prends une ligne.
Donc même pour chercher une fonction dont tu te doutes de l'existence mais que tu n'a pas envie de fouiller la doc, c'est moyen, et faut insister très fort !
Le problème c'est que les utilisations que j'ai tentées, c'est des cas que je soupçonne fort mes étudiants de tenter également (et j'ai la faiblesse de penser que ma formulation est plutôt plus précise que la leur, et mon esprit critique plus affuté; ce qui est normal parce qu'après tout, l'exo je le connais).
L'autre souci, c'est que les réponses que me fait ChatGPT, elles sont assez longues et elles ont une apparence assez trompeuse. Quand je suis face à l'interface et que je sais que je suis censé chercher la petite bête, je la trouve; mais s'il faut débroussailler 30 réponses d'étudiants dont 20 ont été produites par un LLM, je vais avoir du mal à tenir, sauf à appliquer un délit de sale gueule "c'est écrit dans un français correct, ça doit être un LLM".
Dernière modification par Oncle_Bob ; 23/05/2024 à 18h40.
C'est loin d'être parfait ça reste un peu la roulette mais il donne souvent des truc intéressants de mon utilisation en tout cas.
Il me propose ça à ta question, c'est faux?
Sub EffacerToutesDonneesTableau()
Dim ws As Worksheet
Dim tbl As ListObject
' Définir la feuille de calcul et le tableau
Set ws = ThisWorkbook.Sheets("NomDeVotreFeuille")
Set tbl = ws.ListObjects("NomDeVotreTableau")
' Effacer toutes les données du tableau
tbl.DataBodyRange.ClearContents
End Sub
"Les faits sont têtus."
Le mec, comme beaucoup de gens qui croient savoir, ne réalise pas comment les monopoles sont fragiles dans la TechEnvoyé par @si
Regardez l'impact du DMA sur les petits browser , Aloha, Opera ...
Croyez moi si Google saborde vraiment son produit (ce que je ne pense pas, mais c'est vrai que Google négocie mal le virage algorithme>IA), les gens vont se casser.
Après l'article a vraiment de quoi etre pris avec des pincette, la diatribe est belle mais elle exagère aussi (Sur Duplex, c'est 25 % des appels qui ont recours a des humains, pas tous)
On va attendre de voir, et Google est remplie de gens très - voire trop - pragmatiques, si un truc n'est pas assez utilisé ils vont le tuer très rapidement