Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 173 sur 183 PremièrePremière ... 73123163165166167168169170171172173174175176177178179180181 ... DernièreDernière
Affichage des résultats 5 161 à 5 190 sur 5469
  1. #5161
    Vivement que l'IA nous pique tous nos métiers surtout, qu'on arrête de bosser comme des débiles et qu'on puisse se concentrer juste sur ce qu'on aime, pour soi

  2. #5162
    C'est déjà ce qui commence à se passer dans le graphisme.

  3. #5163
    Mais si l'IA se concentre sur ce que tu aimes et le fait mieux

    (nan j'ai juste fait mumuse avec le chat robot 2 min, mais je suis bloqué j'ai dépassé le quota )

    J'étais en train d'essayer de créer un automate via le chat lol, vu que tu peux faire référence aux réponses d'avant et faire des chaines d'actions ("answer that, then), je voulais faire genre une boucle ou un truc rigolo

  4. #5164
    Citation Envoyé par Kamikaze Voir le message
    https://i.ibb.co/5Wxxr7D/image.png

    Vivement qu'on fasse de la crypto et du guidage de missile avec les IA
    Alors on fait déjà du guidage de missile avec des IAs, ça je peux te l'assurer puisque diverses équipes de ma connaissance bossent dessus On fait notamment de la reconnaissance visuelle en temps réels avec des IAs de reconnaissances utilisant des réseaux de neurones déployés sur FPGA, entre autre.
    Peu d’intérêt pour la crypto, mais on fait de la compression avec pertes, de plus en plus.

    Sinon, oui, bien sur que ChatGPT n'a pas de notion très approfondie, ce n'est qu'une base de donnée gigantesque statistiques, elle n'a pas de connaissance interne sur elle même ou même sur ses réponses passées (ce pourquoi quand tu lui demande une réponse en 3 mot elle n'y arrive pas), ce n'est pas un véritable robot qui aurait appris en tentant des trucs par essais erreur, ce qui sépare nettement ce type d'algorithme de type « une entrée une sortie » d'algorithmes bouclés qui agissent sur le monde, observe le résultat de leur action et réagissent/corrigent en conséquences.

    Les personnes de mon domaine disent que de véritables IAs ne peuvent exister qu'a partir du moment où on fait la boucle complète action sur le monde -> observation -> réflexion -> réaction agissant sur le monde etc.
    ChatGPT et toutes les IAs génératrices ne sont donc, dans cette définition que j'approuve, que des outils statistiques, de gigantesques abaques. Mais poussées tellement à l’extrême que si tu leur demande de générer quelques choses de généralistes, genre une histoire ou une dissertation, c'est bluffant, alors même qu'elle n'a aucune connaissance sur elle même.

    Et c'est déjà bien suffisant pour :

    - Foutre en l'air pas mal de personnes bossant dans le graphismes.
    - Foutre en l'air pas mal de personnes bossant dans le son.
    - Foutre en l'air pas mal de personnes bossant dans la trad.

    Et éventuellement causer bien du soucis à de gros moteur de recherche comme google. (Écouter à ce propos le début du podcast Soft Power, sur France Culture, diffusé aujourd'hui, qui revient sur la panique qui sévit chez Google actuellement).

    2023 va être chahuté ...

    Et on ne parle que de la face IA génératrice de la pièce, je ne mentionne pas la face IA de détection/reconnaissances, qui dépasse maintenant les performances humaines dans bien des domaines et qui est en train de fournir des outils rêvés pour toutes les dictatures en herbes et les républiques qui aimeraient serrer un peu la vis. (tient d'ailleurs, rappelons qu'Open AI, les mecs derrières chat GPT et Dall-E est financée à la base par Elon Musk, certes, mais aussi par Palentir, spécialistes de la fournitures d'armes/drones/logiciels de traques basés sur l'IA à pas de services armées/renseignements et autres groupements divers peu rigolo de par le monde ).
    Dernière modification par Nilsou ; 02/01/2023 à 01h15.

  5. #5165
    Citation Envoyé par Kamikaze Voir le message
    https://i.ibb.co/5Wxxr7D/image.png

    Vivement qu'on fasse de la crypto et du guidage de missile avec les IA
    Oui mais 3⁴×7×11²×13×17 = 15162147, donc c'est 99.7% vrai. C'est largement suffisant.
    "Dieu est mort" · "Si le téléchargement c’est du vol, Linux c’est de la prostitution."

  6. #5166
    Citation Envoyé par rOut Voir le message
    Oui mais 3⁴×7×11²×13×17 = 15162147, donc c'est 99.7% vrai. C'est largement suffisant.
    pour un missile ? Yep, généralement. C’est comme les fuites memoires, c’est pas forcément le plus grave sur un missile…
    Ce qu'il faut savoir, c'est qu'on ment beaucoup aux minmatars, surtout lorsqu'ils posent des questions du style: "t'es sûr que ça vole, ce truc ?" Cooking Momo, le 30/08/09

  7. #5167
    C'tait pour la blague, c'tait pour la blague



    Sinon pour info en s'inscrivant sur openai vous avez un accès (limité j'imagine) à tous leurs autres trucs, y'a aussi de la génération d'image, etc.

    - - - Mise à jour - - -

    Le défi de la semaine, trouver comment faire dire des gros mots à cette gentille AI



    - - - Mise à jour - - -



    J'pense que les AI vont remplacer les humoristes

    - - - Mise à jour - - -

    Interdit -18

    Spoiler Alert!


    - - - Mise à jour - - -

    C'est pas moi qui l'ait dit!


  8. #5168
    J'ai vu un échange du genre avec des questions du type "ma sœur avait la moitié de mon age quand j'avais 6 ans. J'ai 49 ans, quel âge etc... " Et l'IA concluait très sérieusement que la soeur grandissait plus vite avec une belle démonstration...
    Dernière modification par William Vaurien ; 03/01/2023 à 23h54.

  9. #5169
    C'est donc au dessus du niveau moyen des réponses à ce genre d'énigme sur Facebook ou Reddit.
    C'est la faute à Arteis

  10. #5170
    Tout comme on voit stable-diffusion immerger youtube d'illustrations plus ou moins claquées mais à 0€ et libres de droit, ChatGPT commence à infuser diverses sphères d'activité.
    Et notamment la production de devoirs à la maison.

    Il y a quelques semaines, un article de Vice pourri jusqu'à l'os mentionnait un étudiant américain plus con que son clavier qui se vantait d'écrire ses dissertations avec ChatGPT sans se faire gauler. J'ai pas relayé tellement c'était infantile: le mec se met un gros emprunt sur le dos pour suivre un cursus, et une fois sur place n'en profite pas.

    Mais le phénomène prend assez d'ampleur pour qu'on arrive à le détecter en France. Pour la peine, un excellent article de Checknews sur le sujet.
    https://www.liberation.fr/checknews/...IDGDJEQOPGUSE/

    Donc oui, l'IA se détecte, elle a ses limite et ses failles, et y'aura de plus en plus de moyens de discerner un travail humain d'un travail IA. De manière plus générale, ce sont les activités répétitives de l'apprentissage qui se retrouvent menacées, alors même qu'elles sont nécessaires pour forcer les verrous de notre système cognitif.

  11. #5171
    Tiens, je me demande : est=ce que ChatGPT est capable de detecter les textes produit par ChatGPT ?
    Ce qu'il faut savoir, c'est qu'on ment beaucoup aux minmatars, surtout lorsqu'ils posent des questions du style: "t'es sûr que ça vole, ce truc ?" Cooking Momo, le 30/08/09

  12. #5172
    Non.
    Par contre on doit pouvoir entrainer un modèle pour reconnaitre les textes produits par ChatGPT.
    Mais c'est une "bataille" sans fin.

    Le plus simple reste encore de modifier les cursus pour privilégier au maximum les travaux/examens/évaluations en présentiel (ou à minima des séances de questions-réponses et d'explication des devoirs fait en autonomie).
    C'est la faute à Arteis

  13. #5173
    Apparemment les auteurs de ChatGPT vont diffuser des watermarks textuels pour permettre d'identifier "leurs" textes. Ce qui risque de ne "servir à rien" si les filous utilisent des logiciels de reformulation.
    M'est avis que rajouter de la moulinette sur la moulinette va finir par rendre les textes directement identifiables comme des gros tas de merde. Alors que dans l'exemple de l'article, c'est parce que le prof a lu plusieurs devoirs en série qu'il a fini par repérer la filouterie.

  14. #5174
    Citation Envoyé par Orhin Voir le message
    Non.
    Par contre on doit pouvoir entrainer un modèle pour reconnaitre les textes produits par ChatGPT.
    Mais c'est une "bataille" sans fin.

    Le plus simple reste encore de modifier les cursus pour privilégier au maximum les travaux/examens/évaluations en présentiel (ou à minima des séances de questions-réponses et d'explication des devoirs fait en autonomie).
    Et ça existe déjà : GPTZero

    News qui m'a fait découvrir cet outil :
    Stéphane Bonvallet, enseignant en handicapologie à la faculté de Lyon, avait demandé à ses étudiants de plancher sur «l’approche médicale du handicap en Europe». Au moment de corriger les copies, un doute l’assaille. «Il ne s’agissait pas de copier-coller. Mais les copies étaient construites exactement de la même manière», relate-t-il dans le Progrès. «On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts. Enfin, elles étaient toutes illustrées par un exemple personnel, relatif à une grand-mère ou un grand-père…» Si ces copies n’étaient donc «pas normales», l’enseignant «n’a pas tout de suite compris de quoi il s’agissait. A l’évidence, il ne s’agissait pas d’un plagiat [de site web]». L’une des élèves avoue : la moitié des quatorze étudiants de master suivant le cours «s’étaient servi de l’intelligence artificielle ChatGPT».
    Suite ici : https://www.liberation.fr/checknews/...IDGDJEQOPGUSE/

    Comme tu le dis, ça va être le jeu du chat et de la souris.

  15. #5175
    Alala, tout le monde sort GPTZero en ce moment comme une sorte de Joker magique qui va tout sauver (je dis pas ça pour toi, mais dans les conversations avec les collègues, j'ai du entendre ça 5 fois déjà ^^). Mais c'est mal connaitre l'engin, d'abord ça marche surtout pour de long texte et ensuite ça ne sert à rien pour des trucs un peu formaté comme de la génération de code.
    Et enfin, et c'est le plus important, comme le note très bien Orhin, si ça marche à un instant t en s'appuyant sur les quelques failles de l'apprentissage initial, ça aura de plus en plus de mal a fonctionner au cours du temps, fort logiquement.
    À mon avis, c'est une assez mauvaise solution à moyen terme. Ne serais-ce que parce que si on peut construire une IA qui détecte les défaut de l'une, on peut améliorer la première avec cette info.

  16. #5176
    C'est ChatGPT qui a expliqué vouloir lutter contre la fraude en introduisant des watermarks.
    Je le rappelle, j'ai pas l'impression d'avoir été compris.

  17. #5177
    Je ne répondais que sur ce que disais Foudge.
    Pour le reste, je vois difficilement comment ils pourront introduire de manière fiable des watermarks sur un texte ... Il faudrait viser un style précise constamment, ce qui limiteraient grandement l'algo ...
    J'attends de voir comment et si ils le réalisent ...
    Je mets une piécette sur des paroles en l'air pour calmer les foules.
    Dernière modification par Nilsou ; 16/01/2023 à 20h13.

  18. #5178
    Citation Envoyé par vectra Voir le message
    C'est ChatGPT qui a expliqué vouloir lutter contre la fraude en introduisant des watermarks.
    Je le rappelle, j'ai pas l'impression d'avoir été compris.
    Je pense que tu as été compris, et personne ne t'a contredit

    J'ai juste rebondi sur ce que disait Orhin ("on doit pouvoir entrainer un modèle pour reconnaitre les textes produits par ChatGPT"), ça a déjà été fait et ça s'appelle GPTZero.
    Et je suis d'accord avec lui : c'est une bataille sans fin parce que GPTZero (ou même un éventuel watermark de ChatGPT), ça sera facile à contourner. Du coup faudra trouver de nouvelle méthode de détection, et on trouvera la parade, etc.
    Dernière modification par Foudge ; 16/01/2023 à 22h38.

  19. #5179
    Santiago, un dev sur Twitter :


    11 ways ChatGPT saves me hours of work every day, and why you'll never outcompete those who use AI effectively.
    A list for those who write code:
    https://twitter.com/svpino/status/1611357154514186241

  20. #5180
    Autant les premiers exemples, j'y croyais pas (l'explication de code en anglais plus longue et compliqué à lire que le code ), autant certains des exemples suivants m'ont scotché. La génération de tests et de documentation par exemple peut être un gain de temps assez dingue.

  21. #5181
    Pour écrire du boilerplate c'est assez évident, mais on n'a pas attendu les IA pour avoir des trucs pour faire ça, c'est juste que c'est un peu plus performant.

    (actuellement je dois déjà écrire moins de 5% de mon code total, et sans IA)

  22. #5182
    Hahahaha mais quelle blague. Au moins ça distingue les bons dev des tocards, c'est vraiment les exemples les plus contrits et ridicules que j'ai vu. C'est même pas niveau interview pour recruter un stagiaire.

    Genre c'est limite de la pub mensongère quoi. C'est exactement l'équivalent d'un influenceur qui te vend un shampoing à la l'huile de jojoba, c'est du grand n'importe quoi

    - - - Mise à jour - - -

    Ce sont des exemples qui n'ont AUCUN intérêt pour quelqu'un qui a un niveau if-statement / boucle for, donc ça ne ciblerait que les très grands débutants. Le problème c'est que ce ne sont que des considérations de quelqu'un qui connait déjà la réponse.

    Genre formatter le code, le débutant il s'en tape, il comprend pas l'intérêt (commit, travail en équipe, etc.), tu vas utiliser le code formatter approprié si le language n'en a pas (genre Go a du formattage intégré, c++ tu vas sûrement aller vers cland tidy).

    Ca prend plus longtemps à ChatGPT d'afficher que de le faire toi même, vraiment ça me dégoute de lire des bêtises pareilles

    Donc clairement le mec a forcé les exemples pour tenter de mettre en avant ChatGPT, ou créer un truc racoleur, un potentiel qui n'existe absolument pas
    Dernière modification par Anonyme20240202 ; 16/01/2023 à 23h32.

  23. #5183
    Ah bah c'est un influenceur effectivement, faut pas chercher plus loin

  24. #5184
    Pour la documentation par exemple, vous avez déjà un outil qui vous sort la description de chaque paramètre + une description de la méthode+ quelques exemples ?

  25. #5185
    Bah typiquement dans son exemple la doc est nulle, donc j'interdis pas de spéculer et dire "oui mais peut-être dans 10 ans...", mais on va rester sur ce qui est présenté.

    Pour répondre brièvement et directement à ta question je dirais que y'a rien qui ira au delà du boiler plate actuellement (à ma connaissance). Si tu génères de la doc pour ton code généralement c'est soit une librairie, soit pour expliquer quelque chose qui mérite de l'être avec un certain degré de contexte (hardware sur lequel ça va tourner, tests de perfs, domaine scientifique, etc.), de connaissances nécessaire voire d'une certaine complexité. Donc dans tous les cas tu dois être en mesure de comprendre ce qui est généré. Donc soit le code est d'ores et déjà lisible, soit y'a une liste de critère à remplir pour le documenter (complexité algorithmique, domaine métier, etc.) et typiquement ça ne demande pas vraiment de réseau de neurone ça demande simplement d'établir un schéma de documentation, donc y'a encore ce grand flou où on résout un problème "avec l'AI" alors que c'est avant tout avec ce qu'on sait déjà faire (savoir établi, algos de base), saupoudré d'AI peut-être.

    Si quelqu'un me commit un truc comme ça, c'est refusé, en entretien je ne prendrai pas non plus la personne, on est niveau collège, introduction à la programmation, aucun problème de débuter la programmation (comprendre les appels de fonction etc. c'est pas forcément intuitif). Mais le pire c'est que même ça c'est mal fait, donc vraiment aucune valeur.



    On va faire la liste de tout ce qui ne va pas avec cette doc, on pourrait faire ça pour chacun des posts du clown.
    Tiens je vais faire comme je fais pour mes revues de PR

    1) Erreur mineure: La fonction est suffisamment simple pour ne pas avoir besoin de doc, les paramètres sont nommés etc. Le code se lit de la même manière que la doc. Y'a parfois des blagues autour du self documenting code, mais la le code avec des variables bien nommées est compréhensible immédiatement.

    2) Erreur majeure: On a une variable nommée "arr" (array), mais documentée comme une "list" en tant que type. Vu qu'on est sur un langage sans static typing, c'est vraiment une énorme erreur. Là on est même sur une erreur de débutant qui apprend le langage quoi. Y'a des array dans numpy par exemple, distinct des listes
    En plus ça ne spécifie pas que ça doit être un conteneur de int, donc on laisse au lecteur le plaisir de découvrir ce qui se passe quand on lui file un array de string ou autre.

    3) Erreur majeure: Les cas les plus importants ne sont pas documentés: end avant start, range négative, out of bound (end au delà de la taille de arr), integer overflow (start + end), comportement avec un array taille 0, comportement avec un array taille 1.
    On sait pas si la range et l'array sont à indexer avec un départ à 0 ou à 1

    4) Erreur majeure: La complexité algorithmique QUI EST LE SEUL TRUC intéressant à documenter, n'est pas documentée. Typiquement le seul truc qui a le moindre intérêt c'est justement qu'on est pas sur une boucle de débutant qui serait en complexité O(n), donc y'a un seul truc à documenter, et c'est pas documenté. Y'a un seul truc pas forcément évident pour quelqu'un qui débute, et c'est pas documenté. Le choix du pivot n'est pas documenté.

    5) Erreur mineure: Le fait que le boolean retourne vrai est documenté 2 fois, c'est typique de la logorrhée chatGPT, "on retourne un bool qui indique si on l'a trouvé" suivi de "valeur de retour: bool vrai si trouvé"

    6) Erreur moyenne: Y'a pas l'explication que c'est docstring et que c'est une bonne manière effectivement de documenter le code, un débutant comprendra pas forcément que l'emplacement du commentaire fait partie d'une convention, donc plutôt que de blablater de la merde, autant pointer la personne vers la convention. Ca n'indique pas non plus, LE truc le plus important, comment exposer la Doc. Ce qui est fait par tous les frameworks de Docs, qui généralement vont générer un format lisible en dehors du code (quelques pages HTML avec des liens) à partir des docstrings

    C'est le genre de doc tellement naze qu'elle est dangereuse dans un contexte sérieux quoi (aviation/médical/industrie, etc.)
    Dernière modification par Anonyme20240202 ; 17/01/2023 à 00h22.

  26. #5186
    C'est certes pas parfait, mais avec une petite relecture et quelques modifs on arrive à un résultat très convenable, en un temps inférieur à celui de la rédaction à partir de 0. Pour une lib ou quand on nous demande de tout commenter comme des débiles, ça me semble pas déconnant.

  27. #5187
    Bah avec des prémisses pareilles on dirait que n'importe quel résultat serait satisfaisant...

    Y'a un autre problème pour cet exemple particulier. C'est que c'est du python, donc je l'ai joué réglo et j'ai commenté ça comme du python (pas de typage), et dans ce contexte un peu irréel ou y'a pas non plus de tests, etc.

    Mais dans la plupart des langages tu peux typer tous les arguments à un très haut degré, et là t'as effectivement de la doc automatique qui ressemble à ce qu'a fait l'IA, sans les exemples.
    Genre en C++ tu pourrais utiliser des assertions compile time pour garantir certaines contraintes, des concepts etc.

    Donc une partie de mes critiques sont résolues si t'es sur un langage avec du static typing et y'a de la "doc auto", genre quand t'utilises la complétion dans un IDE. Donc je trouve ça trop forcé quoi, parce qu'alternativement au lieu de forcer "l'IA" dans ce contexte tu pourrais faire un outil qui va automatiquement run le code avec les paramètres. Comme un Fuzzer. Donc là si tu run un fuzzer sur cette fonction et que t’agrèges les résultats, ça te générerait des tests automatiquement et donc de la doc automatiquement.

    Et ensuite tu peux passer ça à la moulinette NPL si tu veux faire des phrases verbeuses. Ca existe déjà un peu ce genre de truc (phrase <-> code sous jacent), behavioral driven development

    Mais de manière hyper courte:

    Pour ce prob en particulier y'a une approche systématique possible, donc je suis pas fan de toujours plaquer l'étiquette marketing "AI" alors qu'en l'occurrence l'apport est faible. J'ai l'impression qu'on remplace le mot informatique ou IT par AI systématiquement. Même les mecs qui ont bossé sur chatGPT serait sûrement d'accord pour dire que y'a plein d'algos et de travaux "non-AI" impliqués pour faire fonctionner ça.

  28. #5188
    Citation Envoyé par Kamikaze Voir le message
    ...
    Ce qui me parait le plus grave, et que je n'ai pas réalisé avant ton point 4, c'est que le tableau/list en entrée doit être trié. (donc 1 est faux, la fonction n'est pas évidente, ou il aurait fallu l'appeler binary_search)

  29. #5189
    Citation Envoyé par Kamikaze Voir le message
    Ah bah c'est un influenceur effectivement, faut pas chercher plus loin
    Il y a plein de gens à qui on a tenté d'enseigner la programmation et qui n'y ont rien compris (le pire étant ceux qui vont l'enseigner ensuite).
    Pour eux, ChatGPT est juste magique. Tout comme stable-diffusion donne des résultats magiques, mais inexploitables, à qui ne sait pas dessiner.

    Le RQP est imbattable quand le prix est à zéro

  30. #5190
    Le meilleur argument de défense du gars : "Moi j'ai plus de 20 ans d'xp en tant qu'ingénieur, donc je sais de quoi je parle". Ah ?

Page 173 sur 183 PremièrePremière ... 73123163165166167168169170171172173174175176177178179180181 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •