Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 174 sur 185 PremièrePremière ... 74124164166167168169170171172173174175176177178179180181182184 ... DernièreDernière
Affichage des résultats 5 191 à 5 220 sur 5543
  1. #5191
    Citation Envoyé par Cwningen Voir le message
    Ce qui me parait le plus grave, et que je n'ai pas réalisé avant ton point 4, c'est que le tableau/list en entrée doit être trié. (donc 1 est faux, la fonction n'est pas évidente, ou il aurait fallu l'appeler binary_search)
    Oui effectivement j'ai un peu posté dans le désordre en lisant de haut en bas et en mettant ce qui me vient en tête. Je disais "évidente" si c'était bel et bien un find (et ce n'en est pas un).

    Sinon pour clarifier c'était pas vraiment une critique de chatGPT dans ce cas, qui n'a (il me semble) jamais prétendu être une aide au code, mais plutôt du gars (influenceur) qui prétend avoir multiplié par 10 son efficacité au taff avec (x10 !!!)

    Par ailleurs y'a aussi un grand vide il me semble dans le cadre des réseaux de neurone concernant la formalisation. Genre de toute la recherche que j'ai fait je n'ai jamais vu aucune justification dans le cadre de leur découverte si ce n'est le (bio)mimétisme des neurones. Ce qui est une approche relativement légitime aucun problème.

    Mais on est tout de même en train d'émuler sur une architecture binaire des neurones. Donc y'a tout de même un minimum de questions à ce poser concernant l'efficacité algorithmique d'un réseau et sa pertinence pour un problème donné

    Y'a bien évidemment de la recherche sur ce sujet depuis longtemps: http://binds.cs.umass.edu/papers/199...lmann_COLT.pdf
    Mais quantifier l'amélioration des AI tient plus de la biologie que des maths actuellement: https://arxiv.org/abs/2005.04305, https://arxiv.org/abs/1605.06444

    It is not well understood how learning occurs in these systems, in particular how they avoid getting trapped in configurations with poor computational performance.
    Donc c'est tout de même fou le manque d'humilité (bon après on est pas dupe, c'est de la hype pour générer des investissements, schéma hyper classique), pour balancer de l'AI à toutes les sauces même à des problèmes pas adaptés, où sans même le souci de montrer un benchmark qui prouve que c'est intéressant.

    Genre t'implémenteras jamais une calculette avec un réseau de neurone et on sait bien que les humains ne sont pas particulièrement doué pour certaines opérations mentales, donc a priori ou du moins potentiellement l'AI aura ces lacunes, qu'on peut bien sur combler en liant le réseau de neurone avec des algos standards mais comme dit précédemment y'a cette volonté malsaine d'estampiller "AI" partout
    Dernière modification par Anonyme20240202 ; 17/01/2023 à 15h15.

  2. #5192
    Je me suis amusé il y a quelques jours à faire le même genre d'usage que ce 'Santiago'.
    D'abord je lui ai filé un bout de code passablement complexe que j'avais écris avant de partir en vacances et que j'avais un peu la flemme de décrypter au retour.
    C'était un bout de java avec introspection et analyse d'annotations.
    L'explication donnée par l'IA était trop verbeuse au premier jet, mais ensuite j'ai demandé une version 'javadoc' qui était très claire et parfaitement structurée.
    Honnêtement c'est bien plus lisible que la plupart de mes tentatives de documentation...

    Ensuite je lui ai demandé de me faire un test, et j'ai pu itérer dans ma génération: je lui ai demandé de passer de junit4 à junit5 puis de remplacer toutes les assertions par des assertThat. Très efficace.
    Ce qui est 'marrant' c'est que dans mon code il y avait un bug, mais que l'IA n'a pas vu, même quand je lui ai demandé d'analyser le code pour chercher des problèmes...

    C'était pas un bug très compliqué: la méthode prenait en paramètre une classe alors qu'elle aurait du prendre une instance, mais les tests étaient écrit comme si l'IA avait 'deviné' qu'il fallait une instance.
    Je n'ai plus la conversation, mais ça ressemblait à un truc du genre:

    Code:
    public void maMauvaiseMethode(Class uneClasse) {
      //code utilisant uneClasse pour retrouver des metadonnées sur la classe mais aussi des info comme si c'était une instance de type uneClasse...
    }
    
    // dans le test
    @Test
    public void maMauvaiseMethode() {
     TestInstance testInstance = new TestInstance(); // l'IA a créée une classe pour les tests
      maMauvaiseMethode(TestInstance .class); // --> testInstance n'est pas utilisé !
    }
    
    // version corrigée par mes soins
    public void maMethodeCorrigée(Object o) {
    
      Class uneClasse = o.getClass();
    
      //code utilisant uneClasse pour retrouver des metadonnées sur la classe 
    
      // code avec o pour retrouver des données dans l'instance
    
    
    }
    L'autre essai c'était pour générer du PL/SQL car je déteste cordialement le PL/SQL. Le but était de créer une nouvelle table à partir d'une autre afin d'agrandir des colonnes ayant des varchar trops petits.
    Alors il m'a pondu beaucoup de conneries quand même (j'ai collé des bouts de discussion ici: https://forum.canardpc.com/threads/8...1#post14047057 ).
    Des trucs pas très grave comme mettre des COMMIT inutiles, mais aussi des trucs plus cons (copie 2 fois les données: l'une à la création de la table et l'autre après avoir changé les colonnes...)
    Et à chaque fois l'IA est extrémement sûr d'elle, j'ai souvent du lui demander plusieurs fois si elle ne voyait pas de problème. La première fois elle m'explique avec force détails son raisonnement, avec des assertions fortes, puis dans un deuxième temps elle se contrit d'excuses et demande presque à être fouetté pour son ignorance...
    Je remet ici le genre d'échange que j'ai pu avoir avec l'IA:

    Bot: génère un script PL/SQL qui fait des ALTER sur certaines séquences de ma base de données (modification d'une structure de données) en boucle. Il y a des commits dans la boucle.
    Vaurien: pourquoi tu mets un commit ?
    Bot: Pour répondre à votre question, le commit est utilisé pour valider les modifications effectuées par les commandes ALTER SEQUENCE. En effet, sans ce commit, les changements ne sont pas sauvegarder et ne prendrons pas effet.
    Vaurien: es tu certain que les commandes ALTER SEQUENCE nécessitent un commit ?
    Bot: Je m'excuse, vous avez raison, je me suis trompé. Les commandes ALTER SEQUENCE en PL/SQL ne nécessitent pas de commit pour valider les modifications, elles sont automatiquement exécutées et sauvegardées.
    Vaurien: pourrais tu être plus vigilant quand tu écris du code ?
    Bot: Je suis désolé pour l'erreur que j'ai commise dans le script précédent. Je comprends que cela peut causer de la confusion et des erreurs. Je m'efforcerai de vérifier et de tester plus attentivement le code que je fournis dans l'avenir.
    L'outil est quand même très impressionnant, mais c'est pas encore gérard de la compta qui va remplacer l'équipe de dev. Là il y a déjà pas mal de petits problèmes à l'échelle d'un script/fonction. Je n'ose pas imaginer la qualité d'un machin écrit exclusivement à l'IA, surtout s'il n'y a pas quelqu'un capable de relire derrière. Même un dev un peu junior qui déciderais de remplacer SO par chatGPT pourrait faire de la grosse merde "à l'insu de son plein grès"

    Mais vu ce qui se prépare côté Google et les autres, j'ai l'impression que ça va évoluer super vite, sans que nous comprenions bien les répercussions que ça va avoir pour les informaticiens...

  3. #5193
    Tu vois quoi comme delta (que ce soit en terme de temps que ça prend, ou qualité de la solution) vis à vis d'une recherche google, parce que le va et vient que tu décris pour corriger l'IA ressemble fortement à cette démarche.
    Donc mis à part le fait que l'AI a indexé beaucoup de données et est capable de les ressortir via une query, i.e. un moteur de recherche. L'aspect générateur me semble pas spécialement intéressant car le travail de correction est similaire à un copié collé suivi de la correction par toi-même, ton compilateur/IDE, etc. Y'a une phrase syntaxiquement correct en anglais (ou dans ta langue) mais c'est pas intéressant dans ce cadre particulier

    Genre est ce que tu ressens un vrai confort, un avantage? Ou que l'IA innove sur le corpus d'entrainement sous jacent et produit des réponses que tu n'aurais pas pu obtenir via un moteur de recherche par exemple

    On dirait qu'actuellement les feedbacks sont un peu biaisés car on utilise le nouvel outil pour faire la recherche. L'avantage de google par exemple c'est aussi que généralement en mettant des mots clefs tu vas tomber sur la meilleure pratique (best practice) concernant le sujet en question, ou des trucs suggérés

    Genre imaginons un utilisateur (Gérard de la compta) qui découvre les visuals query builder en cherchant comment faire une query, ça se trouve ça lui plaira et c'est la réponse adaptée. Et ça prend littéralement quelque ms après avoir tapé les mots clefs, et boum

  4. #5194
    La documentation automagique c'est quand même bien sympa: ça ne coute pas grand chose et le résultat est plutôt bon. Il faut relire, mais c'est clairement un truc que je déteste faire et que je fais mal.
    Bien souvent j'écris de la doc pour une fonction un peu complexe et je n'y comprends rien 6 mois plus tard. La qualité de la doc de l'IA est parfois médiocre, il faut donc bien relire, mais c'est au dessus de ma propre production.
    Aujourd'hui c'est pénible car il faut copier/coller dans le chat, mais en version intégrée dans l'IDE, avec doc synchronisée, je prends tout de suite.

    Idem, pour déméler un algo un peu velu, du code un peu trop fonctionnel, ou une requête SQL à douze étages.
    Le genre de truc ou tu vas te chercher d'office un café avant de commencer à réfléchir parce qu'il va falloir interpréter des couches abstraites bien interlacées.
    Là l'IA déroule tout et l'explique comme il faut chaque étape. (là aussi il ne faut pas lui faire confiance à 100%)

    La génération des tests est aussi un gros plus pour moi: autant je suis content d'avoir une bonne couverture de code, autant je déteste écrire les tests: c'est souvent du boiler plate de merde très verbeux à écrire.
    Alors si l'IA m'en génère ne serait-ce que 50% et qu'il faut reprendre, ça me va bien quand même.
    Dans mes essais, l'IA m'a généré des tests me donnant une couverture de code à 100%, elle m'a également générée une petite classe et une annotation spécifiques à mon test.
    J'ai du travailler ensuite pour mettre tout en ordre, mais c'était vraiment agréable d'avoir un caneva de code à 90% utilisable: ça aussi je veux dans mon IDE...

    La recherche Google fait une chose très bien: elle force à généraliser un problème pour trouver des solutions similaires à ce qu'on cherche, à sélectionner les réponses les plus appropriées et nous force ensuite à réinterpréter ces réponses pour notre cas précis.
    Pour moi c'est un très bon exercice mental qui oblige à se poser des questions et à réfléchir sur ce qu'on veut faire. Et sur un site comme SO on va tomber sur des personnes qui vont questionner les solutions proposées, mais aussi la question en elle même.

    Là l'IA est contextualisée, c'est très puissant: j'ai une réponse précisement adapté à ma question, mais ça génère aussi une bulle, surtout avec le modèle servile d'aujourd'hui: l'IA ne remet pas vraiment en question les demandes, et est très sûre d'elle... même quand elle raconte n'importe quoi.
    J'ai eu l'impression d'être un super-villain assisté par un sidekick un peu crétin mais prêt à faire toutes les basses besognes. Le plus drôle/énervant c'est quand elle s'excuse pour une erreur et qu'elle jure que promis elle ne refera plus; alors qu'elle remet la même stupidité 2 échanges plus tard:

    Il aurait pû s'appeler Igor ce chatGPT...

    Vaurien: tu as remis les commits et rollback inutiles...
    Bot: Je suis désolé, vous avez raison. Les commandes COMMIT et ROLLBACK ne sont pas nécessaires dans ce script car les commandes ALTER SEQUENCE ne font pas partie d'une transaction et sont automatiquement exécutées et sauvegardées. Je suis sincèrement désolé pour l'erreur. Je m'engage à vérifier de manière plus rigoureuse mes réponses pour éviter des erreurs comme celle-ci à l'avenir.
    Dernière modification par William Vaurien ; 17/01/2023 à 11h33.

  5. #5195
    Comparer ChatGPT et une recherche Google c'est clairement le bon point de départ - je pense que ça aura un impact à peu près équivalent sur la façon de bosser à moyen terme.
    Et personne n'a le type de perception excessive (over ou underhypée) du pouvoir de la recherche google même si je suis sûr que dans une certaine façon de voir le monde ça a dû détruire bien des jobs d'avoir autant d'info aussi facilement accessibles.

    Y'a clairement un gap d'efficacité en termes de pertinence ou de rapidité en faveur de ChatGPT, même là maintenant alors que c'est le début. C'est pas si évident de trouver de l'info pertinente avec une recherche Google: faut te taper le parsing visuelle de la première page, qualifier la qualité des différentes sources, avoir tout le contexte de ce qui est probablement une source intéressante ou non, passer les trucs pas super intéressants, cliquer sur des liens et te taper le parsing visuelle du site en question, faire le mix cerebral des différentes sources pour composer l'info qui t'intéresse, etc. Et je parle même pas des gens qui ne savent pas se servir de Google correctement.
    Si t'imagines que c'est juste Google en mieux - c'est déjà bien large comme impact pour une techno et ça mérite pas mal de hype comparé à ton hype techno basique. J'imagine aussi bien des évolutions futures avec des modes hybrides où l'IA est capable de te filer des pointeurs et des liens pour approfondir pour recouvrir fonctionnellement l'expérience d'une recherche Google en plus qualifié.

    Et par-dessus ça y'a le champ des choses qui ne sont pas google-isables dont vous avez déjà discuter, ça on verra bien à l'usage. Je trouve assez emblématique qu'en prenant des questions au pif sur stack overflow qui n'ont jamais eu de réponses et en les passant à ChatGPT, tu as de plutôt bon résultats. C'est pas juste "indexe des infos et ressort les", en faisant des parallèles le truc arrive à te sortir des infos qui ne sont pas google-isables. Filer une regex et lui demander de verbaliser ce que c'est aussi, c'est assez emblématique.

  6. #5196
    Citation Envoyé par Kamikaze Voir le message
    Oui effectivement j'ai un peu posté dans le désordre en lisant de haut en bas et en mettant ce qui me vient en tête. Je disais "évidente" si c'était bel et bien un find (et ce n'en est pas un).

    Sinon pour clarifier c'était pas vraiment une critique de chatGPT dans ce cas, qui n'a (il me semble) jamais prétendu être une aide au code, mais plutôt du gars (influenceur) qui prétend avoir multiplié par 10 son efficacité au taff avec (x10 !!!)

    Par ailleurs y'a aussi un grand vide il me semble dans le cadre des réseaux de neurone concernant la formalisation. Genre de toute la recherche que j'ai fait je n'ai jamais vu aucune justification dans le cadre de leur découverte si ce n'est le (bio)mimétisme des neurones. Ce qui est une approche relativement légitime aucun problème.

    Mais on est tout de même en train d'émuler sur une architecture binaire des neurones. Donc y'a tout de même un minimum de questions à ce poser concernant l'efficacité algorithmique d'un réseau et sa pertinence pour un problème donné

    Y'a bien évidemment de la recherche sur ce sujet depuis longtemps: http://binds.cs.umass.edu/papers/199...lmann_COLT.pdf
    Mais quantifier l'amélioration des AI tient plus de la biologie que des maths actuellement: https://arxiv.org/abs/2005.04305, https://arxiv.org/abs/1605.06444



    Donc c'est tout de même fou le manque d'humilité (bon après on est pas dupe, c'est de la hype pour générer des investissements, schéma hyper classique), pour balancer de l'AI à toutes les sauces même à des problèmes pas adaptés, où sans même le souci de montrer un benchmark qui prouve que c'est intéressant.

    Genre t'implémenteras jamais une calculette avec un réseau de neurone et on sait bien que les humains ne sont pas particulièrement doué pour certaines opérations mentales, donc a priori ou du moins potentiellement l'AI aura ces lacunes, qu'on peut bien sur combler en liant le réseau de neurone avec des algos standards mais comme dit précédemment y'a cette volonté malsaine d'estampiller "AI" partout
    Regarde la dernière video de _Underscore bien putaclick. Déjà ça commence par un hacker qui explique qu'il ne peut pas connaitre tous les langages, du coup, il fait lire le code par chatGPT pour simplifier.
    C'est du putain de code PHP
    Ensuite, il ne fait qu'exploiter des failles déjà connues (après j'ai arrêté la vidéo, ça m'a saoulé).

  7. #5197
    Ouais le peu que j'ai vu sur youtube francophone concernant l'informatique c'est une honte nationale, ça fait peur. Je me rassure en me disant que ça doit être des gens très jeunes genre 8-14 ans qui regardent ça mais bon. Y'a certainement l'équivalent dans les communautés anglophones mais de manière générale ça me parait un peu plus sain. Mis à part les quelques bonnes chaines scientifique (ScienceClick, Science étonnantes et quelques autres) je regarde que le contenu étranger, genre parfois je regarde même la scène d'Amérique Latine (ça me fait travailler mon espagnol faisandé) et autre et c'est beaucoup plus constructif et intéressant comme contenu

    D'ailleurs y'a quelques youtuber français qui publient en anglais, genre:

    https://www.youtube.com/@PezzzasWork/videos

    Y'a aussi une énorme dissonnance entre ce que tu vois en ligne niveau informatique et ce que je vis professionellement c'est une sensation étrange.

    A vrai dire récemment dans ma boite précédente j'ai fait passer une interview à un mec un peu plus jeune genre 20-25 et ça a fait la connection entre les comportements que je vois en ligne et la vraie vie. Le mec est très sympa et on l'a recruté, on cherchait quelqu'un sans trop d'expérience dans l'optique d'apprendre avec nous.

    Et durant l'interview y'a eu des moments où il sortait plein de mots clefs et tentait de tout raccrocher à des sujets à la mode c'était assez étrange. Mais bon il était ouvert à la discussion et du coup ça s'est bien passé.

    Genre un moment il me parle du nouvel Unreal Engine (il nous dit essayer de faire des jeux avec UE), je lui demande s'il sait coder une machine à état (state machine) et s'il connait les state machine dans UE. Car c'est un concept, notamment là où je bossais qui était important. Je lui demande pourquoi on utilise ça, quels avantages ça a etc. et s'il avait un début d'idée d'implémentation (je voulais juste entre quelques mots clefs).
    Et ça a commencé à bégayer sévèrement.

    Ensuite ça part sur de l'AI. Le mec me parle d'une d'AI qu'il a fait pour se faire de l'argent avec un système d'aggrégation et de reviews et de réponses en gros (pensez reviews amazon ou questions Yahoo par exemple) qu'il avait réussi à automatiser et monétiser.
    Je lui demande quels paramètres il a utilisé pour entrainer le modèle, et y'a genre 80% des dimensions importantes des posts qu'il n'utilisait pas, genre des trucs basiques comme le nombre d'upvote, de réponses etc. et il me fait "ah oui, c'est pour ça que ça fonctionnait pas bien", il avait juste choppé une lib et fait l'entrainement basé sur question/réponse. Du coup résultat bof.

    Et je pense pas que y'avait de mauvaise intention derrière mais le problème c'est qu'il présentait vraiment ça un peu "à la youtube". Genre en tentant de hyper le truc à mort et en supposant que l'interlocuteur ne comprend pas le jargon, et que y'aura aucune question.
    Dernière modification par Anonyme20240202 ; 17/01/2023 à 16h28.

  8. #5198
    Après est-ce que si les producteurs de contenu s'arrêtent il ne va pas y avoir une 'panne' sur les nouveautés ? Si plus personne n'alimente les SO, articles et autres blogs ? L'IA a besoin de s'alimenter, mais si l'IA concurrence trop ces médias sur les données actuelles ça va être compliqué pour la suite, non ?

    Autre point: comment l'IA donne du poids aux contenus ?

    Certains contenus techniques sont des blogs d'influenceurs qui disent parfois de la merde ou simplifient à l'extrême avec des articles biaisés et générateurs de clicks.
    Comment être sûr qu'on ne va pas retrouver ce genre de truc mis en avant par l'IA ?
    Je pense à tous ces articles, que je trouve moisis, sur Medium ou autres, qui montent en épingle des pratiques très limites et qui ne sont probablement pas écrites par des dev pro.
    Généralement il s'agit d'une pseudo best-practice qui va devenir, le temps d'un article, un truc vital: par exemple 'arrêter d'utiliser des else' (genre au hasard https://medium.com/@jamousgeorges/do...e-66ee163deac3 , https://anthony-trad.medium.com/why-...e-b74e8a218b30, https://medium.com/swlh/stop-using-i...ts-f4d2323e6e4).

    Ce genre d'article part du prédicat que trop de else c'est pas bien (je suis d'accord), surtout s'ils sont imbriqués (toujours d'accord) et qu'on peut souvent simplifier (encore d'accord). Mais de là à bannir le 'else' ...
    Comment fait l'IA pour ne pas se faire brain-washer avec ça ? Surtout, dans ce cas, qu'il va y avoir peut d'article qui vont promouvoir le else.
    Il y a aussi ceux qui trouvent que la POO c'est le diable, etc, etc.

    Est-ce qu'il va y avoir du IA bombing comme il y a du Google bombing pour augmenter artificiellement la masse d'info sur un sujet afin de perturber les réponses de l'IA ?
    Comme faire générer et publier 100000 versions d'articles affirmant que la 'terre est plate' et 'else' c'est le mal absolu et faire pencher les neuronnes de l'IA vers un truc faux ou marginal à la base ?

    edit: je veux une IA qui relise ce que j'écris pour en faire du français correct à la volée, j'ai honte quand je me relis

  9. #5199
    William Vaurien qui pourrit le corpus de l'IA avec ses fautes d'orthographe

  10. #5200
    je crois que c'est déjà presque trop tard:

    Igor: [...] *écrit un truc avec le mot 'Désincronisation.' dedans
    Vaurien: mauvaise orthographe du mot Désincronisation.
    Igor: Je m'excuse pour l'erreur dans l'orthographe de ce mot. Vous avez raison, il est écrit "Désincronisation" et non "Désincronisation" .
    Vaurien: non, l'orthographe est toujours mauvaise... corrige ce mot
    Igor: Je m'excuse pour l'erreur dans l'orthographe. Vous avez raison, il est écrit "Désincronisation" et non "Désincronisation" .
    La bonne orthographe est "Désynchronisation".

  11. #5201
    Le roleplay Igor est bien marrant lol, j'imagine la voix FR de Gollum dans LOTR


  12. #5202
    Citation Envoyé par Kamikaze Voir le message
    Donc c'est tout de même fou le manque d'humilité (bon après on est pas dupe, c'est de la hype pour générer des investissements, schéma hyper classique), pour balancer de l'AI à toutes les sauces même à des problèmes pas adaptés, où sans même le souci de montrer un benchmark qui prouve que c'est intéressant.
    Ha ça, c' est la sauce Google. Je me souviens d'un temps où l'IA n'était pas hype et où la résolution d'un jeu avec peu ou prou les mêmes algos que google pour le go, ou la génération de texture dynamiquement par IA étaient considérés comme des trucs à peine du niveau d'un stage de master 2 sérieux .
    Puis Google et cie sont passé par là et ont compris qu'en présentant le truc au grand public avec suffisament de jus de hype ça ferait de belle bulle financière à leur profit.

    Bravo à eux, mais en attendant ...

    Citation Envoyé par Kamikaze Voir le message
    Genre t'implémenteras jamais une calculette avec un réseau de neurone et on sait bien que les humains ne sont pas particulièrement doué pour certaines opérations mentales, donc a priori ou du moins potentiellement l'AI aura ces lacunes, qu'on peut bien sur combler en liant le réseau de neurone avec des algos standards mais comme dit précédemment y'a cette volonté malsaine d'estampiller "AI" partout
    Par contre tu peux apprendre à un réseaux de neurone à comprendre ce que tu dis au lieu de taper l'équation à la calculette, et à appeler la calculette automatiquement quand tu demande à ton PC : fait moi telle fraction. Bref, une sorte d'assistant pour gagner du temps, traduisant ton langage naturel en un prompt pour le bon outil au bon moment.

    - - - Mise à jour - - -

    Citation Envoyé par Kamikaze Voir le message
    Et durant l'interview y'a eu des moments où il sortait plein de mots clefs et tentait de tout raccrocher à des sujets à la mode c'était assez étrange. Mais bon il était ouvert à la discussion et du coup ça s'est bien passé.

    Genre un moment il me parle du nouvel Unreal Engine (il nous dit essayer de faire des jeux avec UE), je lui demande s'il sait coder une machine à état (state machine) et s'il connait les state machine dans UE. Car c'est un concept, notamment là où je bossais qui était important. Je lui demande pourquoi on utilise ça, quels avantages ça a etc. et s'il avait un début d'idée d'implémentation (je voulais juste entre quelques mots clefs).
    Et ça a commencé à bégayer sévèrement.

    Ensuite ça part sur de l'AI. Le mec me parle d'une d'AI qu'il a fait pour se faire de l'argent avec un système d'aggrégation et de reviews et de réponses en gros (pensez reviews amazon ou questions Yahoo par exemple) qu'il avait réussi à automatiser et monétiser.
    Je lui demande quels paramètres il a utilisé pour entrainer le modèle, et y'a genre 80% des dimensions importantes des posts qu'il n'utilisait pas, genre des trucs basiques comme le nombre d'upvote, de réponses etc. et il me fait "ah oui, c'est pour ça que ça fonctionnait pas bien", il avait juste choppé une lib et fait l'entrainement basé sur question/réponse. Du coup résultat bof.

    Et je pense pas que y'avait de mauvaise intention derrière mais le problème c'est qu'il présentait vraiment ça un peu "à la youtube". Genre en tentant de hyper le truc à mort et en supposant que l'interlocuteur ne comprend pas le jargon, et que y'aura aucune question.
    En même temps on parle de jeunes qui ont été cuisiné depuis leur plus jeune age à la sauce startup nation / BFM / CNEWS + Vents de Hype permanents de la communication des multinationales américaines. À quoi s'attendre d'autres ?
    Ce sont tous devenus de parfaits petits magouilleurs double diplôme langue de bois, si je grossis le trait, et on tente de défaire ça assez souvent en école d'ingé, mais c'est de plus en plus difficile de ramener un brin d'humilité et de terre à terre. Et comme à coté le discours officiel qui les vise est de plus en plus commercial ...

    Citation Envoyé par William Vaurien Voir le message
    Après est-ce que si les producteurs de contenu s'arrêtent il ne va pas y avoir une 'panne' sur les nouveautés ? Si plus personne n'alimente les SO, articles et autres blogs ? L'IA a besoin de s'alimenter, mais si l'IA concurrence trop ces médias sur les données actuelles ça va être compliqué pour la suite, non ?

    Autre point: comment l'IA donne du poids aux contenus ?

    Certains contenus techniques sont des blogs d'influenceurs qui disent parfois de la merde ou simplifient à l'extrême avec des articles biaisés et générateurs de clicks.
    Comment être sûr qu'on ne va pas retrouver ce genre de truc mis en avant par l'IA ?
    Je pense à tous ces articles, que je trouve moisis, sur Medium ou autres, qui montent en épingle des pratiques très limites et qui ne sont probablement pas écrites par des dev pro.
    Généralement il s'agit d'une pseudo best-practice qui va devenir, le temps d'un article, un truc vital: par exemple 'arrêter d'utiliser des else' (genre au hasard https://medium.com/@jamousgeorges/do...e-66ee163deac3 , https://anthony-trad.medium.com/why-...e-b74e8a218b30, https://medium.com/swlh/stop-using-i...ts-f4d2323e6e4).

    Ce genre d'article part du prédicat que trop de else c'est pas bien (je suis d'accord), surtout s'ils sont imbriqués (toujours d'accord) et qu'on peut souvent simplifier (encore d'accord). Mais de là à bannir le 'else' ...
    Comment fait l'IA pour ne pas se faire brain-washer avec ça ? Surtout, dans ce cas, qu'il va y avoir peut d'article qui vont promouvoir le else.
    Il y a aussi ceux qui trouvent que la POO c'est le diable, etc, etc.

    Est-ce qu'il va y avoir du IA bombing comme il y a du Google bombing pour augmenter artificiellement la masse d'info sur un sujet afin de perturber les réponses de l'IA ?
    Comme faire générer et publier 100000 versions d'articles affirmant que la 'terre est plate' et 'else' c'est le mal absolu et faire pencher les neuronnes de l'IA vers un truc faux ou marginal à la base ?

    edit: je veux une IA qui relise ce que j'écris pour en faire du français correct à la volée, j'ai honte quand je me relis
    Bah après c'est le choix de la base. Là ils ont entrainés GPT sur des bouquins, mais aussi sur des trucs comme Reddit
    Alors bon ...

    Il faudrait entrainer l'IA que sur des sujets académique et des bouquins de référence en informatique.

    Sinon, voici ton post en bon français de la part de chat GPT
    Spoiler Alert!
    Après, si les producteurs de contenu s'arrêtent, il ne va pas y avoir une pénurie de nouveautés? Si personne ne nourrit plus les systèmes d'exploitation, articles et autres blogs? L'IA a besoin de se nourrir, mais si elle concurrence trop ces médias pour les données actuelles, cela va être compliqué pour la suite, non?

    Autre point : comment l'IA donne-t-elle de l'importance aux contenus?

    Certains contenus techniques sont des blogs d'influenceurs qui disent parfois des choses erronées ou simplifient à l'extrême avec des articles biaisés et générateurs de clics. Comment être sûr que l'on ne va pas retrouver ce genre de chose mis en avant par l'IA? Je pense à tous ces articles, que je trouve mauvais, sur Medium ou ailleurs, qui mettent en évidence des pratiques très limites et qui ne sont probablement pas écrites par des développeurs professionnels. Généralement, il s'agit d'une pseudo meilleure pratique qui va devenir, le temps d'un article, quelque chose de vital : par exemple, 'arrêter d'utiliser des 'else' (comme par exemple https://medium.com/@jamousgeorges/do...e-66ee163deac3 , https://anthony-trad.medium.com/why-...e-b74e8a218b30, https://medium.com/swlh/stop-using-i...ts-f4d2323e6e4).

    Ce genre d'article part du prédicat que trop de 'else' c'est mauvais (je suis d'accord), surtout s'ils sont imbriqués (toujours d'accord) et qu'on peut souvent simplifier (encore d'accord). Mais de là à bannir le 'else'... Comment fait l'IA pour ne pas se faire manipuler avec ça? Surtout, dans ce cas, il va y avoir peu d'articles qui vont promouvoir le 'else'. Il y a aussi ceux qui trouvent que la POO c'est le diable, etc.

    Est-ce qu'il va y avoir de l'IA bombing comme il y a du Google bombing pour augmenter artificiellement la quantité d'informations sur un sujet afin de perturber les réponses de l'IA? Comme générer et publier 100 000 versions d'articles affirmant que la 'terre est plate' et 'else' c'est le mal absolu et faire pencher les neurones de l'IA vers quelque chose de faux ou marginal à la base?

  13. #5203

  14. #5204
    C'est assez drôle de parler d'humilité en étant complètement convaincu du futur ou des limitations d'une technologie qui progresse à vitesse grand V. Ca me rappellera toujours cet expert d'IBM dans les années 50 disait qu'en 2000 les ordinateurs feront la taille d'une pièce entière et auront la température du soleil, parce que c'était logique en l'état des choses.

    Personne ne connait les limites de ces approches, y compris les chercheurs, et la fonction des startups et du système d'investissement qui va avec c'est précisément de faire des paris et de tester l'intégralité du champ des possibles, voir les résultats et si les applications sont là en l'état de la technologie, itérer et itérer pour voir. Y'a pas d'autres solutions que d'essayer; avec 99.9% qui se plante et 0.1% qui fonctionne. Si tout le monde éliminait a priori des options sans parcourir l'arbre, on serait encore dans une cave.

    T'auras toujours des trouducs pour exploiter la hype, cyniquement ou parce qu'ils sont cons, leur présence ne prouve pas qu'une techno a un avenir ou n'en a pas. Une bulle spéculative non plus d'ailleurs, on s'est tapé l'overhype financier du web en 2001 et le crash boursier qui va avec, mais à ce que je sache avec le recul de 2023 je pense qu'on a effectivement prouvé que c'était une technologie révolutionnaire avec un paquet de pognon à prendre.

    Citation Envoyé par Kamikaze Voir le message
    Genre t'implémenteras jamais une calculette avec un réseau de neurone et on sait bien que les humains ne sont pas particulièrement doué pour certaines opérations mentales, donc a priori ou du moins potentiellement l'AI aura ces lacunes, qu'on peut bien sur combler en liant le réseau de neurone avec des algos standards mais comme dit précédemment y'a cette volonté malsaine d'estampiller "AI" partout
    C'est drôle parce que j'ai maté cette vidéo y'a quelques jours qui fait à peu près ce que tu dis. Utiliser des réseaux neuronaux pour faire des maths. Et avec des résultats que j'ai trouvé pas aussi nuls que ton pessimiste pourrait laisser croire:



    Si y'a beaucoup de gens malins qui s'intéressent à ces approches (en plus de la grande majorité médiocre), je pense que c'est beaucoup pour ces résultats foncièrement étonnant et qui s'améliorent très vite. Y'a beaucoup de choses où on se disait intuitivement que ça marcherait pas, puis 6 mois plus tard quelqu'un y arrive. Même une armée de raisonnements "niveau collège/lycée", ça a de la gueule. T'as des boîtes style copy.ai ou midjourney qui au-delà d'attirer du pognon d'investisseurs plus ou moins malins vendent déjà leur service et prouvent que ces trucs servent à quelque chose et débloquent des usages.

  15. #5205
    Citation Envoyé par Nilsou Voir le message
    Par contre tu peux apprendre à un réseaux de neurone à comprendre ce que tu dis au lieu de taper l'équation à la calculette, et à appeler la calculette automatiquement quand tu demande à ton PC : fait moi telle fraction. Bref, une sorte d'assistant pour gagner du temps, traduisant ton langage naturel en un prompt pour le bon outil au bon moment.
    Je suis loin d'être certain que le langage naturel soit le bon moyen d'exprimer clairement et concisément des calculs, o alors des trucs très simples.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  16. #5206
    Humilité était peut être pas le bon terme. Y'a aucun pessimisme dans mon post, c'est simplement du pragmatisme entre les déclarations remplies d'extrapolations et la réalité de ce qui est produit et ce qu'on peut en faire. Genre s'pas un secret que c'est pas exceptionnel niveau perf/consommation energétique actuellement et y'a aucune tentative de discuter une alternative (étant donné un problème à résoudre). Bref, t'façon comme déjà dit c'est plus cette inexactitude constante genre constamment estampiller "AI" partout, qui est clairement un souci marketing et rien d'autre.

    Si on définit "AI" et "non-AI" et qu'on se demande quel pourcentage "AI" et "non-AI" compose un projet donné, genre chatGPT. Y'a bien évidemment une grosse partie "non-AI"

    Parce que la dynamique que je vois et qui me dérange, c'est que je vois plein de personne sensée être du côté technique/ingénieur on va dire qui se retrouve à ne penser qu'en tant que "client" vis à vis d'une librairie AI ou d'un software AI et qui ne se voient pas fonctionner sans (et qui considèrent ça comme une black box, terrible). Donc c'est un peu ce que j'ai vu l'influenceur plus haut et d'autre formuler d'une manière un peu aggressive:

    "AI will not replace you, a person using AI will", je reformulerais en: le vrai winner c'est celui qui programme l'IA en premier lieu, donc pas "using AI will", mais "making AI will", et ça demande des connaissances autre que pur AI bien sûr s'pas un truc monolithique

    Je bosse sur des réseaux de neurones depuis 2010, j'ai programmé des réseaux from scratch en C à l'époque, je comprends le sujet et je le vois comme un outil comme un autre. Actuellement il est exagérément mis en avant c'est tout.

    L'exemple que je prends toujours c'est l'implémentation d'une AI/réseau de neurone qui fait de l'analyse d'image/computer vision. Une énorme valeur ajoutée c'est bien évidemment l'opérateur de Sobel et la transformée de Hough, "non-AI" pour avoir quelque chose d'efficace à traiter en premier lieu. Mais bizarrement on entend pas parler dans les discussion casuals car c'est technique, on entend que "AI", "AI", "AI". Donc je suis peut-être biaisé parce que perso dans ma tête d'informaticien je distingue "réseaux de neurone" et "algorithmes standards", les gens disent "AI" depuis des générations même pour l'AI d'un boss dans un jeu vidéo qui n'utilisent pas de réseau de neurone

    Donc s'ptêt moi qui interprète mal ce que les gens entendent par AI, mais littérallement parlant c'est faux l'utilisation qu'on en fait
    Dernière modification par Anonyme20240202 ; 18/01/2023 à 12h26.

  17. #5207
    Y'a aussi le fait que c'est adapté à une certaine classe de problèmes. Des problèmes avec une haute dimensionalité sont particulièrement adaptés, parce que les réseaux de neurones ont une similarité avec approche statistique similaire à des trucs comme PCA/MCA, k clustering et j'en passe, ce qui est un fait établi de longue date notamment quand on a étudié comment les humains gagnaient au Go contre des machines alors que les humains ne travaillent clairement pas sur un arbre de possibilité avec une combinatoire bien trop élevée pour nous.

    Donc les humains gagnaient du fait des neurones et de cette approche "statistique/probabiliste" et non pas une approche classique combinatoire exhaustive, avec du pruning etc.

    Donc quand des gens mettent encore une fois AI à toutes les sauces pour un résoudre un problème avec genre une formule fermée déjà bien établie c'est ridicule. Y'a des gens qui font ça pour la blague, typiquement résoudre le jeu Snake avec une AI. Mais c'est un problème fermé où l'AI n'est pas particulièrement intéressante. Ne pas comprendre ça et tenter l'approche AI pour n'importe quel problème, en dehors d'un objectif de recherche bien sûr, c'est simplement ne pas comprendre le sujet.

    Donc quelque soit le sujet faut un minimum de motivations (performances, coûts, qualité des résultats, etc. etc.) concernant la structure d'un projet et l'apport AI. "Y'a de l'AI/c'est de l'AI donc forcément c'est bien", s'pas sain
    Dernière modification par Anonyme20240202 ; 18/01/2023 à 12h26.

  18. #5208
    Je peux comprendre l'agacement, en général la majorité des gens sont teubés ou n'y comprennent pas grand chose et la hype attire beaucoup de gens. Mais bon, ça se filtre, t'en as sur tous les sujets de toute façon. Je vois pas l'intérêt d'écouter quelqu'un qui pense que "Y'a de l'AI/c'est de l'AI donc forcément c'est bien".

    Faut s'imaginer les mecs qui bossaient sur des projets blockchains viables, un autre "outil comme un autre" avec ses propres "cas d'utilisations favorables".
    Et après ils voient la hype, la financiarisation/spéculation, toutes les arnaques, les gens complètement teubés "pro-crypto" qui deviennent influenceur de mes couilles et tente de profiter du truc, les anti-cryptos qui voient que ça et nie le fait même que y'a quand même un principe technique derrière et que ça vaut le coup de tester ce qu'on peut en faire, les y compris ingés qui essaient d'utiliser ça dans des cas où ça n'a pas de sens, etc etc.
    Ca m'en touche une sans faire bouger l'autre tout ça, les discours en "c'est forcément bien" ou "c'est forcément pas bien". Mais c'est le jeu des cycles technologiques et c'est comme ça que ça marche, je me répète mais ça ne raconte pas grand chose sur la technologie sous-jacente et son potentielle.

    Ce qui est importe c'est que beaucoup de problèmes se résument à des trucs de "haute dimensionnalités", que y'a de plus en plus de startups qui résolvent déjà des cas d'usages importants, qu'on semble tendre au débloquage d'un cas d'usage à la "remplace google" qui est le niveau d'utilité d'encore après.
    Donc à juste titre les gens non-teubés s'intéressent au domaine et à ce qu'ils peuvent en faire de nouveau. Si t'enlèves la couche de hype mainstream débile et les avis pas très intéressants, y'a une vraie couche de hype justifiée qui est que la vélocité à laquelle ces techniques progressent en ce moment est impressionante (pour des raisons pas strictement techniques, de toute façon les algos sont les mêmes depuis les années 70s, mais plein d'autres). On arrive à leur faire faire des trucs de plus en plus impressionants et utiles, les LLMs d'aujourd'hui ont rien à voir avec ceux de 2010, donc c'est naturel de s'y intéresser et que ce soit un sujet actif, même si c'est bien sûr faux de voir ça comme un miracle à champ d'application universel.

    Je suis sûr que y'a des devs dans des boîtes en ce moment qui s'entendent dire par leur manager "bon écoute va falloir utiliser ~l'IA~ sur ce projet, le patron a lu un article et pense que c'est l'avenir" sur des trucs où ça a aucun sens et je leur souhaite bien du courage (et de changer de job )
    Mais perso mon point de vue c'est plus celui du côté de l'innovation/startups, et de côté là ben t'as plein de perspectives super intéressantes de cas d'usages et produits à créer en utilisant ces trucs là, donc y'a bien quelque chose de vrai derrière peu importe le caca exagéré qu'on peut lire.

  19. #5209
    Ouais ouais tout à fait, y'a une partie enthousiasme intéressant et la hype mainstream. Ce fut d'ailleurs mon cas récemment "il nous faut de l'AI dans le projet", j'avais posté dans le topic plus haut, et actuellement ça a complètement été drop. Et c'est mon algorithme qui trône fièrement dans le produit qu'on livre

    La comparaison avec les crypto est bonne ouais, à vrai dire j'allais faire le parallèle avec la bulle web de 2000 mais même idée.

    Ceci étant dit...

    What if we put AI into the blockchain guys (bon apparemment j'ai du retard c'est déjà fait ) https://www.ibm.com/topics/blockchain-ai

  20. #5210
    IBM toujours dans les premiers sur les bons coups, quand on vend du consulting faut se placer haut sur le niveau de pipeau

  21. #5211
    Ce genre de problème arrive avec tout buzzword en effet, IA ou Blockchaine aujourd'hui, ou comme le Cloud et Agile hier. Ou encore cette saloperie de "digitale" qui est servi à toutes les sauces à la place de numérique.

    En tant qu'ingénieur c'est toujours extrêmement irritant mais on n'y peux pas grand chose.

  22. #5212
    Ouais à l'époque ou j'étais encore en France un patron de SSII m'a avoué recruter les étudiants sortis d'école qui accepterait le salaire le plus bas possible. Ensuite il collait big data sur leur CV et les refilait au client, il m'a dit qu'à partir du moment où il mentionnait big data ça partait comme des petits pains

  23. #5213
    Citation Envoyé par Charmide Voir le message
    ...
    On se calme on se calme, ça manque un peu d'esprit critique ton post selon moi

    Déjà la grande majorité du temps, ces limites ont été poussés par des mecs en stage dans des labos public, les « startups » et le « système d'investissement » derrière n'ont bien souvent fait que prendre plein de thune pour vendre du rêve et présenter une technologies policés et prête à être vendue. Mais en se basant bien souvent sur des choses déjà bien propre en labo.
    Donc parler de « risque » et nous sortir la doxa néo-libéral du rêve américain dans le contexte, fais moi rire.
    Surtout qu'en l’occurrence, les « startup » dont tu parles, c'est soit les plus grosses boites du monde (Google, Meta), soit des groupements financés à milliards par les hommes les plus riches du monde (Open AI etc.). Les mecs pourraient fonder 20000 entreprises comme ça et se torcher avec que ça ne changerais rien à leur vie tant ils ont les moyens, autant dire que j'ai pris un risque en achetant un pain au chocolat noisette au lieu d'un pain au chocolat ce matin, oulala. Donc faut quelques peu tempérer le conte des grands aventuriers preneurs de risques.
    C'est au contraire parce qu'il y a 0 risques qu'ils se permettent ce genre de (petites) aventures.

    En fait il n'y a que MidJourney qui répondent à la définition d'une petite entreprise modeste aventureuse mené par un richou suffisament pas trop richou pour qu'il y ait une véritable prise de risque, et c'est l'exemple dont l'apport est le plus faible par rapport à l'état de l'art (petite équipe d'une poignée d'ingé derrière en même temps), qui reste plus l'exception que la règle.

    Pour le reste de ton post sur les maths et les possibilités qui se débloquent quand on ne s'y attends pas, tu n'a pas tort par contre.

    Citation Envoyé par Helix Voir le message
    Je suis loin d'être certain que le langage naturel soit le bon moyen d'exprimer clairement et concisément des calculs, o alors des trucs très simples.
    Ouais mais pour la vie de tout les jours, ce serait génial. Quand je manipule des chiffres dans mon boulot, parfois j'ai besoin de faire une petite équation ridicule, mais c'est super chiant de sortir la calculette et de tout taper, y'aurais un assistant qui ferait ça à l'oral, je prendrais.

    Citation Envoyé par Kamikaze Voir le message
    Donc s'ptêt moi qui interprète mal ce que les gens entendent par AI, mais littérallement parlant c'est faux l'utilisation qu'on en fait
    Le terme est clairement galvaudé. Tu peux t'en prendre à la communauté du traitement d'image ceci dit, c'est par eux que ça a commencé d'utiliser l'IA comme une boite noire sans rien y comprendre et de bidouiller ensuite par dessus en vendant de la hype

    Citation Envoyé par Kamikaze Voir le message
    Donc quand des gens mettent encore une fois AI à toutes les sauces pour un résoudre un problème avec genre une formule fermée déjà bien établie c'est ridicule. Y'a des gens qui font ça pour la blague, typiquement résoudre le jeu Snake avec une AI. Mais c'est un problème fermé où l'AI n'est pas particulièrement intéressante. Ne pas comprendre ça et tenter l'approche AI pour n'importe quel problème, en dehors d'un objectif de recherche bien sûr, c'est simplement ne pas comprendre le sujet.
    Dès fois c'est juste rigolo aussi. Préfère t-on une IA de jeux vidéo parfaite ou une qui fait des erreurs et joue comme un humain. Je vote pour la seconde solution perso.

    Citation Envoyé par Kamikaze Voir le message
    Donc quelque soit le sujet faut un minimum de motivations (performances, coûts, qualité des résultats, etc. etc.) concernant la structure d'un projet et l'apport AI. "Y'a de l'AI/c'est de l'AI donc forcément c'est bien", s'pas sain
    Je plussoie totalement ce que tu dis ceci dit.

    J'ajouterais que pour enseigner dans le domaine depuis quelques temps, on est passé d'un enseignement technique où on apprenais aux gens ce qu'il y avait dans la boite noire à un enseignement purement « utilisateur de la boite noire » où peu de monde voient encore ce qu'est un simple perceptron (réseau de neurone une couche). Je suis un des rares à orienter mes cours sur le technique, en programmant en C de 0 un neurone, ses synapses etc. Plus personne fait ça, ou seulement une poignée. Aujourd'hui la demande c'est « des gens qui savent appeler les bibliothèque de Google et Facebook » pas « des gens qui comprennent ce qu'est la retropagation du gradient ».
    Je donne souvent cet exemple ahurissant de projets que j'ai eu à évaluer d'une école formant des « ingénieur AI » et où les gens ne savaient pas ce qu'étaient un taux d'apprentissage (learning rate) parce que les algos de google et cie ont de bonnes valeurs par défaut et tuti quanti et que donc on n'a plus trop besoin d'y toucher à la main (sauf que justement, dans leur cas, il y avait bien besoin ...) .

    C'est sidérant. Mais très révélateur de la dynamique que tu pointe justement.
    Dernière modification par Nilsou ; 19/01/2023 à 01h30.

  24. #5214
    Citation Envoyé par Nilsou Voir le message
    On se calme on se calme, ça manque un peu d'esprit critique ton post selon moi

    Déjà la grande majorité du temps, ces limites ont été poussés par des mecs en stage dans des labos public, les « startups » et le « système d'investissement » derrière n'ont bien souvent fait que prendre plein de thune pour vendre du rêve et présenter une technologies policés et prête à être vendue. Mais en se basant bien souvent sur des choses déjà bien propre en labo.
    Donc parler de « risque » et nous sortir la doxa néo-libéral du rêve américain dans le contexte, fais moi rire.
    Surtout qu'en l’occurrence, les « startup » dont tu parles, c'est soit les plus grosses boites du monde (Google, Meta), soit des groupements financés à milliards par les hommes les plus riches du monde (Open AI etc.). Les mecs pourraient fonder 20000 entreprises comme ça et se torcher avec que ça ne changerais rien à leur vie tant ils ont les moyens, autant dire que j'ai pris un risque en achetant un pain au chocolat noisette au lieu d'un pain au chocolat ce matin, oulala. Donc faut quelques peu tempérer le conte des grands aventuriers preneurs de risques.
    C'est au contraire parce qu'il y a 0 risques qu'ils se permettent ce genre de (petites) aventures.

    En fait il n'y a que MidJourney qui répondent à la définition d'une petite entreprise modeste aventureuse mené par un richou suffisament pas trop richou pour qu'il y ait une véritable prise de risque, et c'est l'exemple dont l'apport est le plus faible par rapport à l'état de l'art (petite équipe d'une poignée d'ingé derrière en même temps), qui reste plus l'exception que la règle.
    Midjourney c'est la seule que tu connais parce que vu ton attitude et le mépris que tu en as tu risques pas de t'intéresser de très près aux startups.
    C'est pas une exception même en comptant le côté bootstrappé, et c'est de là que viennent les choses les plus intéressantes. Pas en "apport à l'état de l'art", mais en pensée latéral avec application de celui-ci à des cas nouveaux.

    Je l'ai cité dans la même phrase que copy.ai, c'est le même calibre, mais pour chaque vague de hype comme ça tu as bien 20 000 boîtes qui se lancent en plus des efforts des gros existants. T'as qu'à te baisser pour en piocher. T'as des dizaines de milliards de pognon qatari qui via VC se déversent dans un écosystème de milliers de PME qui testent des trucs, précisément pour trouver "la possibilité qui se débloque", et 99.9% d'entre elles ne produiront pas grand chose d'intéressant pour 0.1% de cas d'usage intéressants qu'on aurait pas trouver sans tester.

    C'est bien d'elles que je parlais et pas de "Google ou Meta" comme t'avais l'air de le croire, ça fait plus de 15 ans que ces boîtes sont sorties de la définition. Eux ne sont que marginellement touchés par le fait que la techno soit hypée et n'ont pas besoin de venture capital pour investir en R&D, y compris via des trucs comme Open AI. D'ailleurs leurs efforts sont rarement synchronisés.

    Quant à ton coup de "doxa néo-libéral" avec notamment le "public bien, privé mal grr" et "conte des grands aventuriers", tu sors des objections à des trucs que je n'ai pas dit, je te laisse trouver quelqu'un d'autre avec les opinions mainstream de merde qui glorifie la startup nation sans savoir de quoi il parle. Je suis sûr que vous aurez un débat passionnant.
    Ironiquement de nous deux t'es le seul à souscrire au mythe de l'aventurier, "richou suffisament pas trop richou pour qu'il y ait une véritable prise de risque" c'est bien marrant comme formulation. T'inquiètes y'a personne qui va finir à la rue là-dedans. Quand je parle de risque c'est genre une boîte qui bosse sur un sujet pendant des années pour finalement se rendre compte que ça marche pas très bien et que c'est une impasse, pas un risque personnel.

  25. #5215
    Sinon, vous ne voulez pas faire un topic de l'IA ?

  26. #5216
    Citation Envoyé par Charmide Voir le message
    Midjourney c'est la seule que tu connais parce que vu ton attitude et le mépris que tu en as tu risques pas de t'intéresser de très près aux startups.
    C'est pas une exception même en comptant le côté bootstrappé, et c'est de là que viennent les choses les plus intéressantes. Pas en "apport à l'état de l'art", mais en pensée latéral avec application de celui-ci à des cas nouveaux.

    Je l'ai cité dans la même phrase que copy.ai, c'est le même calibre, mais pour chaque vague de hype comme ça tu as bien 20 000 boîtes qui se lancent en plus des efforts des gros existants. T'as qu'à te baisser pour en piocher. T'as des dizaines de milliards de pognon qatari qui via VC se déversent dans un écosystème de milliers de PME qui testent des trucs, précisément pour trouver "la possibilité qui se débloque", et 99.9% d'entre elles ne produiront pas grand chose d'intéressant pour 0.1% de cas d'usage intéressants qu'on aurait pas trouver sans tester.
    Je vois pas bien en quoi ça démontre que c'est un système efficace de déverser des dizaines de milliards dans une infrastructure de PME qui testent des trucs (dont 99% vendent du vent pour pomper le-dit pognon d'ailleurs, dans la vrai vie ). Ça démontre juste que c'est le système choisi par les Qatari et d'autres.
    Pourtant ton post initial auquel j'ai répondu, comme celui ci, semble « vendre » implicitement qu'il s'agit d'une très bonne chose, d'un bon système. Sans pour autant démontrer ce point. C'est ce que je pointais.

    Dans le cadre d'une discussion antérieure qui se voulait un brin carré et scientifique, je pense personnellement que ça manque d'esprit critique, et ce n'est pas un jugement personnel méprisant, c'est purement détaché. Libre à toi d'ignorer mon avis ceci dit.

    Citation Envoyé par Charmide Voir le message
    Quant à ton coup de "doxa néo-libéral" avec notamment le "public bien, privé mal grr" et "conte des grands aventuriers", tu sors des objections à des trucs que je n'ai pas dit, je te laisse trouver quelqu'un d'autre avec les opinions mainstream de merde qui glorifie la startup nation sans savoir de quoi il parle. Je suis sûr que vous aurez un débat passionnant.
    Je suis désolé, mais le discours sur « les petites PME/start up qui explorent l'univers des possibles en concurrence, c'est ça qui nous permets d'avancer », c'est quand même très proche du mainstream classique néo-libéral.
    C'est basé sur pas grand chose de rationnel, et c'est toujours assorti de pas mal de passionnel, ce que je critiquais et ce qui est assez transparents dans tes deux posts à mon avis.

  27. #5217
    Il faut surtout les deux.

    Les universités pour tester le terrain théorique.
    Les start-up/pme pour tester le terrain pratique.

    Je bosse dans une startup dans ""l'innovation"", elle a été fondée par un prof d'université et un de ses post-docs, via une pépinière à start-up de l'université elle-même. Nous industrialisons et améliorons ce qui a servi à fonder ladite start-up. On pilote aussi des projets de recherches nord-américains et européens avec le trio université / acteur de réalisation / industriel, et c'est une dynamique qui marche bien.

    Les universités sont bonnes pour se balader dans la théorie mais pas tellement pour sortir un produit après. J'ai même une anecdote à ce sujet : sur un des projets dont une de nos API servait à la réalisation (on voulais donc que ça marche), les industriels s'impatientaient car la réalisation n'avançait pas depuis 3 ans car elle était faite du coté université. On a fini par me détacher - l'université m’embauchant pour 3 mois pour que je sauve le truc - et à la fin le prototype était fonctionnel et les industriels rassurés et le projet a pus continuer.

    On est juste dans des métiers/domaines différents (et dans notre équipe on a les pieds dans les deux).
    Dernière modification par Dross ; 19/01/2023 à 23h19.

  28. #5218
    Complètement, t'as deux métiers différents qu'il n'y a pas beaucoup de sens d'opposer, même si y'a des recoupements. Je parle du mien parce que c'est ce que je connais, mais j'ai pas spécialement de détestation pour les autres ou d'illusion sur sa grandeur.

    Me paraît évident que y'a beaucoup de découvertes que tu ne peux pas faire dans une startup qui doit sortir un produit en 8 mois ou mourrir, comme il me paraît évident que c'est pas en labo que tu vas pouvoir trouver les applications d'une techno donnée à un marché donnée et la rendre utile au plus grand nombre, y'a ni l'envie ni les compétences pour.

    Et en plus comme tu décris y'a toujours une couche de transferts académique-industrie plus ou moins explicite, la sillicon valley n'aurait pas exister sans stanford, et dans les cas qui marchent t'as toujours une logique d'écosystème forte ou les deux intéragissent énormément.

    Citation Envoyé par Nilsou Voir le message
    ...
    Je te confirme que les trucs que tu t'imagines que je "vends" "implicitement" manquent complètement d'esprit critique, mais si j'avais voulu les dire je l'aurais fait explicitement. J'ai jamais fait de revendication d'efficacité ou du fait que c'était "une très bonne chose", c'est toi qui est dans les jugements de valeurs ou d'idéologie.
    Je me borne à dire que ça a une fonction et que ça sert à quelque chose. Si tu veux la démonstration de ça y'a un paquet de recherche des science sociales dans ce secteur que tu peux aller regarder, perso ça fait une dizaine d'années que je bosse dans des startups et j'en ai lancé quelques-unes, j'ai pas trop de doute sur leur utilité derrière la couche de bullshit.

  29. #5219
    Tout ce que je pointais c'est que ça venait dériver la conversation sur le sujet alors que ça n'avait que peu de rapport. Et de manière un brin exalté, ce qui ne m'étonne guère si tu dis que ça « fait une dizaine d'années que [tu] bosse dans des startups et [que t'en a] lancé quelques-unes » , forcément tu vends intrinsèquement le système en question, tu ne t'en rends même pas compte .

    En dehors de ceci, je pointais que sur le cas général c'est un mauvais exemple pour vendre le-dit système, la très très large majorité des avancées en IAs ont été faites par des labos publics et développées dans les plus grandes entreprises de la planète ou par les hommes les plus riches du monde.

    Donc je ne sais pas si le modèle startup en général est une bonne chose, mais en tout cas l'affirmer sur le cas général alors que justement, il est extrêmement critiqué et de manière plutôt unanime en science sociale, c'est tout de même un brin exagéré. Et sur le cas particulier de l'IA, c'est un peu basé sur du rien. Et c'est pas parce que plein de petites entreprises bidouilles 3/4 broutilles avec un réseau de neurones et trois stagiaires de M2 que ça change grand chose à l'affaire sur qui mène la danse dans le domaine. Et de loin.

    Citation Envoyé par Dross Voir le message
    Il faut surtout les deux.

    Les universités pour tester le terrain théorique.
    Les start-up/pme pour tester le terrain pratique.
    Perso, j'ai bossé dans deux gros labos en IA, on avait juste 0 partenariat avec des « start-up ». Avec des entreprises locales bien implantées depuis pas mal de temps : clairement. Avec des militaires et des grands industriels : tout le temps. Avec certaines des plus grosses boites du monde comme Google ou Microsoft, occasionnellement. Mais jamais vraiment avec la sphère start-up.

    D'ailleurs notons que « pme » et « start-up » n'étant vraiment pas la même chose. Souvent les start-up ont tendance à viser le maximum de communication et de bullshitage pour tenter d’appâter un plus gros et d'ainsi vendre le truc à bien plus cher. (souvent avec les équipes qui sont disséminés/virés, au passage, c'est juste pour les sous-sous du petit requinou qui monte ses start-up en engrangeant du sous sous sur du bullshit et des naïfs). Un modèle sacrément inefficace, qu'on a un peu tendance à fuir comme la peste.
    On s'est fait avoir une fois : tout nos anciens thésard d'une génération qui sont partis monter une start-up sous la férule d'un financier quelconque, et évidemment il s'est passé ceci : beaucoup de pipeau, des protos et des jolis vidéos, on revends le trucs vite fait à GDF, l'équipe est viré.
    Note que c'est bien rigolo parce que c'est un cycle de bullshit bien souvent même au niveau de l'entreprise acheteuse : ici dans le cas précis, GDF a simplement intégré la tech a son catalogue pour faire joli et rassurer les investisseurs du moment, mais n'a absolument pas développé la tech.

    Quand tu es un labo qui veut que le produit sorte en pratico-pratique : tu vise des industriels, des entreprises installées et fiables, pas des start-uper, et ce constat est plutôt général dans la plupart des labos que je connais.

    Donc non, ce qui est nécessaire, c'est une recherche publique, oui, parce que bien des recherches ne sont juste pas rentable et que ce n'est juste pas les mêmes échelles de temps. Et en contrepoint, ce qui est nécessaire c'est un secteur industriel et de services construits et fiable. C'est ça le couple nécessaire, c'est pas startu-up/recherche.
    Évidemment, il est nécessaire que quelque part des bidouilles soit faites pour développer de nouvelles choses. Mais que ce soit fait par des équipes détachées sur des projets temporaires dans le giron des grandes entreprises ou des indus., comme c'est beaucoup le cas encore, ou que ce soit fait par des start-up qui ont vocation à se faire racheter par les mêmes grosses boites et indus, bah c'est bonnet-blanc blanc-bonnet sur le principe. Et il y a mille autre méthodes en plus de ces deux modèles (à commencer par des pme stables qui font du dev pour des entreprises plus grosses, mais qui n'ont pas vocations à finir racheter pour la flouze, mais à rester stable et à grandir dans le temps, contrairement au modèle start-up).
    Dernière modification par Nilsou ; 23/01/2023 à 02h26.

  30. #5220
    Tu parle des start-up qui cherchent à faire la culbute avec des VC (et en un minimum de temps), ça existe mais c'est pas les seules, limiter tout l'univers start-up à ça, c'est une généralisation grossière.

    T'a plein de start-up qui se comportent comme les PME que tu décrit, c'est pas incompatible et c'est notamment notre cas.

Page 174 sur 185 PremièrePremière ... 74124164166167168169170171172173174175176177178179180181182184 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •