Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 164 sur 183 PremièrePremière ... 64114154156157158159160161162163164165166167168169170171172174 ... DernièreDernière
Affichage des résultats 4 891 à 4 920 sur 5490
  1. #4891
    Pouah d'ailleurs pour reprendre sur LazyJoe.

    Aujourd'hui au taff y'a un petit jeune qui vient me voir. Il me dit voilà on a un set de données, en gros c'est des inputs d'un controlleur. J'peux pas en dire trop car cybersécurité tout ça.

    Mais bref c'est des inputs d'un controlleur, et en gros on veut détecter si quelqu'un de non autorisé fait de la merde avec. Et t'as genre 1000 inputs par seconde maximum, rien de très élevé, voire même jusqu'à seulement une dizaine d'input par seconde.

    Et le mec me fait "ouais ça vous dérange si on implémente ça avec un réseau de neurone", "on voudrait utiliser tensor flow"

    Là je lui ai mis la main sur l'épaule et je lui ai dit, "écoute tu penses pas qu'on pourrait commencer avec de l'analyse statistique, analyse de patterns et autres trucs basique, je suis sûr qu'on aura de meilleurs résultats, et on a queudalle de donnée, t'as vu la dimensionalité du problème, tu vas faire un modèle sur quoi, et on fait de l'embarqué aussi, y'a pas la place pour ta lib mon copain"

    En plus y'a que certains points dans le temps qui sont intéressant à analyser, analyser tout l'input en continu est inutile, la majorité du temps c'est idle. Bref je lui ai expliqué gentiment et il m'a dit "ouais on va peut être commencer avec de l'analyse statistique"

    Tout n'est pas perdu, mais ils me rendent fous avec leurs machine learning de merde là où ça n'est pas approprié

    Le mec est Data Scientist en plus, ça me saigne

  2. #4892
    Hum, je ne sais pas pourquoi ce ne serait pas approprié en soi.

    Je ne connais pas quel est ton cas pratique, mais pragmatiquement si tu veux distinguer deux usages via des entrées, il n'y a rien de mieux que des réseaux de neurones. C'est même presque l'application de référence.

    Certes, en embarqué il ne faut, à mon avis, pas utiliser les implémentations existants sous Python et faisant le café des grains à la tasse. C'est pas adapté, c'est crade, c'est salle, et en général les gens bidouille avec sans comprendre. Mais un simple réseau multicouche, ou un Kmean conjugué à un perceptron (mono ou multicouche), ça fait parfaitement le taf. Ça se code en C en quelques minutes, c'est propre, efficace. (je fais du réseau de neurone sur robot, j'ai l'habitude de ce genre de contrainte)

    Tu peux sous échantillonner le signal d'entrée de la même manière que pour les analyses statistiques. Inutile de tout donner à manger au réseau tant que ça reste pertinent.

    Après si tu cerne toi même pertinemment la règle qui te permet de déterminer l'usage non autorisé ou autorisé, inutile de pondre quoique ce soit : tu écris la règle en dur avec des seuils et basta. Mais si tu ne la cerne pas et que t'a juste des exemples sous la main : inutile de te prendre le chou avec des analyses statistiques qui seront parfois plus lourde qu'un simple truc genre Kmean + perceptron mono couche pour des résultats souvent moins malins.

    En fait le trèèèèèèèès gros soucis de 99% des gens qui sortent de formation avec un peu d'IA dedans, c'est qu'au lieu de voir les bases de l'IA et les bibliothèques comme un cas d'application mais qu'a coté ils savent coder le truc à la main tranquille, dans la très large majorité des cas les mecs ne comprennent pas le fonctionnement d'un unique neurone de type perceptron mono-couche, et je ne te parles même pas de truc plus exotique qui ont pourtant tout leur intérêt (Kohonen, hopfield et cie) : ils n'ont appris que des « recettes » par cœur, constituées de la bibliothèque de google et cie et leurs formalismes, bien pratique certes, mais qui viennent contraindre leur raisonnement la plupart du temps, sans parler de leur capacité à saisir ce qui se passe en interne de la bibliothèque.

    Vrai histoire : J'ai fait passer une soutenance à des M2 en IA où les mecs ne savaient pas ce qu'était le taux d'apprentissage (alors qu'ils faisaient des applications complexe avec les biblio de Google Facebook et cie). Une blague.

    Donc oui le réflexe : je vais faire un truc avec tensor flow, c'est souvent un symptôme très moderne de l'ingé nimp qui apprend plein de bouts de trucs sans les comprendre. Je luttes contre ça dans l'école où j'enseigne, mais un peu en vain pour le moment.

    Citation Envoyé par Kamikaze Voir le message
    J'peux pas le prouver en 2 minutes, mais je parierais bien qu'une simple recherche dichotomique serait potentiellement plus rapide qu'une implémentation naive de l'équation, particulièrement dans un espace discret
    T'as raison sur le cas général, mais là sur le cas particulier je demande à voir. L'équation est trop simple pour qu'un processeur moderne exécute plus rapidement une boucle de recherche. Amha.
    Dernière modification par Nilsou ; 16/06/2022 à 00h09.

  3. #4893
    Citation Envoyé par rOut Voir le message
    Bah certes mais le gars vient ici parce que les équations lui font peur et il se tape une tartine de maths en réponse.
    Tellement

  4. #4894

    Awake venant trigger les matheux sur le topic de la programmation, illustration

  5. #4895
    Après, est-ce que les gens (devs et recruteurs) savent vraiment ce qu'est l'IA ?
    Combien de fois j'ai répondu à des offres pour du dev de backend Java, d'API, enfin des trucs qui demandent à peine de savoir faire une multiplication, et combien de fois le type en face me dit "cool, super impressionnant ton CV. Au fait, tu ne ferais pas aussi de l'IA ? On cherche un profil qui pourrait faire les deux".
    Les mecs donnent l'impression que l'IA c'est comme apprendre Kubernetes ou Angular, il suffirait de lire un bouquin quelques soirs pour maîtriser la chose... Après le dev fullstack ou le devops, tu as le dev fullstack-devops-IA... j'ai oublié blockchain ? ^^
    Dernière modification par gros_bidule ; 16/06/2022 à 06h22.

  6. #4896
    Citation Envoyé par Nilsou Voir le message
    Je ne connais pas quel est ton cas pratique, mais pragmatiquement si tu veux distinguer deux usages via des entrées, il n'y a rien de mieux que des réseaux de neurones. C'est même presque l'application de référence.
    C’est une affirmation très arbitraire, pas vraiment fondée et qui reste à prouver. Je connais pas mal de cas où les performances des réseaux de neurones sont inférieures à d’autres approches. C’est certainement la méthode à la mode pour diverses raisons dont la possibilité de bonnes performances sans nécessiter une analyse trop poussée.

    Le gros écueil reste encore l’intelligibilité de la décision (il est très fréquent que les réseaux se focalisent sur des biais, et pas sur les données pertinentes) et surtout l’absence de garantie de perf. C’est là où l’analyse stat est bien supérieure car elle va permettre de prouver (mathématiquement) un taux de bonne détection. Avec le réseau de neurone, on ne peut quasiment que constater empiriquement des perfs vs un jeu de données particulier.

    Les approches type réseaux sont très sympas, ça marche souvent bien, mais c'est un gros raccourci de dire qu'il n'y a rien de mieux.
    Dernière modification par Helix ; 16/06/2022 à 07h26.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  7. #4897
    Citation Envoyé par Kamikaze Voir le message
    Tout n'est pas perdu, mais ils me rendent fous avec leurs machine learning de merde là où ça n'est pas approprié

    Le mec est Data Scientist en plus, ça me saigne
    Je vis cette scène assez régulièrement, compassion.
    Sleeping all day, sitting up all night
    Poncing fags that's all right
    We're on the dole and we're proud of it
    We're ready for 5 More Years

  8. #4898
    Citation Envoyé par gros_bidule Voir le message
    Les mecs donnent l'impression que l'IA c'est comme apprendre Kubernetes ou Angular, il suffirait de lire un bouquin quelques soirs pour maîtriser la chose...
    Le mec qui maitrise Angular en quelques soir je l'attend.
    Mais sinon assez d'accord avec le reste de ton post.

    Vu qu'on parle d'IA/réseau de neurones, j'en profite pour poster les 2 dernières vidéos de Passe-Science qui traite du sujet :





    Comme d'hab avec cette chaine c'est rudement bien foutu (et y'a quelques exemples bluffant de réalisations récentes).
    C'est la faute à Arteis

  9. #4899
    Citation Envoyé par gros_bidule Voir le message
    Après, est-ce que les gens (devs et recruteurs) savent vraiment ce qu'est l'IA ?
    Combien de fois j'ai répondu à des offres pour du dev de backend Java, d'API, enfin des trucs qui demandent à peine de savoir faire une multiplication, et combien de fois le type en face me dit "cool, super impressionnant ton CV. Au fait, tu ne ferais pas aussi de l'IA ? On cherche un profil qui pourrait faire les deux".
    Les mecs donnent l'impression que l'IA c'est comme apprendre Kubernetes ou Angular, il suffirait de lire un bouquin quelques soirs pour maîtriser la chose... Après le dev fullstack ou le devops, tu as le dev fullstack-devops-IA... j'ai oublié blockchain ? ^^
    Ça dépends, mais normalement les écoles d'ingé orientée devs pourraient proposer une formation pertinente en IA. Mais ce n'est pas ce qu'elles font vraiment.

    Citation Envoyé par Helix Voir le message
    C’est une affirmation très arbitraire, pas vraiment fondée et qui reste à prouver. Je connais pas mal de cas où les performances des réseaux de neurones sont inférieures à d’autres approches. C’est certainement la méthode à la mode pour diverses raisons dont la possibilité de bonnes performances sans nécessiter une analyse trop poussée.
    C'est une affirmation basée sur 10 ans à faire de la recherche et à intégrer des réseaux de neurones sur de l'analyse comportementale et sur de la commande robotique. C'est pas vraiment « arbitraire ».
    Les réseaux de neurones ne sont pas bons dans tout, mais quand il s'agit, comme dans le cas de Kamikaze, de différentier un comportement A d'un comportement B, c'est presque le cas d'usage type de là où l'outil est imbattable. En général dès qu'on parle de « reconnaissance », il n'y a pas photo. Sauf si tu as une idée précise des critères à viser, le réseau de neurone sera le grand gagnant.

    Citation Envoyé par Helix Voir le message
    Le gros écueil reste encore l’intelligibilité de la décision
    Absolument pas un écueil si tout ce qui t’intéresse c'est le résultat. 95% des cas en pratique quoi. Surtout en ingénierie. Et en général une personne proprement formée en réseau de neurones sait ce qu'il se passe dans l'architecture qu'il a pondu. La boite noir imbitable c'est sur du deep learning avec tout pleins de couches. En dessous on comprends très souvent la nature des opérations effectuées.

    Citation Envoyé par Helix Voir le message
    (il est très fréquent que les réseaux se focalisent sur des biais, et pas sur les données pertinentes)
    C'est pas « très fréquent », c'est fréquent quand on ne sait pas manipuler proprement l'outil. Le reste du temps c'est purement accessoire, et j'ai même jamais vu ça quand il s'agissait de discriminer deux actions/comportements, pas dans mes travaux en tout cas etc.

    Citation Envoyé par Helix Voir le message
    et surtout l’absence de garantie de perf.
    Je ne connais aucun algorithmique qui te garantisse une perf en discriminant deux comportements...
    Dernière modification par Nilsou ; 16/06/2022 à 12h08.

  10. #4900
    Citation Envoyé par Nilsou Voir le message
    C'est une affirmation basée sur 10 ans à faire de la recherche et à intégrer des réseaux de neurones sur de l'analyse comportementale et sur de la commande robotique. C'est pas vraiment « arbitraire ».
    Sacré argument. Je te retourne que ça fait 25 ans que je fais de la recherche (analyse et traitement des signaux et images numériques) et j'ai un avis différent. Alors ?

    Citation Envoyé par Nilsou Voir le message
    Les réseaux de neurones ne sont pas bons dans tout, mais quand il s'agit, comme dans le cas de Kamikaze, de différentier un comportement A d'un comportement B, c'est presque le cas d'usage type de là où l'outil est imbattable. En général dès qu'on parle de « reconnaissance », il n'y a pas photo. Sauf si tu as une idée précise des critères à viser, le réseau de neurone sera le grand gagnant.
    Souvent =/= toujours.

    Citation Envoyé par Nilsou Voir le message
    Absolument pas un écueil si tout ce qui t’intéresse c'est le résultat.
    Je te dis que le problème de la compréhension de la décision et tu me réponds que si seul le résultat t'intéresse ce n'est pas un soucis. Ben oui forcément.
    Encore que si ta décision vient à défaillir, tu seras bien content de pouvoir comprendre comment elle est prise.


    Citation Envoyé par Nilsou Voir le message
    C'est pas « très fréquent », c'est fréquent quand on ne sait pas manipuler proprement l'outil. Le reste du temps c'est purement accessoire, et j'ai même jamais vu ça quand il s'agissait de discriminer deux actions/comportements, pas dans mes travaux en tout cas etc.
    Pas dans les tiens, tant mieux. Mais dans les miens c'est fréquent. Exemple : détection d'images falsifiées. Si tu ne fais pas gaffe, ton algo va construire une décision sur des données non pertinente (un biais dans la construction de la base d'apprentissage, genre la taille de l'image pour caricaturer) et donc ne te sert à rien.

    Citation Envoyé par Nilsou Voir le message
    Je ne connais aucun algorithmique qui te garantisse une perf en discriminant deux comportements...
    Je te conseille alors de lire la littérature sur les tests d'hypothèses statistiques.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  11. #4901
    Citation Envoyé par Helix Voir le message
    Sacré argument. Je te retourne que ça fait 25 ans que je fais de la recherche (analyse et traitement des signaux et images numériques) et j'ai un avis différent. Alors ?
    Ben alors on est pas d'accord
    Et sinon bon, en reconnaissance, faut faire un peu ton deuil, les réseaux de neurone explose tout dans le domaine depuis quelques années déjà amha ...

    Citation Envoyé par Helix Voir le message
    Souvent =/= toujours.
    Très souvent. Bien suffisant pour conseiller la méthode par rapport à une autre. D'autant plus quand elle est très simple à implémenter.

    Citation Envoyé par Helix Voir le message
    Je te dis que le problème de la compréhension de la décision et tu me réponds que si seul le résultat t'intéresse ce n'est pas un soucis. Ben oui forcément.
    Encore que si ta décision vient à défaillir, tu seras bien content de pouvoir comprendre comment elle est prise.
    Ça dépends vraiment de ton application. Et en réseau de neurone, sur des réseaux bien conçu, c'est aisé de comprendre, dans pas mal de cas, ce qu'ont en commun les cas foireux. Si on progresse très régulièrement sur les reconnaissance jusqu’à atteindre des niveaux qui explose ce que les êtres humains sont capable de faire sur des cas complexe, c'est pas en changeant les trucs au petit bonheur (enfin, pas toujours ) .
    De manière générale, dans plein de cas pratique, on s'en fiche un peu. On faisait même dès les années 90 de la reconnaissance de faux billets dans les banques suisses avec des réseaux de neurones minimalistes, ça marchait très bien avec des résultats indécents. Et quand y'a une erreur, ben ma fois il y a une erreur, mais comme pragmatiquement les autres algo ne font pas mieux...

    C'est sur que pour un matheux, le concept fait mal

    Citation Envoyé par Helix Voir le message
    Je te conseille alors de lire la littérature sur les tests d'hypothèses statistiques.
    Ça te permet de chiffrer à quelle point tu penses que c'est juste ou faux par rapports aux populations précédentes. Ça ne te permets pas vraiment de garantir quoique ce soit à 100% à ma connaissance et encore moins de garantir ton chiffrage si la population change drastiquement (ce qui est déjà le problème avec les réseaux de neurones)... Ça te permets de te rassurer quoi
    Avec un réseau de neurone sur un suffisamment grand nombre d'échantillon tu peux également établir une forme de chiffrage, empirique certes, mais bien souvent ça fait parfaitement le taf.

    M'enfin, je ne suis pas expert en test statistique, je veux bien te croire si tu me dis que ça a bien avancé dans le domaine.

    Néanmoins je persiste à dire que pour les cas de reconnaissance de comportement, et de reconnaissance en général, les réseaux de neurones ça explose tout, c'est l'outil qui est véritablement conçu pour.
    Dernière modification par Nilsou ; 16/06/2022 à 13h34.

  12. #4902
    Citation Envoyé par Nilsou Voir le message
    Hum, je ne sais pas pourquoi ce ne serait pas approprié en soi.
    Le rapport cout/benefice par rapport a la solution statistique, tout simplement ? Ou autrement dit "le mieux est l'ennemi du bien" ?

    Dans l'industrie, y'a pas que le resultat qui compte, y'a aussi les coûts pour le mettre en place
    Ce qu'il faut savoir, c'est qu'on ment beaucoup aux minmatars, surtout lorsqu'ils posent des questions du style: "t'es sûr que ça vole, ce truc ?" Cooking Momo, le 30/08/09

  13. #4903
    Citation Envoyé par Teocali Voir le message
    Le rapport cout/benefice par rapport a la solution statistique, tout simplement ? Ou autrement dit "le mieux est l'ennemi du bien" ?
    Tu parles de quoi pour ton cout ou ton bénéfice ? Si c'est calculatoire, un petit réseau de neurone tourne parfaitement en embarqué à moindre cout pour la détection d'anomalie. C'est même une application de référence aujourd'hui, et c'est déjà appliqué ainsi depuis une 20ene d'année.
    Sinon je ne sais pas trop de quoi tu parles

    Si c'est en temps : à partir du moment ou tu disposes déja de ta base, le cout de la mise en place est presque nulle. C'est l'une des solutions les moins couteuses. C'est pour ça que c'est utilisée comme une boite noir par de plus en plus d'ingénieur qui bidouille avec : c'est parce que c'est tout à fait possible de bidouiller un machin qui marche en 30 minutes pour un stagiaire de M2.

  14. #4904
    Citation Envoyé par Nilsou Voir le message
    Tu parles de quoi pour ton cout ou ton bénéfice ? Si c'est calculatoire, un petit réseau de neurone tourne parfaitement en embarqué à moindre cout pour la détection d'anomalie. C'est même une application de référence aujourd'hui, et c'est déjà appliqué ainsi depuis une 20ene d'année.
    Sinon je ne sais pas trop de quoi tu parles

    Si c'est en temps : à partir du moment ou tu disposes déja de ta base, le cout de la mise en place est presque nulle. C'est l'une des solutions les moins couteuses. C'est pour ça que c'est utilisée comme une boite noir par de plus en plus d'ingénieur qui bidouille avec : c'est parce que c'est tout à fait possible de bidouiller un machin qui marche en 30 minutes pour un stagiaire de M2.
    En terme de coût je parle de l'effort de mise en place, en temps, en effort d'apprentissage, tout ça.
    Si tu n'as pas la base, comme tu dis, que tu n'as jamais fait ça en milieu pro, et que personne dans ta boite n'a les compétences pour te former et/ou t'encadrer sur le sujet, ben, ouais, dans ce cas, une solution moins que parfaite mais bien suffisante peut valoir le coût, oui.

    Mieux vaux une bonne solution rapidement qu'une solution parfaite qui arrive trop tard, pour faire simple. Et merci Patton.
    Ce qu'il faut savoir, c'est qu'on ment beaucoup aux minmatars, surtout lorsqu'ils posent des questions du style: "t'es sûr que ça vole, ce truc ?" Cooking Momo, le 30/08/09

  15. #4905
    Citation Envoyé par Teocali Voir le message
    En terme de coût je parle de l'effort de mise en place, en temps, en effort d'apprentissage, tout ça.
    Si tu n'as pas la base, comme tu dis, que tu n'as jamais fait ça en milieu pro, et que personne dans ta boite n'a les compétences pour te former et/ou t'encadrer sur le sujet, ben, ouais, dans ce cas, une solution moins que parfaite mais bien suffisante peut valoir le coût, oui.
    Effectivement, je parlais évidemment dans le contexte ou quelqu'un a eu une solide formation dans ce domaine. Sinon c'est ridicule de tenter de bidouiller un truc sans le comprendre. Surtout que les réseaux de neurones, amha, faut avoir pas mal manipulé pour dégager une certaine connaissance et intuition du fonctionnement de l'outil.
    Après, normalement, tu as de plus en plus de jeunes qui vont débarquer qui maitriserons un brin le machin, amha c'est possible d'en tirer quelque chose dans certains cas d'application typique.

    Pour la base d'apprentissage c'est un vrai problème, le top c'est de mettre en place des solutions qui se nourrissent d'elles même en fonctionnement. Comme ça s'améliore tranquillement au fil du temps.

  16. #4906
    Citation Envoyé par Nilsou Voir le message
    La boite noir imbitable c'est sur du deep learning avec tout pleins de couches.
    Sachant qu'en vrai, t'as rarement juste ça.
    Les architectures internes sont choisies justement pour répondre à des problèmes plus ou moins spécifiques (cf les 2 vidéos de Passe Science juste au dessus).
    C'est la faute à Arteis

  17. #4907
    Oui bien entendu.
    Je simplifiais.

    Après faut relativiser, certaines architecture comme celles des deux vidéos au dessus sont effectivement conçues de manière plus complexe (et je ne bosse personnellement que sur des archis complexes) mais y'a plein de cas où c'est quelques couches, de tailles différentes, avec un vague pré-traitement et basta.

    Y'a même quelques cas ou c'est une couche combinée avec un categoriseurs et voila, ça marche dans pas mal de cas de cas d'application : rapide à mettre en place, cout calculatoire ridicule.

  18. #4908
    Tu me recopieras 100 fois l'adage "quand on a un marteau, tous les problèmes ressemblent à des clous".
    - La version 3 est arrivée !

  19. #4909
    Citation Envoyé par TwinBis Voir le message
    Tu me recopieras 100 fois l'adage "quand on a un marteau, tous les problèmes ressemblent à des clous".
    Là, c'est plutot que quand t'as une perceuse-visseuse multi-fonction a debrayage electronique, tu tiens absolument a l'utilisé pour enfoncer un bete clou :D
    Ce qu'il faut savoir, c'est qu'on ment beaucoup aux minmatars, surtout lorsqu'ils posent des questions du style: "t'es sûr que ça vole, ce truc ?" Cooking Momo, le 30/08/09

  20. #4910
    Citation Envoyé par Tramb Voir le message
    Je vis cette scène assez régulièrement, compassion.
    Non, c'est bien fait pour vous.
    "Dieu est mort" · "Si le téléchargement c’est du vol, Linux c’est de la prostitution."

  21. #4911
    Citation Envoyé par Nilsou Voir le message
    Et sinon bon, en reconnaissance, faut faire un peu ton deuil, les réseaux de neurone explose tout dans le domaine depuis quelques années déjà amha ...
    Les résultats bruts sont bons enn général c'est certain mais il y a encore pas mal de points à améliorer. Ce n'est pas la panacée.
    Et puis il n'y a pas que la reconnaissance dans les sujets que l'on évoque et ceux réclament des solutions.

    Citation Envoyé par Nilsou Voir le message
    Ça te permet de chiffrer à quelle point tu penses que c'est juste ou faux par rapports aux populations précédentes. Ça ne te permets pas vraiment de garantir quoique ce soit à 100% à ma connaissance et encore moins de garantir ton chiffrage si la population change drastiquement (ce qui est déjà le problème avec les réseaux de neurones)... Ça te permets de te rassurer quoi
    Non, ce n'est pas du tout ça. En gros, par une étude de ton système tu prouves que tes données suivent une loi de probabilité connue et que ton hypothèse H0 (bonnes données) est représentée par des valeurs fixes de paramètres de ta distribution. En cas d'anomalie, tu t'écarte soit de ces valeurs, soit de la forme de ta distribution. Ce qui te permet de construire un test d'hypothèse, ce qui te permet de garantir des taux de perfs. La limite est ta capacité à 1/ modéliser ton système et 2/ avoir peu de paramètres sur ta loi car sinon ton test d'hypothèse est impossible à construire.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  22. #4912
    Citation Envoyé par Teocali Voir le message
    Là, c'est plutot que quand t'as une perceuse-visseuse multi-fonction a debrayage electronique, tu tiens absolument a l'utilisé pour enfoncer un bete clou :D
    Si ta perceuse est à percussion, ça fonctionne pas si mal !
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  23. #4913
    Citation Envoyé par TwinBis Voir le message
    Tu me recopieras 100 fois l'adage "quand on a un marteau, tous les problèmes ressemblent à des clous".
    Je suis désolé, mais les problèmes de type « je souhaite discriminer une catégorie de comportement/visage/sons/videos/tuti-quanti A d'une catégo de comportement/visage/sons/videos/tuti-quanti B », c'est quand même très spécifiquement le clou parfait pour l'outil en question
    C'est encore plus vrai quand il s'agit d'une catégorie floue comme un « mauvais » comportement, sur quelque chose de déjà complexe (comme un « comportement ») etc, pour lesquelles tu n'a qu'une connaissance humaine en amont.

    Je suis le premier à critiquer le mauvais usage des réseaux de neurones, mais faut pas déconner : sur ce type de problème précis, c'est totalement adapté. C'est LE cas réseau de neurone. Tu ne peux pas faire plus adapté à vrai dire. C'est sur ce cas précis que les réseaux de neurones défoncent tout (humain inclut au passage).

    Citation Envoyé par Helix Voir le message
    Les résultats bruts sont bons enn général c'est certain mais il y a encore pas mal de points à améliorer. Ce n'est pas la panacée.
    Et puis il n'y a pas que la reconnaissance dans les sujets que l'on évoque et ceux réclament des solutions.
    C'était le cas présenté par Kamikaze en l’occurrence, et le seul que je traitais.
    Pour le reste bien entendu qu'il ne faut pas utiliser les réseaux de neurone dans tout plein d'autres cas.

    Citation Envoyé par Helix Voir le message
    Non, ce n'est pas du tout ça. En gros, par une étude de ton système tu prouves que tes données suivent une loi de probabilité connue et que ton hypothèse H0 (bonnes données) est représentée par des valeurs fixes de paramètres de ta distribution. En cas d'anomalie, tu t'écarte soit de ces valeurs, soit de la forme de ta distribution. Ce qui te permet de construire un test d'hypothèse, ce qui te permet de garantir des taux de perfs. La limite est ta capacité à 1/ modéliser ton système et 2/ avoir peu de paramètres sur ta loi car sinon ton test d'hypothèse est impossible à construire.
    Ok, merci du rappel. Ça me revient, ça fait un bout de temps que je n'en ai pas fait. On est bien d'accord que dans le cas d'un comportement « licite » ou « illicite » du cas de Kamikaze, ce qui est notion assez floue très comparable à la reconnaissance d'action « dangereuse » par des caméras de vidéosurveillance, (cas classique d'application récentes des réseaux de neurones), ce n'est pas du tout adapté car tu ne sais pas du tout modéliser le-dit système ...
    En fait c'était complétement implicite dans ce que je disais, si tu as des infos sur ton système et que tu es capable de le modéliser proprement, utiliser des réseaux de neurone c'est effectivement, un peu ridicule.

  24. #4914
    Citation Envoyé par Kamikaze Voir le message
    Nope, ça va bien sûr dépendre du processeur et de tout un tas de variables. Par exemple est ce qu'on veut une valeur exacte ou approximative. Mais on rappelle que John Carmack s'est fait un nom avec sa fameuse optimisation de l'inverse de la racine carrée



    Et c'est ce que je disais dans mon tout premier post en réponse à la question: le plus compliqué dans cette question c'est le contexte.

    Si tu fais un simulateur de particules avec 10 millions d'entités, à coup sûr la solution avec l'équation sera pourrave en terme de performance et de toute façon tu ne voudras pas une solution exacte.
    Genre si tu simules un nuage de poussière. Et il faudra prendre en compte les intéractions des particules entre elles, donc tu voudras souvent agglomérés les intéractions et simplifier car sinon c'est trop dur et sous optimal de considérer chaque particule isolée vis à vis de toutes les autres.

    Si tu fais un jeu genre Mario qui saute et on veut pas qu'il traverse ou clip avec les murs, du coup distance de 5px, ça peut aller de résoudre l'équation.
    Mais le calcul flottant sur les PC c'est toute une histoire.

    Donc tout ça pour dire que c'est vraiment pas une question si simple et ça dépend vachement du cas d'utilisation.
    Faut pas oublier qu'un écran de PC même haute résolution ça sert rarement de faire du calcul exact, t'as un pixel entier d'erreur (je simplifie) disponible, c'est discret

    Si tu fais du calcul pour envoyer une fusée sur la Lune, il se peut que les équations soient exactes, mais instables, et tu préféreras peut être un truc plus lent d'un point de vue calculatoire, mais stable.

    C'est quelque chose de très connu et ça a causé des catastrophe genre des missiles qui ratent leur cible etc.

    On rappelle que la simple addition de 2 nombres à virgule n'est pas associatif en programmation par exemple, on est sur le topic de la prog, pas sur le topic des maths!

    Donc tu ne peux pas avoir des considérations purement mathématiques ouais, il faut avoir ces considérations calculatoires, et je pense pas que la réponse soit simple.

    J'peux pas le prouver en 2 minutes, mais je parierais bien qu'une simple recherche dichotomique serait potentiellement plus rapide qu'une implémentation naive de l'équation, particulièrement dans un espace discret
    L'algo n'est pas de Carmack Je crois que plus personne ne sait qui l'a trouvé en premier
    Et ça tien plus du hack qu'autre chose.

  25. #4915
    J'ai dit qu'il s'était fait un nom avec pas qu'il l'avait inventé! Ouais j'ai vu l'interview où il dit qu'il a trouvé ça dans un livre ou je ne sais quel papier et sur google on peut trouver les auteurs. Quoique c'tait p'têt une interview de Romero
    C'tait plus pour dire qu'une abstraction telle que la racine carré, qu'on balance un peu à tout va dans les calculs, faut plus voir ça comme un algo avec un impact calculatoire, plutot que comme un opérateur comparable à une addition quoi.

    Un truc sur lequel j'aimerais bien bosser, en recherche, si j'avais pas mon taff', c'est une notation mathématique qui prend en compte la complexité calculatoire des expressions, je pense que y'a du potentiel pour faire un truc intéressant. Genre c'est une notation qui rendrait explicite que déterminer si un nombre est premier est une opération couteuse etc.
    Où l'égalité serait une égalité non seulement en terme d'expression mathématique mais aussi équivalence en terme de coup calculatoire, un truc du genre

    Enfin pas juste une notation, des opérateurs. Du coup du pourrait faire des opérations basées sur la complexité, tu pourrais appliquer des réductions de complexité quitte à diminuer la précision d'une opération, précision qui serait exprimée de manière classique avec les opérateurs de comparaison et un epsilon genre. Et tu pourrais comparer 2 équations qui donne le même résultat, mais avec une complexité différente.

    M'enfin c'est qu'une idée vague, mais en gros tu pourrais partir d'une équation très connue donnée, et en réduire la complexité calculatoire autant que possible (en réduisant ou non la précision (pas de blague sur les physiciens merci)), un peu comme une réduction en facteurs premiers. Et du coup il serait manifeste quand une opération qui apparait simple est en réalité complexe.

    Par exemple dans ce système (idéalement) la conjecture de Collatz serait explicitement "compliquée"
    Dernière modification par Anonyme20240202 ; 18/06/2022 à 19h28.

  26. #4916
    Déja ce serait pas mal un code couleur sur les fonctions et opérateurs quand on code, un petit bouton dans l'IDE et paf tout est recoloré en fonction de la complexité

  27. #4917
    On a bien des outils qui donnent la complexité cyclomatique (ok, rien à voir avec les perfs machine, mais plus avec les perfs de notre pauvre cerveau à comprendre le code mal structuré).
    Mais si vous êtes capables d'analyser le code pour mettre en évidence ce dont vous parlez, sincèrement, coloriser ça dans un IDE c'est très facile.

    Y'aurait même moyen de s'associer et faire des plugins payants

  28. #4918
    Je me demande si ça n'existe pas déjà sur des temps d'exec... ça me parait effectivement « simple ». Il doit bien y avoir un bidule Jetbrains qui fait déjà ce genre de chose ^^

  29. #4919
    Citation Envoyé par Kamikaze Voir le message
    une abstraction telle que la racine carré, qu'on balance un peu à tout va dans les calculs, faut plus voir ça comme un algo avec un impact calculatoire, plutot que comme un opérateur comparable à une addition quoi.
    Tu es au courant que la racine carrée est directement calculée en hardware depuis un petit moment (sur les archi x86 en tout cas) ?
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  30. #4920
    Lol c'est ouf comme les messages se perdent à travers les forums, faut que je me mette à Discord. Ouais je suis au courant que y'a des implémentations hardware, d'ailleurs la première chose qui est mentionnée dans les docs X86/X64 c'est la précision avec laquelle l'opération est faite, ce qui est exactement ce dont je parle, le trade off précision vs. performance.
    Mon propos c'est simplement de formaliser ça via une structure algébrique. Genre j'étais pas en train de dire qu'il faut se prendre la tête avec ça au jour le jour quand tu codes, bon après j'ai p'têt pas bien formulé ça.

Page 164 sur 183 PremièrePremière ... 64114154156157158159160161162163164165166167168169170171172174 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •