Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 25 sur 46 PremièrePremière ... 15171819202122232425262728293031323335 ... DernièreDernière
Affichage des résultats 721 à 750 sur 1361
  1. #721
    Piaget c'est la base de tout mes travaux au laboratoire Et on cite régulièrement Piaget 1945.
    Cet homme est un pilier de la réflexion dans l'IA comme ont pu l'être Turing ou Asimov dans leur genre.

    Je l'aime

  2. #722
    Je pensais bien que cette citation allait te plaire, mais je n'imaginais pas taper aussi juste !
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  3. #723
    Plop les canards. Je cherche à citer un papier de google qui parlerais de leur alphastar qui a battu le champion de starcraft 2 après 400 année virtuelle d'entrainement.
    Je trouve pas mal d'article scientifique qui rebondissent dessus ou d'article de journaux grand public, mais pas l'article d'origine (si il existe).

    Si quelqu'un sait ou trouver ça ...
    Dernière modification par Nilsou ; 05/07/2019 à 14h39.

  4. #724
    Premier résultat Qwant: https://deepmind.com/blog/alphastar-...-starcraft-ii/
    Second résultat: https://deepmind.com/research/alphastar-resources/

    C'est ce que tu voulais?
    Barba non facit philosophum.

  5. #725
    Hum, le truc c'est que c'est pas à strictement parlé un article publié. A la limite je peut citer un site web mais c'est tout de même mieux si c'est de l'article.
    Les mecs de deepmind n'ont pas publié leur résultat dans un journal quelconque ?

  6. #726
    Tu as liste de leurs publications sur le site: https://deepmind.com/research/alphastar-resources/
    Barba non facit philosophum.

  7. #727
    Ouais, bon j'ai fouillé un peu sur scholar et sur leurs sites et il semble qu'en réalité les autres articles, et eux même, citent la page du site web en le considérant comme un article publié par le "deepmind blog". Donc je vais faire ça Ils ne semblent pas avoir publié d'article autre sur leur résultat pour starcraft spécifiquement.

    J'ai trouvé ça en bibtex pour les curieux qui voudrais garder la citation au chaud :

    @article{vinyals2019alphastar,
    title={AlphaStar: Mastering the real-time strategy game StarCraft II},
    author={Vinyals, Oriol and Babuschkin, Igor and Chung, Junyoung and Mathieu, Michael and Jaderberg, Max and Czarnecki, Wojciech M and Dudzik, Andrew and Huang, Aja and Georgiev, Petko and Powell, Richard and others},
    journal={DeepMind Blog},
    year={2019}
    }

    Sinon les mecs ont un tombereau de papier, c'est impressionnant, rien que 2019 ça fait plusieurs pages d'articles Et en plus ils bossent sur plus de sujet que je ne le pensais...

    En tout cas merchi pour le coups de main

  8. #728
    Je t'en prie
    Barba non facit philosophum.

  9. #729
    BIM
    C'est effectivement assez bluffant.


    https://scienceetonnante.com/2020/12...des-proteines/
    "Les faits sont têtus."


  10. #730
    Ouais j'allais poster ça.
    Très intéressant comme résultat.

    Je suis impatient de voir les débouchés et applications que ça peut amener dans les années qui viennent.
    C'est la faute à Arteis

  11. #731
    C'est très intéressant comme application.

    Mais je vais faire mon râleur de service en rappelant toujours les points à garder à l'esprit. (certains sont déjà rappelé par l'auteur de la vidéo à la fin, qui fait bien son job d'ailleurs en moyenne, mais je me permet d'en remettre une couche)

    - D'abord ce n'est pas surprenant comme résultat. En fait, tout problème ou on a un observable B que l'on souhaite retrouver à partir d'un état A bien connu (B=f(A)) est aproximable par de l'apprentissage machine.
    Donc finalement vous pouvez considérer que tout les problèmes existants actuellement de ce type et qui n'ont pas de solutions théorique parce qu'elle est trop tordus à trouver (cas du repliement des protéines), est virtuellement déjà résolu. Ce n'est qu'une question de base à construire, de découpage de l'entrée selon des paramètres mangeable par le réseau etc. Des grands classiques. Bref : ça devient un problème de temps et de moyens humain et non plus vraiment un problème scientifique au sens strict.
    Notons au passage que l'auteur de la vidéo commet quelques erreurs je pense. La première est d'affirmer que le problème ne peut pas se résoudre en bourrin. L'histoire récente des réseaux de neurone profond nous a montré que si simplifier l'entrée fait gagner beaucoup en performance, jusqu'ici on a quasiment toujours réussi a résoudre le problème en bourrin par la suite. Donc dire que c'est trop compliqué pour la technique est faux, à mon sens. Ça demanderait juste plus de couche etc...

    - Le second aspect à retenir sur ce type de résolution c'est qu'elle ne sont pas forcement positive pour le monde scientifique à terme, dans le sens ou elle rendent inutile toute recherche d'une solution théorique « analytique » et qu'il est difficile, voir impossible de lire ce que le réseau de neurone fait en interne (notion d'inscrutabilité). Au final peut-être qu'une solution analytique « simple » du problème, mais que personne n'avaient trouvé, auraient pu être trouvé dans le futur et généralement ce genre de solution et leurs recherche permettent de comprendre là ou l'on s'était planter et de faire avancer la science en générale.
    Un exemple que je pense typique : Si on avait découvert le deep learning avant la mise en équation de la relativité, on aurait probablement résolu tout les petits problèmes qu'on rencontrait dans l'observation physique (orbite de mercure etc.) via du deep learning, sans soucis, qui aurait, en quelque sorte, approximé les équations de la relativité. Mais sans que l'humanité ne connaisse ensuite la relativité et ce qu'elle implique.
    Oui parce qu'une fois le problème résolu en pratique (avec un système qui le résout, aussi opaque soit-il), les budgets par ailleurs pour trouver une solution théorique, vous pouvez être certains qu'ils disparaissent comme par magie . Pourquoi payer pour un problème non existant en pratique ?

    - Enfin, un réseaux de neurone a toujours un gros problème de fond qui peut amener à des bourdes colossale, qui ici, en plus, peuvent avoir des conséquences désastreuses.
    En effet, un réseau dépends de sa base d'apprentissage, il approxime la résolution d'un problème. Pour les plus ancien d'entre vous : il se contente de tracer une abaque géante et en multiple dimension, des cas rencontrés. Mais de fait il est très sensible à la base en elle même et quelque chose d'un peu étrange, qui sort de cette base, même si il obéit aux mêmes lois de la physique, peut parfois se retrouver avec une sortie complétement fausse de la part du réseau.

    Et ici c'est un peu le cas, car quel est l’intérêt de résoudre le problème du repliement ? C'est de ne plus faire de cristallographie évidemment (surtout dans les cas ou on ne peut pas le faire ^^) et ainsi de mieux comprendre certaines molécules à cibler et ainsi de concevoir des médicaments/traitements etc... Le problème c'est qu'ensuite on fonctionne un peu en cycle fermé, avec une confiance importante dans l'outil, le réseau, utilisé. Une erreur importante du réseau sur une protéine un peu spéciale pourrait alors causer de gros soucis en aval...On a déjà vu ce genre de soucis sur pas mal de réseau qui ont été déployé dans la vie réelle. Et souvent ça commet des bourdes auxquelles on ne s’attendait pas vraiment, mais qui sont logique a posteriori.


    Sinon je pense que l'auteur se plante dans sa conclusion. De très nombreux domaine ont vu des applications de deep learning (et de l'apprentissage en général, parfois pas deep du tout) changer leurs approches dans des cas très pratique et pragmatique, conclure que là c'est l'une des première application sur un cas concret hors des domaines traditionnelle de l'IA est n'imp (c'est juste que tout les labos qui font de l'IA en collaboration avec d'autres domaine n'ont pas le pouvoir de com d'un google, mais l'IA a été appliqué avec succès à de nombreux domaine en agriculture, en prédiction des polluant, météorologie, calcul de trajectoire etc etc etc).
    Dernière modification par Nilsou ; 10/12/2020 à 14h01.

  12. #732
    - D'abord ce n'est pas surprenant comme résultat. En fait, tout problème ou on a un observable B que l'on souhaite retrouver à partir d'un état A bien connu (B=f(A)) est aproximable par de l'apprentissage machine. Par définition.
    Donc finalement vous pouvez considérer que tout les problèmes existants actuellement de ce type et qui n'ont pas de solutions théorique parce qu'elle est trop tordus à trouver (cas du repliement des protéines), est virtuellement déjà résolu.
    Oui, enfin une fois que tu as dit ça tu n'as rien dit. Tout problème qui a un espace de configuration fini est "virtuellement déjà résolu", puisqu'il existe un algorithme théorique très simple qui le résout : il suffit de vérifier pour chaque configuration si c'est une solution. Et comme pratiquement tout les problèmes informatique ont un espace de configuration fini...

  13. #733


    Évidemment qu'on peut tester toutes les solutions et qu'on peut le faire depuis les débuts de l'informatique. C'est pas ce que fait le deep ni même l'optimisation génétique, sinon on arriverait à rien résoudre dans un temps correct.

    Moi je te parle en pratico-pratique là, pas en théorique : en pratico-pratique, tout les problèmes qui s'écrivent A=f( B ) et dont on a une énorme base d'exemple pour A et B vont être résolu dans les prochaines années par les méthodes d'apprentissage automatique (ou optim génétique, etc.).
    Oui en théorie on sait le faire depuis des dizaines d'années, là on sait le faire en pratique de façon extrêmement simple, et sans vérifier toutes les solutions. (et ça marche en pratique parce que justement les méthodes de convergence font qu'on a pas besoin de vérifier toutes les solutions possibles, heureusement, c'est leur avantage et aussi leur gros défaut (minimum local != minimum global) )

    Et si, ça « dit » quelque chose : c'est que si vous avez un problème de ce genre sous le coude dans votre domaine, l'annonce de sa résolution par le deep (ou autres dérivés) dans les années qui viennent est plus une fatalité qu'une surprise. (d'ailleurs si ce problème vous tient à cœur et que personne ne s'y est encore collé, prenez contact avec un labo d'IA), ce n'est plus qu'une question d’ingénierie.

  14. #734
    Citation Envoyé par Nilsou Voir le message
    - D'abord ce n'est pas surprenant comme résultat. En fait, tout problème ou on a un observable B que l'on souhaite retrouver à partir d'un état A bien connu (B=f(A)) est aproximable par de l'apprentissage machine. Par définition.
    L'usage abusif de "par définition", c'est le nouveau "littéralement"?

    - - - Mise à jour - - -

    Citation Envoyé par Enyss Voir le message
    Et comme pratiquement tout les problèmes informatique ont un espace de configuration fini...
    Je conteste, vigoureusement.

  15. #735
    Citation Envoyé par Shosuro Phil Voir le message
    L'usage abusif de "par définition", c'est le nouveau "littéralement"?
    Bah à partir du moment ou le concept même de l'apprentissage machine c'est de découper des petits bouts de ta fonctions f() aussi petit que tu veut (ça dépends de ton nombre de couche, de tes noyaux etc.) pour les linéariser. Tu va finir par l'approximer très simplement au niveau qui te conviens pour le problème considéré.
    Alors oui il y a quelques conditions chiante comme la pluie à énoncer (faut que ta fonction ait une logique, tu ne va pas approximer du bruit, évidemment etc.) et encore plus relou à énoncer strictement mathématiquement. Mais le point important c'est que la quasi totalité des problèmes de la vie réelle tombent dans cette section.

    C'est ce point qui t’embête ? On parle évidemment d'une gamme de problèmes en lien avec le monde physique ici.
    Dernière modification par Nilsou ; 10/12/2020 à 13h48.

  16. #736
    Citation Envoyé par Nilsou Voir le message
    C'est ce point qui t’embête ? On parle évidemment d'une gamme de problèmes en lien avec le monde physique ici.
    Non ce qui me fait tiquer, c'est le "par définition" - littéralement. Ce n'est pas par définition, c'est un théorème - ou alors ta définition de problème approximable par apprentissage est vraiment ad hoc.

    Accessoirement, je n'ai pas regardé de près les preuves du théorème en question, mais il me semblait que c'était essentiellement une application du théorème de Weierstrass - donc en gros, même un bruit brownien serait approximable.

  17. #737
    Citation Envoyé par Shosuro Phil Voir le message
    Je conteste, vigoureusement.
    Je parle de problèmes pratiques, pas d'informatique théorique (qui eux ont effectivement souvent un espace de configurations non borné)

  18. #738
    Citation Envoyé par Shosuro Phil Voir le message
    Non ce qui me fait tiquer, c'est le "par définition" - littéralement. Ce n'est pas par définition, c'est un théorème - ou alors ta définition de problème approximable par apprentissage est vraiment ad hoc.

    Accessoirement, je n'ai pas regardé de près les preuves du théorème en question, mais il me semblait que c'était essentiellement une application du théorème de Weierstrass - donc en gros, même un bruit brownien serait approximable.
    J'ai enlevé le par définition puisque ça a l'air d'être important pour toi.

    Sinon un mouvement brownien peut en effet être approximable si tu a suffisamment d'info en entrée. Mais comme c'est chaotique en général ça donne de très mauvais résultat. On a du mal a approximer des évolutions chaotiques sur le long terme. Par définition .

  19. #739
    Citation Envoyé par Nilsou Voir le message
    J'ai enlevé le par définition puisque ça a l'air d'être important pour toi.
    Oui, les mots, dans une communication verbale, je trouve ça assez important.

    Sinon un mouvement brownien peut en effet être approximable si tu a suffisamment d'info en entrée. Mais comme c'est chaotique en général ça donne de très mauvais résultat. On a du mal a approximer des évolutions chaotiques sur le long terme.
    On parle pas de la même chose, ou alors tu as un problème avec les hypothèses dans les théorèmes. "Long terme", sur un compact...

  20. #740
    Citation Envoyé par Shosuro Phil Voir le message
    On parle pas de la même chose, ou alors tu as un problème avec les hypothèses dans les théorèmes. "Long terme", sur un compact...
    Je parle d'application réelle, pas de théorie.
    Dans la réalité tu fais des observations A(t), A(t+1), A(t+2) etc... et elles sont entachées d'erreurs. Comme il y a des erreurs et que le phénomène est chaotique la réalité va diverger fortement de ton modèle prédictif au fur et à mesure.

    Personnellement je ne vois pas trop comment en pratique tu pourrais prédire un mouvement brownien mais bon ...

  21. #741
    Citation Envoyé par Nilsou Voir le message
    D'abord ce n'est pas surprenant comme résultat. En fait, tout problème ou on a un observable B que l'on souhaite retrouver à partir d'un état A bien connu (B=f(A)) est aproximable par de l'apprentissage machine.
    Quand même, tu ne dis pas grand chose avec cette phrase car si ton observation est très dégradée ou peu porteuse d'information pertinente, ton approximation va être de mauvaise qualité et ton apprentissage inutilisable.
    Tu as donc des problèmes avec des observations, mais non approximables en pratique par un apprentissage artificiel.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  22. #742
    Il est évident dans le contexte que je parle des problèmes ou on a de bons observables des deux cotés (un bon B et un bon A). Tu pinaille. On ne va pas écrire le détail du détail à chaque fois qu'on écrit une phrase de vulgarisation. Par ailleurs c'est implicitement inclut dans mon « Ce n'est qu'une question de base à construire » phrase juste en dessous.

    Note en plus que si tes observations sont de très mauvaises qualité c'est de toute manière AUSSI un problème pour trouver une solution analytique (ce dont on parle implicitement depuis le début : IA remplacement de trouver une solution analytique) .

    Donc je maintiens l'affirmation, qui est une prédiction, et qui dit, si si, quelque chose, puisque c'est une prédiction (même si c'est une prédiction totalement banale, tout labo d'IA actuellement recherche et résout ce type de problème à la pelle, c'est un simple constat largement partagée, ce n'est pas de mon cru) Variante plus précise puisque tu pinaille :

    Tout problème non résolu et actuellement étudié en science, ayant trait au monde physique, s'écrivant sous la forme de A=f( B ), dont on a des observations de A et B suffisamment précise, va se retrouvé approximé dans les années qui viennent par l'apprentissage machine. C'est plus une fatalité qu'une question scientifique aujourd'hui. Les multiples résultats qui tombent dans de très nombreux de domaine depuis des années en sont la démonstration.
    La seule gamme de problème qui, amha, ne seront jamais vraiment résolu, c'est tout ce qui est prédiction de phénomène chaotique sur le temps long. La moindre incertitude foutant en l'air le résultat, ça rends la prédiction inexploitable.

    De fait, dans ce genre de problème ou deux bases de données bien fournies, une de sortie et une d'entrée, sont déjà bien disponible, comme c'était le cas pour le problème du repliement des protéines, le fait de le résoudre via de l'apprentissage machine n'est absolument pas une question scientifique, mais une question de moyen humain, de réalisation, d’ingénierie.
    Dernière modification par Nilsou ; 10/12/2020 à 21h54.

  23. #743
    Citation Envoyé par Nilsou Voir le message
    Il est évident dans le contexte que je parle des problèmes ou on a de bons observables des deux cotés (un bon B et un bon A). Tu pinaille. On ne va pas écrire le détail du détail à chaque fois qu'on écrit une phrase de vulgarisation. Par ailleurs c'est implicitement inclut dans mon « Ce n'est qu'une question de base à construire » phrase juste en dessous.
    Tu m'amuses, parfois.
    Tu écris un truc généralement faux, puis lorsqu'on essaie d'en préciser les limites, tu dis que l'on pinaille. C'est pas un peu facile ?
    Et puis les trucs évidents, ça va mieux en les écrivant surtout lorsque comme tu le dis, c'est de la vulgarisation.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  24. #744
    On discute dans un certains contexte. Ce contexte fixe lui même des limites qui sont implicitement précisée. Et comme je le disais, c'est totalement écrit dans mon texte d'origine puisque : « Ce n'est qu'une question de base à construire » . Donc ouais, tu pinaille. Il est évident dans ma phrase, pour un observateur qui n'est pas du domaine, qu'on parle d'un cas « idéal » parfait, avec un A parfait, un B parfait et qu'on évacue les problèmes de précision du A et du B, et donc les problèmes liés à la construction de la base « suffisamment OK », que je suppose résolus implicitement et que j'évacue ensuite très clairement via mon « Ce n'est qu'une question de base à construire ».

    Et non, si j'écris tout les trucs « évidents » de cette phrase, on ne s'en sort pas, on peut pinailler à l'infini : La fonction doit être à peu prés continue dans l'idéal par exemple et si tu veut écrire tout ça sous forme mathématique il y a encore pas mal de condition qui transforme une phrase simple en paragraphe indigeste. Pas mal de condition inutile à détailler puisqu'elles sont toutes précisée par le contexte car en l’occurrence on parlait de problème liés au monde physique.

    Si on écrivait tout le détail qui rends quelque chose juste quand on écrit une phrase dans un contexte de vulgarisation, ce ne serait plus de la vulgarisation, mais un article scientifique.

  25. #745
    Quelques vidéos d'explications sur les modèles de diffusion qui sont à l'origine du nouveau sujet à la mode, les prompts qui génèrent des images:

    La vidéo pour briller en dîner mondain:



    La vidéo pour la migraine (lecture de l'article de mai 2021 qui a précédé ce qu'on a aujourd'hui)


    HuggingFace a sorti son implémentation de Diffusers

  26. #746
    Comment est-ce que l'on prévoit de résoudre des dilemmes éthiques se posant à une ai. Par exemple si une voiture autopilotée rencontre brutalement des piétons sur la route, et que la décision de les sauver entraîne la mort du propriétaire, que devrait faire l'AI?

  27. #747
    Je me rappelle que le MIT avait mis à disposition un questionnaire que tout un chacun pouvait remplir et qui contenait des situations type dilleme du tramway. C'était en 2016 d'après cet article : https://www.numerama.com/vroom/43455...e-ethique.html

  28. #748
    Citation Envoyé par Morriso Voir le message
    Je me rappelle que le MIT avait mis à disposition un questionnaire que tout un chacun pouvait remplir et qui contenait des situations type dilleme du tramway. C'était en 2016 d'après cet article : https://www.numerama.com/vroom/43455...e-ethique.html
    Je me demande comment les problèmes juridiques seraient traitées dans un tel cadre, parce que les victimes se retourneraient sans doute vers les constructeurs? Il faudrait que les accidents soient rarissimes mais même ainsi la colère des victimes serait forcément légitime, personne ne veut être dans le camp des sacrifiés... Si ces technologies se généralisent il faudra marcher sur des oeufs.

  29. #749
    Voici ce que j'ai trouvé de plus récent (pour la France) : http://www.lerepairedesmotards.com/a...-transport.php

    Le décret prévoit que le conducteur est dégagé de sa responsabilité dès que le système automatisé entre en fonctionnement. Cela ne s'applique évidemment que si les conditions d'utilisation dudit système sont respectées.
    Lien vers le décret n° 2021-873 du 29 juin 2021 relatif aux véhicules autonomes.
    Rien ne me choque moi, je suis un scientifique ! - I. Jones

  30. #750
    Citation Envoyé par Ultragreatsword Voir le message
    Je me demande comment les problèmes juridiques seraient traitées dans un tel cadre, parce que les victimes se retourneraient sans doute vers les constructeurs? Il faudrait que les accidents soient rarissimes mais même ainsi la colère des victimes serait forcément légitime, personne ne veut être dans le camp des sacrifiés... Si ces technologies se généralisent il faudra marcher sur des oeufs.
    Yep, je pense que les compagnies qui produisent les véhiculent risquent d'avoir plus de soucis qu'elle ne le pense ...

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •