Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 18 sur 43 PremièrePremière ... 8101112131415161718192021222324252628 ... DernièreDernière
Affichage des résultats 511 à 540 sur 1288
  1. #511
    Citation Envoyé par Eradan Voir le message
    Aucune idée, et comme la partie interne de ces implants ne consiste qu'en une transmission de signal (et même pas vers le cerveau), le parallèle est foireux. A contrario, les peacemakers n'ont pas d'interrupteur, et ce sont de véritables implants internes.
    Bon, si tu veux aller plus loin, comme l'a ait remarquer Nilsou, il y a des implants qui font émission/réception. Ce sont aujourd'hui des implants destinés aux personnes handicapées, pour leur permettre d’interagir soit avec des prothèses, soit avec un ordinateur (diriger et contrôler un curseur de souris notamment)

    Bon, comme l'a fait remarquer Nilsou, un des problèmes est que le cerveau a une sale tendance à recouvrir lesdits implants de tissus cicatriciel avec le temps.

    Cet article est sympa à ce sujet:

    https://waitbutwhy.com/2017/04/neuralink.html

    Bon, il part dans un délire de "magical hat" et considérations philosophiques vers la fin, mais sa présentation du cerveau et des implants est très complète

  2. #512
    Voila,
    Je vous conseil vraiment de prendre tout ceci avec mesure. Il n'est pas tout de s'ébahir sur les possibilités de la technologies parce que d'un coups ça devient hype, donc posez vous toujours ces questions là, en tout cas je vous le conseil , ça enlève les étoiles dans les yeux, mais bon :

    - Est-ce que c'est VRAIMENT nouveau. Ne faisait-on pas la même chose avant ? (réponse pour les implants : les premiers implants de caméra pour des aveugles dates de 30 ans environs ... )
    - Si ce n'est pas nouveau, qu'est ce qui empêchais vraiment la résolution des problèmes, quel est le point problématique premier (pour les implant : le tissu cicatriciel)
    - Ce point est-il résolu (Implant : non)
    - Si il n'y avais plus aucune barrière à la technologie, changerait-elle fondamentalement quelque chose ? Pour les implants : Les aveugles verraient à nouveau et les sourds entendraient à nouveau, ça reste dans le domaine de la gestion du handicap, idem pour les bras robotique, et petit à petit ces catégories d'implants sont passés clairement du "SF" au "ouais, normal" au fur et à mesure des solutions intermédiaires qui ont été pondu et existent déja, changeront-ils la société ? Amha : pas du tout.
    On pourra surement connecter le cerveau de manière très réaliste en sortie et en entrée, mais comme l'ont fait remarquer les canards plus haut : ça ne change pas grand chose de fondamental avec nos périphériques actuel hormis la vitesse. Une société encore plus connecté donc, enthousiasmant à ce point ? A voir, mais dans tout les cas pas incroyable non plus.

    Finalement le truc qui pourrait vraiment changer le monde avec ces technologies est clairement négatif, ce qui fait flipper les scientifiques c'est que ce soit appliqué pour stimuler les zones du plaisir et créer des drogues quasi parfaites ou du porno drogue. Là ça créerais des remou véritable dans le monde. Mais comme ce n'est pas très positif ...


    Voila voila, je jette un froid, et je banalise peut-être trop la chose parce que je baigne dans ce milieu (on avait une présentation l'autre jour d'un mec qui contrôlait un robot marcheur à l'autre bout de la planète avec le cerveau d'un chimpanzés , ça aide à banaliser à force ) , mais toujours penser à distinguer la communication scientifique moderne (là pour rapporter de la thune) des véritables avancées.
    Paradoxalement les grosses avancées de fou sont bien souvent assez silencieuse en dehors des milieux spécialisés (qui a entendu parler de la grande panique dans le monde scientifique à l'annonce de la découverte de CRISPR-Cas9 l'année dernière )

    Pro-tip : une avancée scientifique majeure créé souvent des application liés très rapidement. Si vous n'en voyez pas, c'est que c'était du pipeau pour le moment ^^. Ou que l'avancée est bien là mais bute sur des points critiques.

  3. #513
    Citation Envoyé par Nilsou Voir le message
    Et le réseau profond il a appris sur quoi ?

    -> Sur l'observation de milliers de parties humaines
    Donc c'est tout à fait normal qu'il joue comme un humain
    T'es sûr de ton coup là ? Je suis relativement certain qu'il n'y a eu aucune données humaines dans l'apprentissage d'AG0, d'où la prouesse.

    Edit : AG0 c'est la dernière version, avant il y a eu AG Fan, AG Lee et AG Master, qui eux ont eu de l'apprentissage humain.

  4. #514
    Sur l'ancienne version ils entrainent leur réseau avec les résultats des parties humaines. Pourquoi vendrait-il de par le monde leur nouvelle version qui se passe des résultat humain comme révolutionnaire sinon ?
    En plus j'ai lu le papier d'origine, donc oui j'en suis plutôt sur

    Edit : et c'est écrit noir sur blanc dans le truc présentant la nouvelle version :
    Previous versions of AlphaGo initially trained on thousands of human amateur and professional games to learn how to play Go. AlphaGo Zero skips this step and learns to play simply by playing games against itself, starting from completely random play. In doing so, it quickly surpassed human level of play and defeated the previously published champion-defeating version of AlphaGo by 100 games to 0.
    Pour résumer leur algo, il est assez simple finalement. C'est un arbre classique comme pour les algos d'echec, mais pour gagner en temps de calcul ils ont appris un réseau de neurone standard (profond pour le coups, mais à la limite, toute variante ferait l'affaire) à dire si un coups mene à une partie mal engagé ou non.
    Pour le savoir ils ont besoin d'une réalité terrain ... et c'est les partis humaines leur réalité. Ou les résultats des parties de l'IA jouant contre elle-même. (avec un bruit pour l'exploration, sans doute).

  5. #515
    On se comprend mal, Nilsou.

    Sur la dernière version, AlphaGo Zéro, qui a appris sans interversion humaine, et elle joue comme un humain. C'est ce que je disais dans mon message d'origine. Je sais pas pourquoi t'as compris que je parlais d'une ancienne version, AlphaGo 0 c'est la dernière version.

  6. #516
    Oui donc c'est exactement ce qu'il dit: AG0 ne se base pas sur l'observation de milliers de parties humaines. :!?:

  7. #517
    Citation Envoyé par hijopr Voir le message
    On se comprend mal, Nilsou.

    Sur la dernière version, AlphaGo Zéro, qui a appris sans interversion humaine, et elle joue comme un humain. C'est ce que je disais dans mon message d'origine. Je sais pas pourquoi t'as compris que je parlais d'une ancienne version, AlphaGo 0 c'est la dernière version.
    Ho pardon, tout simplement parce que ton message d'origine disait :

    En tout cas dans le monde du go, AG0 est très rassurant : il joue des coups très similaires à ceux des humains, même en tout début de partie où il y a beaucoup de choix. Il aurait pu trouvé qu'il faut jouer sur la sixième ligne sur le bord, mais il joue comme nous, 3ème ou 4ème ligne dans le coin. Il joue aussi des josekis (séquences de coups) qu'on joue depuis longtemps, même si il en a trouvé des nouveaux.
    Je me rends compte que j'ai mal lu, j'ai lu AGO au lieu de AG0, je pensais que tu me donnais du coups un constat tiré d'Alpha Go en général et non de A go zero...

    Tu es certains qu'AG0 joue bien comme un humain ?
    Après pourquoi pas, ce fut le cas sur les échecs et sur pas mal d'autres jeux quand on a mis en place les IA y jouant donc ...

  8. #518
    Et sinon, ca en est où de Starcraft?

  9. #519
    Tu parle de quelle initiative précise sur Starcraft? J'en avait vu plusieurs passer. (trois, de mémoire, c'est devenu le maitre étalon des tests sur jeu de stratégie maintenant )

    Si tu parle de celle mêlant plusieurs domaine de l'IA et de nombreux types d'IA et qui était plus ou moins "ouverte", je ne sais pas quels sont leur dernier résultat... mais il me semble que ça "marchait".
    Mais j'avais cru comprendre que google aller aussi s'attaquer au problème ... tu parle sans doute de ce dernier cas ?

  10. #520
    Citation Envoyé par Nilsou Voir le message
    Ho pardon, tout simplement parce que ton message d'origine disait :



    Je me rends compte que j'ai mal lu, j'ai lu AGO au lieu de AG0, je pensais que tu me donnais du coups un constat tiré d'Alpha Go en général et non de A go zero...

    Tu es certains qu'AG0 joue bien comme un humain ?
    Après pourquoi pas, ce fut le cas sur les échecs et sur pas mal d'autres jeux quand on a mis en place les IA y jouant donc ...
    Pas de soucis ^^

    Oui, c'est sûr qu'elle joue comme un humain, dans les grandes lignes. Son "intuition" et ses capacités de lecture font qu'elle est imbattable par contre.

    Les pros disent même qu'AG Zéro joue de façon plus humaine qu'AG Master.

  11. #521
    La version qui va mettre la misère aux coréens

    Par "mêler de nombreux types d'IA" ca veut dire qu'il y a une sorte de hiérarchie avec des IA exécutant une stratégie plus globale fabriquée par une sorte d'IA "général"?

  12. #522
    Citation Envoyé par Nilsou Voir le message
    Voila,
    Je vous conseil vraiment de prendre tout ceci avec mesure. Il n'est pas tout de s'ébahir sur les possibilités de la technologies parce que d'un coups ça devient hype, donc posez vous toujours ces questions là, en tout cas je vous le conseil , ça enlève les étoiles dans les yeux, mais bon :

    - Est-ce que c'est VRAIMENT nouveau. Ne faisait-on pas la même chose avant ? (réponse pour les implants : les premiers implants de caméra pour des aveugles dates de 30 ans environs ... )
    - Si ce n'est pas nouveau, qu'est ce qui empêchais vraiment la résolution des problèmes, quel est le point problématique premier (pour les implant : le tissu cicatriciel)
    - Ce point est-il résolu (Implant : non)
    - Si il n'y avais plus aucune barrière à la technologie, changerait-elle fondamentalement quelque chose ? Pour les implants : Les aveugles verraient à nouveau et les sourds entendraient à nouveau, ça reste dans le domaine de la gestion du handicap, idem pour les bras robotique, et petit à petit ces catégories d'implants sont passés clairement du "SF" au "ouais, normal" au fur et à mesure des solutions intermédiaires qui ont été pondu et existent déja, changeront-ils la société ? Amha : pas du tout.
    On pourra surement connecter le cerveau de manière très réaliste en sortie et en entrée, mais comme l'ont fait remarquer les canards plus haut : ça ne change pas grand chose de fondamental avec nos périphériques actuel hormis la vitesse. Une société encore plus connecté donc, enthousiasmant à ce point ? A voir, mais dans tout les cas pas incroyable non plus.

    Finalement le truc qui pourrait vraiment changer le monde avec ces technologies est clairement négatif, ce qui fait flipper les scientifiques c'est que ce soit appliqué pour stimuler les zones du plaisir et créer des drogues quasi parfaites ou du porno drogue. Là ça créerais des remou véritable dans le monde. Mais comme ce n'est pas très positif ...


    Voila voila, je jette un froid, et je banalise peut-être trop la chose parce que je baigne dans ce milieu (on avait une présentation l'autre jour d'un mec qui contrôlait un robot marcheur à l'autre bout de la planète avec le cerveau d'un chimpanzés , ça aide à banaliser à force ) , mais toujours penser à distinguer la communication scientifique moderne (là pour rapporter de la thune) des véritables avancées.
    Paradoxalement les grosses avancées de fou sont bien souvent assez silencieuse en dehors des milieux spécialisés (qui a entendu parler de la grande panique dans le monde scientifique à l'annonce de la découverte de CRISPR-Cas9 l'année dernière )

    Pro-tip : une avancée scientifique majeure créé souvent des application liés très rapidement. Si vous n'en voyez pas, c'est que c'était du pipeau pour le moment ^^. Ou que l'avancée est bien là mais bute sur des points critiques.
    Est-ce que les avancées en IA bien que basées sur des méthodes anciennes ne dépendent pas surtout de la puissance de calcul grandissante et des technologies qui supportent cette accroissement de puissance de calcul ainsi que l'optimisation de la consommation?
    Ou alors à l'inverse est-ce qu'on attends des méthodes révolutionnaires complètement nouvelles faisant fi des obstacles de puissance brute nécessaire?


    Pour les implants, si ca devenait si facile l'intérêt serait de pouvoir upgrader ses yeux/organes au même rythme que les nouvelles versions sortent.
    Ca changera bien sûr la vie de pas mal de monde au niveau de leur qualité de vie, mais au niveau global la vraie révolution sera surtout dans la possibilité de monter dans le train de l'upgrade technologique, qui va infiniment plus vite que si on doit se restreindre à la sélection naturelle et aux mutations aléatoires. (Et là aussi c'est finalement juste une question de changement d'échelle de vitesse)

    Finalement est-ce que le "breakthrough" ne sera pas surtout une avancée en terme de puissance des supports informatiques à l'IA que l'IA elle même?

  13. #523
    Citation Envoyé par Tankodesantniki Voir le message
    Pour les sous-titres, sans juger de la traduction, je les trouve très bien, pas trop rapides, j'ai vu nettement plus rapide que ça.

    Concernent la peur des machines intelligentes indépendantes, je dirai qu'il y a un frein majeur à celles-ci, c'est simplement l'énergie. Aujourd'hui, faire une IA qui simule 1s de processus neuronaux humains en 1 heure consomme l'équivalent d'une grosse centrale nucléaire. Et il est quand même assez peu probable qu'on obtienne quelque chose de plus efficace énergétiquement parlant qu'un cerveau humain. Dans la "compétition" - a tout le moins sur Terre - on a un singulier avantage d'économie énergétique.

    Concernant l'implantation de trucs informatiques dans le cerveau humain, ça n'est pas réellement différent que de regarder l'écran d'un smartphone. Nous sommes déjà largement connectés via des interface yeux-mains. Fondamentalement, il n'y a pas de différences à mes yeux.

    Concernant la philosophie, qui est à peine entamée par "il n'y a que des atomes là dedans", si on pousse un peu, l'humain, sa conscience d'être "lui", et derrière l"humanité toute entière avec ses civilisations et cultures est une illusion de la matière, cad des atomes. Que les atomes soient arrangés pour être des sac d'atomes qui se prennent pour des humains, ou des sacs d'atomes qui se prennent pour des humains améliorés, ou des sacs d'atomes qui se prennent pour des robots n'a pas de différences fondamentales.
    Citation Envoyé par Sheraf Voir le message
    Tiens j'avais oublié ce topic. Y a quelques mois j'm'étais cassé le cul à faire les sous titres pour une video introduisant ce sujet qui m'interresse beaucoup.

    Y a quelques fautes d'orthographe (désolé), et le présentateur parle assez vite ce qui fait que c'est ptete assez dur à suivre en lisant (je sais pas trop me rendre compte), dites moi ce que vous en pensez. J'aurais ptete du prendre plus de liberté dans la traduction pour être plus succint...

    En tant que néophyte qui lurke ce topic, je me permets d'intervenir.

    En admettant que les conditions soient réunies dans le 1er point: on trouve une source d'énergie révolutionnaire peu couteuse qui peut faire fonctionner une machine aussi efficace que le cerveau humain.Est-ce pour autant qu'on sera capable de reproduire une intelligence artificielle équivalente à l'intelligence humaine qui a émergé après des millions d'années d'évolution? Est-ce que lorsqu'on parle d'intelligence humaine, on prend en compte la partie irrationnelle (les émotions et les sentiments qui y sont associés) dans la prise de décision?
    Comment une intelligence artificielle pourrait survivre et s'adapter comme l'intelligence vivante sans stimulis ?

    En admettant que tous les problèmes de rejet de greffe de technologie soient résolus dans le 2e point, les humains augmentés par les implants ne seraient-ils pas toujours humains même si leurs corps est artificiel (transhumanisme)? Pourrait-on fabriquer un humain 100 % artificiel et si oui ne devrait-il pas s'adapter et survivre comme un être vivant ? Dans ce cas-là si l'Homme évolue vers une intelligence artificielle, devons nous avoir peur de nous mêmes ( ) ?

    Si les problématiques sont connues depuis des années et qu'on trouve des éléments de réponse mêmes dans des livres de SF comme Blade Runner ou Neuromancien, je ne comprends pas pourquoi tout d'un coup un type comme Sam Harris et Elon Musk (le milliardaire qui veut aller sur Mars) créent un climat anxiogène sur ces questions et

    SURTOUT POURQUOI MAINTENANT ?

    Mais peut être en tant qu'humain lambda et non expert que je suis totalement incompétent face à des questions qui me dépassent.

  14. #524
    En admettant que les conditions soient réunies dans le 1er point: on trouve une source d'énergie révolutionnaire peu couteuse qui peut faire fonctionner une machine aussi efficace que le cerveau humain.Est-ce pour autant qu'on sera capable de reproduire une intelligence artificielle équivalente à l'intelligence humaine qui a émergé après des millions d'années d'évolution? Est-ce que lorsqu'on parle d'intelligence humaine, on prend en compte la partie irrationnelle (les émotions et les sentiments qui y sont associés) dans la prise de décision?
    Comment une intelligence artificielle pourrait survivre et s'adapter comme l'intelligence vivante sans stimulis ?
    C'est la problématique de l'apprentissage. Une IA avec l'intelligence d'Einstein sera aussi conne qu'un bébé qui viens de naitre au début, même en la connectant direct à la bibliothèque mondiale Il va falloir lui apprendre à apprendre, comme on le fait avec les babies.

    On pourra s'adapter, mais il est sur qu'une IA qui pilote un corps au moins humanoïde avec tout les inputs/outputs qui vont bien aura des facilités à s'intégrer dans un système éducatif humain actuel - produit de millions d'années d'évolutions comme tu le fait remarquer.

    En admettant que tous les problèmes de rejet de greffe de technologie soient résolus dans le 2e point, les humains augmentés par les implants ne seraient-ils pas toujours humains même si leurs corps est artificiel (transhumanisme)? Pourrait-on fabriquer un humain 100 % artificiel et si oui ne devrait-il pas s'adapter et survivre comme un être vivant ? Dans ce cas-là si l'Homme évolue vers une intelligence artificielle, devons nous avoir peur de nous mêmes ( ) ?
    Bah, a ce stade, tout dépends de ce que tu appelles "humain". Moi, tant que ça a le droit de vote... (non, les adolescents ne sont pas des humains complets encore )

    C'est plus une question philosophique/sociale/judiciaire qu'autre chose, non?

    De mon point de vue, les humains sont de la matière de l'univers qui pense. pour autant qu'on le sache, les seuls qui font preuve de conscience évoluée récursive sur le langage par exemple. (qui utilisent le langage pour parler du langage - ca, aucun autre animal n'y arrive encore a ma connaisance). Et a ce titre, propager cette conscience à d'autres formes de matiere voire croutes de planetes est quelque chose de "bien" dans le sens ou ça augmente la complexité de l'univers dans ce qu'elle a de plus... productif et intérressant, je dirais.

    Si les problématiques sont connues depuis des années et qu'on trouve des éléments de réponse mêmes dans des livres de SF comme Blade Runner ou Neuromancien, je comprends pourquoi tout d'un coup un type Sam Harris (ou le milliardaire qui veut aller sur Mars) créent un climat anxiogène sur ces questions et

    SURTOUT POURQUOI MAINTENANT ?
    Parce que demain une IA va te tailler une pipe et ils trouvent ça dégoutant?

  15. #525
    Putain mais quel ted talk de merde (comme très souvent) alarmiste sans aucune substance faut vraiment arrêter avec ce genre de contenu

  16. #526
    Comme disait un célèbre penseur: "Ce qu'il y a de bien avec les opinions tranchées, c'est que ça relance le débat"

  17. #527
    Nan mais c'est simplement sans substance, c'est même pas hypothétique à ce niveau, y'a même pas de matière à discuter dans sa vidéo. On peut même pas qualifier ça d'expérience de pensée vu qu'il mélange fait et fiction.

    Autant lire du Asimov.

    C'est quand même hyper récurrent autour de certains sujets genre physique quantique, astrophysique et IA, personne n'en sait rien mais tout le monde en parle on dirait un journal télévisé sur M6.

    On peut tout à fait en discuter mais ce genre de truc non informé c'est vraiment toxique et racoleur

  18. #528
    Cette conférence TED est divertissante aussi mais complétement irrationnelle: c'est le mythe de Pinocchio. Si on construit un truc qui ressemble à de l'intelligence, ça ne va pas magiquement un matin se mettre à avoir une volonté propre, des émotions et une conscience.
    Une calculette des années 80 est déjà capable d'être plus performante qu'un humain, pourtant personne n'a craint une révolte des calculettes Texas instrument qui se mettrait à vouloir asservir l'être humain.
    Bien plus qu'un discours scientifique, c'est de la religiosité: l'idée que la vie est une création manufacturée. Même pas de la bonne science fiction, juste du catéchisme 2.0.

  19. #529
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par Tankodesantniki Voir le message
    Cet article est sympa à ce sujet:

    https://waitbutwhy.com/2017/04/neuralink.html

    Bon, il part dans un délire de "magical hat" et considérations philosophiques vers la fin, mais sa présentation du cerveau et des implants est très complète
    C'est pourquoi je me suis désabonné de la mailing list. Le site était excellent il y a quelques années, mais depuis 2015 si je me souviens bien, tous les articles font du prosélytisme pour Elon Musk ou la religion chrétienne.

    Pour revenir à l'argument: ça va dans mon sens. Les implants d'interaction ne peuvent pas être coupés à ma connaissance, et c'est là encore une simple lecture de signal qui ne remplace pas une fonction du cerveau. Hors le but de Musk est d'augmenter ou de remplacer certaines fonctions cérébrales. Les problèmes d'identification d'un signal entrant sont aussi très importants (il suffit de voir le temps nécessaire pour qu'un enfant s'habitue à un implant cochléaire, alors qu'on sait exactement comment fonctionne la cochlée) alors que l'article évacue le sujet d'un simple 'on a pas besoin de comprendre comment ça marche.'

    Bref, c'est pas aussi simple que ça. Et on est hors-sujet, et je vais être à la bourre au taf
    Barba non facit philosophum.

  20. #530
    Citation Envoyé par Mastaba Voir le message
    Est-ce que les avancées en IA bien que basées sur des méthodes anciennes ne dépendent pas surtout de la puissance de calcul grandissante et des technologies qui supportent cette accroissement de puissance de calcul ainsi que l'optimisation de la consommation?
    [...]
    Finalement est-ce que le "breakthrough" ne sera pas surtout une avancée en terme de puissance des supports informatiques à l'IA que l'IA elle même?
    Oui, totalement. C'est les GPU il y a quelques années et les accélérateurs dédiés aujourd'hui qui ont apporté assez de puissance de calcul pour faire de l'apprentissage profond pour de vrai, alors que les algos étaient connus depuis les années 1990. Ça et le fait qu'on ait des volumes de données suffisamment massifs sur les internets concernant les chatons pour nourrir l'apprentissage brute-force. Du moins pour faire ce que Nilsou appelle la fausse IA.

    (La mauvaise IA, c'est quand tu empiles des couches de réseaux de neurones les unes sur les autres, tu les entraines sur des téraoctets de données, et tu as ton résultat. La bonne IA, c'est...)

  21. #531
    Citation Envoyé par hijopr Voir le message
    Pas de soucis ^^

    Oui, c'est sûr qu'elle joue comme un humain, dans les grandes lignes. Son "intuition" et ses capacités de lecture font qu'elle est imbattable par contre.

    Les pros disent même qu'AG Zéro joue de façon plus humaine qu'AG Master.
    Intéressant, j'irais voir une partie d'AGo0 pour l’expérience.

    - - - Mise à jour - - -

    Citation Envoyé par Mastaba Voir le message
    La version qui va mettre la misère aux coréens

    Par "mêler de nombreux types d'IA" ca veut dire qu'il y a une sorte de hiérarchie avec des IA exécutant une stratégie plus globale fabriquée par une sorte d'IA "général"?
    Nan de mémoire, ils avaient une initiative plutot ouverte ou tout les labos pouvaient venir tester leur proposition d'IA. Du coups il me semble qu'il y a pas mal de "résultat" mais que c'est bien fouillis pour le coups.

  22. #532
    Citation Envoyé par Mastaba Voir le message
    Est-ce que les avancées en IA bien que basées sur des méthodes anciennes ne dépendent pas surtout de la puissance de calcul grandissante et des technologies qui supportent cette accroissement de puissance de calcul ainsi que l'optimisation de la consommation?
    Ou alors à l'inverse est-ce qu'on attends des méthodes révolutionnaires complètement nouvelles faisant fi des obstacles de puissance brute nécessaire?
    Je dirais que ça dépend ce que tu veut faire. Si tu parle de "reconnaissance" ou de "Prédiction" ce sont deux branches de l'IA ou il y a maintenant bien peu de chose à découvrir sur le plan théorique et qui dépendent donc beaucoup de la puissance de calcul. Sachant qu'il y a des seuil inatteignable pour une IA statique qui ne pourrais pas expérimenter pour corriger ses erreurs (une IA sans "corps" sera toujours limité pour reconnaitre. Une chaise n'est une chaise que parce que tu peut t'assoir dessus, en gros).

    Pour l'aspect IA interactive, ou "Comment faire un chat robotique", si tu veut, et qui sait, résoudre des problèmes tel que la "conscience" et des trucs du genre (ou du moins l'impression de conscience de notre point de vue, mais osef), c'est principalement mon domaine de taf et j'aurais tendance à te dire que c'est très dépendant des financements dispo dans le monde, du mode de financement et des capacités à divers domaine de communiquer. Typiquement cela necessite des communication forte avec la neuro-biologie, l'informatique, la robotique et les sciences sociales. On tente de faire le pont en appelant ça "Science Cognitive" (un très bon forum, le forum des sciences cognitives, à paris, chaque années, si vous voulez).
    Par intuition pour avoir déja plusieurs années d’expériences dans le domaine, j'ai l’expérience du fait que bien des choses impressionnantes sont "facile", on est pas forcement bien loin de comprendre le fonctionnement de petit chien, d'arriver à le reproduire et l'implémenter. Mais en parallèle de ça il y a un gouffre entre comprendre quelque chose et avoir le temps et l'argent pour l'implémenter sur robot réel. Et un gouffre pour qu'ensuite ça sorte du stade prototype.
    Problème : actuellement les financeurs privés n'en ont rien à foutre, grosso modo. Pour une raison simple : Un animal robotique, qui peut faire toutes les erreurs d'un animal, n'a finalement que très peu d’intérêt pour les financeurs et hormis le monde du jouet pour enfant ou certains domaine de l'agronomie progressiste (de tout petit domaine donc), n’intéresse pas grand monde (pour ça que je veut faire des jouet pour gosse après ).
    Rien de nouveau sous le soleil, Asimov, qui avais une bonne vision de l'humanité, avais bien prédis ce phénomène...

    Donc en gros : le plus gros soucis actuellement n'est pas ni la théorie, ni la mise en pratique simple, mais les moyens de passer à l’échelle suivante, les moyens de monter des équipes reunissant de nombreux domaines qui ne se parle pas du tout etc etc... Bref, l'implication des états quoi ...
    Citation Envoyé par Mastaba Voir le message
    Pour les implants, si ca devenait si facile l'intérêt serait de pouvoir upgrader ses yeux/organes au même rythme que les nouvelles versions sortent.
    Ca changera bien sûr la vie de pas mal de monde au niveau de leur qualité de vie, mais au niveau global la vraie révolution sera surtout dans la possibilité de monter dans le train de l'upgrade technologique, qui va infiniment plus vite que si on doit se restreindre à la sélection naturelle et aux mutations aléatoires. (Et là aussi c'est finalement juste une question de changement d'échelle de vitesse)
    Il y a un gros soucis avec l'upgrade technologique, et un jour prochain, l'être humain va devoir s'y frotter.
    Si tu banalise des implants qui rendent "bénin" des afflictions telles que le fait de naitre aveugle, d'être myope (les simples lunettes) ou de naitre sans jambe. Automatiquement tu aboutit au fait que ces genes - qui aurait eu tendance à être défavorisé dans un environnement ou ces défaut sont redhibitoire - vont se propager très vite chez l'être humain.
    L'exemple souvent donné est la myopie au japon : dés la démocratisation des lunettes po cher dans les années 1900 au japon, il y a eu une explosion massive du taux de myopie au japon. Qui fait qu'aujourd'hui une large part de la population est myope.

    A la fin cela pose des problèmes car ça annule en quelque sorte toute la sélection génétique de l'humanité et ça fait perdre en robustesse en ouvrant potentiellement des voix de faiblesse génétique qui pourrait causer de grave crise.

    Le soucis c'est qu'il n'y a pas de solution magique. Soit tu retire les prothèse et tu met un frein violent à la "prothesisation", ce qui est impossible pour des raisons ethiques. Soit tu est obligé de commencer à parler de l'eugenisme... et là on rentre dans le débat houleux ... car malheureusement (ou heureusement) mr Hitler est passé par là et l'eugenisme est un sujet assez tabou qu'il faut prendre avec des pincettes. Mais plus on avancera vers la prothesisation de l'être humain, plus on va accentuer le phénomène décrit plus haut, plus on se rapprochera du moment ou le sujet sera mis sur la table ...

    Citation Envoyé par Mastaba Voir le message
    Finalement est-ce que le "breakthrough" ne sera pas surtout une avancée en terme de puissance des supports informatiques à l'IA que l'IA elle même?
    Je ne pense pas. Aujourd'hui on a la puissance qu'il faut. Le soucis est dans la mise en commun de domaine varié, les moyens dispo, la transformation d'une nébuleuse très dense théorique de la neuro-biologie et des sciences humaines en implémentation simplifié qui tiennent la route. C'est plus un taf d'analyse routinier avec un gros support qu'il reste à effectuer.

  23. #533
    Citation Envoyé par Munshine Voir le message
    En tant que néophyte qui lurke ce topic, je me permets d'intervenir.

    En admettant que les conditions soient réunies dans le 1er point: on trouve une source d'énergie révolutionnaire peu couteuse qui peut faire fonctionner une machine aussi efficace que le cerveau humain.Est-ce pour autant qu'on sera capable de reproduire une intelligence artificielle équivalente à l'intelligence humaine qui a émergé après des millions d'années d'évolution? Est-ce que lorsqu'on parle d'intelligence humaine, on prend en compte la partie irrationnelle (les émotions et les sentiments qui y sont associés) dans la prise de décision?
    Les problématique d'émotion et cie sont totalement pris en compte dans mon domaine. En fait dans mon domaine on part de l'émotion et de l’irrationnelle (d'un point de vue modélisation de réseau de neurone) pour permettre des réactions saines face à l'environnement et une exploration constante et maligne.
    Citation Envoyé par Munshine Voir le message
    Comment une intelligence artificielle pourrait survivre et s'adapter comme l'intelligence vivante sans stimulis ?
    Très bonne question. Dans mon domaine d'étude on est convaincu qu'une intelligence doit être "incarnée" et que sans cela elle n'a pas de sens. Donc qu'elle doit avoir un corps qui lui permettent d'agir et de recevoir des stimulus.
    Après on peut imaginer une intelligence virtuelle qui aurait un corps virtuelle sur le net. Mais le net par sa structure n'est vraiment pas optimale pour permettre de faire des "essais/erreur", les protocoles du net sont trop restreint pour que ce soit viable ...
    C'est pas strictement impossible cela dit, mais ce sera alors une IA qui n'aura rien d'humain et qui sera super difficile à mettre en place à la base.

    Citation Envoyé par Munshine Voir le message
    Si les problématiques sont connues depuis des années et qu'on trouve des éléments de réponse mêmes dans des livres de SF comme Blade Runner ou Neuromancien, je ne comprends pas pourquoi tout d'un coup un type comme Sam Harris et Elon Musk (le milliardaire qui veut aller sur Mars) créent un climat anxiogène sur ces questions et

    SURTOUT POURQUOI MAINTENANT ?
    Elon Musk et cie sont des communicants, des publicitaires. En tout cas c'est mon avis. La réponse à ta question est donc simple : La thune. Ils vont la ou la thune appelle. Et créer des polémique et autres sur un sujet permet d'en faire parler (su sujet comme du mec qui créé la polémique). Dans un monde occidental ou la recherche (et les entreprises) sont dépendantes d'apport de financier non scientifiques, qui se basent bien souvent sur la hype du moment pour placer leur sous-sous, il est tout à fait cohérent de créer des "bulles psychologique" de masse pour que le petit train des financiers suivent et apporte des sous-sous à ton moulin.

    Tout ceci évidemment est une putain d'épine dans le pieds pour les personnes qui tente de bosser, car les mecs survendent souvent leur travail (quand il y en a) pour attirer les sous. Ce qui créé l'obligation pour les concurrents de survendre encore plus. La survente fini par devenir mensonge au grand public pour le leurrer plus que son voisin et le tout mène à l'explosion de la bulle (économique, psychologique) quand le public développe une résistance au sujet. (ce qui est en train d'arriver, quand tu tout les 5 ans pendant 20 ans tu crie sur tout les toits que dans 5 ans c'est bon, tu a l'homme robot intelligent bah à la fin ... plus personne te croit).
    L'explosion de la bulle mene alors à l'explosion des financements et la branche de la science qui suit s'écroule avec.

    Pour la petite histoire, c'est ce qui était arriver au domaine de l'IA auparavant. Il y a eu une période "année 50" ou l'IA a fait son trou, ou la bull est monté petit à petit, et tout s'est écroulé dans les années 80, ce qui a aboutit à la mort du secteur de l'IA pendant presque 20 ans ...
    Wikipedia détaille assez bien ce phénomène ici : https://fr.wikipedia.org/wiki/Histoi...e_artificielle

    - - - Mise à jour - - -

    Citation Envoyé par Kamikaze Voir le message
    Nan mais c'est simplement sans substance, c'est même pas hypothétique à ce niveau, y'a même pas de matière à discuter dans sa vidéo. On peut même pas qualifier ça d'expérience de pensée vu qu'il mélange fait et fiction.

    Autant lire du Asimov.

    C'est quand même hyper récurrent autour de certains sujets genre physique quantique, astrophysique et IA, personne n'en sait rien mais tout le monde en parle on dirait un journal télévisé sur M6.

    On peut tout à fait en discuter mais ce genre de truc non informé c'est vraiment toxique et racoleur
    Oui, tout à fait vrai. Et nous en tant que chercheur derrière ça nous pose que des merde.

    - - - Mise à jour - - -

    Citation Envoyé par Ypikay Voir le message
    Cette conférence TED est divertissante aussi mais complétement irrationnelle: c'est le mythe de Pinocchio. Si on construit un truc qui ressemble à de l'intelligence, ça ne va pas magiquement un matin se mettre à avoir une volonté propre, des émotions et une conscience.
    Une calculette des années 80 est déjà capable d'être plus performante qu'un humain, pourtant personne n'a craint une révolte des calculettes Texas instrument qui se mettrait à vouloir asservir l'être humain.
    Bien plus qu'un discours scientifique, c'est de la religiosité: l'idée que la vie est une création manufacturée. Même pas de la bonne science fiction, juste du catéchisme 2.0.
    Ben nous somme dans l'aire d'influence USA, et de plus en plus, faut s'attendre à ce que les bondieuseries quand on parle de l'humain, de l'IA, etc etc... soient de plus en plus présente. Fort malheureusement ...

    - - - Mise à jour - - -

    Citation Envoyé par Møgluglu Voir le message
    Oui, totalement. C'est les GPU il y a quelques années et les accélérateurs dédiés aujourd'hui qui ont apporté assez de puissance de calcul pour faire de l'apprentissage profond pour de vrai, alors que les algos étaient connus depuis les années 1990. Ça et le fait qu'on ait des volumes de données suffisamment massifs sur les internets concernant les chatons pour nourrir l'apprentissage brute-force. Du moins pour faire ce que Nilsou appelle la fausse IA.

    (La mauvaise IA, c'est quand tu empiles des couches de réseaux de neurones les unes sur les autres, tu les entraines sur des téraoctets de données, et tu as ton résultat. La bonne IA, c'est...)
    Voila. Après la bonne IA est encore en cours de définition, mais moi je dirais tout ce qui mène à implémenter quelque chose qui a tout les aspect du vivant sur des corps robotiques (ou en simu dans un environnement simulé). Le mieux qu'on ai trouvé c'est en empruntant au vivant (réseau de neurone et cie).
    Les réseaux de neurones profond dans ce contexte sont une aberration pour la "bonne IA", il n'y a aucun endroit du cerveau ou il y a plus de 4 à 5 couches d'empilés et leur fonctionnement n'a aucun rapport avec la rétro-propagation du gradient ou toute autre forme de rétro-propagation d'erreur. Bien au contraire.

    Après faut savoir être souple. Mais jusqu'ici il reste que les trucs les plus fou que j'ai vu reste en essayant de coller à un minimum de cohérence biologique.
    Bon je dis "bonne" et "mauvaise" pour coller à la conversation d'avant, mais pour moi ce n'est pas un jugement de valeur. Les gens qui bosse sur la reco d'image sont très utile pour moi, car ils fournissent des entrées sympa à mes systemes complet, idem pour ceux qui bosse sur la classification théorique ou la prédiction. Ceux qui bosse sur les réseaux profond m'aide à savoir quel type de problème est resolvable ou non via des réseaux de neurones, même si ça ne me valide pas forcement la méthode. Ce que je n'aime pas par contre c'est quand un de ces domaine survend la chose comme si ils allaient résoudre la vie avec ... tout en ne faisant jamais aucune implémentation sur robot ni rien d’interactif. Pour moi l'IA ne mérite son "I" que si il y a interaction, la boucle complète qui passe par la perception, la reconaissance, l'action, l'observation des conséquences de cette actions etc... Si on ne fait pas cette boucle minimal "perception->action->environnement->rebelote" ce n'est pas de la "mauvaise" IA, c'est juste pas vraiment de l'IA du tout, mais de la création d'outil potentiellement utilisable ensuite pour l'IA.
    Mais c'est un avis purement perso Mais dans mon domaine un simple mini véhicule de Braitenberg est considéré comme plus de l'IA que de l'apprentissage de brutasse sur des réseaux profonds dans un cadre purement simulé...

    J'essaierais de vous poster des vidéos de ce qu'on arrive à faire

    Après cet état d'esprit à aussi cours dans la mécanique. La mauvaise résolution du problème de la marche c'est le robot Asi, qui prédit tout, tout le temps, et n'arrive finalement pas à grand chose. La bonne résolution du problème c'est venu de l'étude du squelette humain qui a montré que pas mal de "soucis" disparaisse comme par enchantement quand on regarde comment le corps est fait, ce qui a emmené à la création des fameux "marcheurs passif"


    Et ensuite qui a emmené à inspiré les créateurs de BigDog, qui en se basant sur le même genre de point de départ ont juste explosé tout ce qu'a jamais fait Asi avec un simple moteur de tondeuse à gazon et quelques ressort bien placés :


    Ça pour moi, c'est typique de la "bonne Science Cognitive" (pas vraiment de l'IA mais voila) . Une boucle qui s'inspire du corps humain pour résoudre les problème que nous on résout, en partant de la biologie pour arriver à des simplifications qui en garde l'essentiel mais qui font le taf. Et une boucle qui reste bien dans l'interaction avec l'environnement.
    C'est ce qu'on fait en IA également.

    J'ai pas trop fait de conf récemment pour vous ramener des vidéos de trucs vraiment sympa. Mais je n'y manquerais pas.
    En classique il y a déjà le cas de l'étude et de l'implémentation du systeme nerveux périphérique de la salamandre, qui est vraiment bien foutue. Je vous recommande de voir la vidéo, typiquement je bosse beaucoup sur des trucs comme ça. (mais en tentant de le relier à de l'IA plus "systeme nerveux central")

    La vidéo ici ---> https://www.ted.com/talks/auke_ijspe...ge=fr#t-461139
    Dernière modification par Nilsou ; 25/10/2017 à 03h23.

  24. #534
    Citation Envoyé par Nilsou Voir le message
    Il y a un gros soucis avec l'upgrade technologique, et un jour prochain, l'être humain va devoir s'y frotter.
    Si tu banalise des implants qui rendent "bénin" des afflictions telles que le fait de naitre aveugle, d'être myope (les simples lunettes) ou de naitre sans jambe. Automatiquement tu aboutit au fait que ces genes - qui aurait eu tendance à être défavorisé dans un environnement ou ces défaut sont redhibitoire - vont se propager très vite chez l'être humain.
    L'exemple souvent donné est la myopie au japon : dés la démocratisation des lunettes po cher dans les années 1900 au japon, il y a eu une explosion massive du taux de myopie au japon. Qui fait qu'aujourd'hui une large part de la population est myope.

    A la fin cela pose des problèmes car ça annule en quelque sorte toute la sélection génétique de l'humanité et ça fait perdre en robustesse en ouvrant potentiellement des voix de faiblesse génétique qui pourrait causer de grave crise.

    Le soucis c'est qu'il n'y a pas de solution magique. Soit tu retire les prothèse et tu met un frein violent à la "prothesisation", ce qui est impossible pour des raisons ethiques. Soit tu est obligé de commencer à parler de l'eugenisme... et là on rentre dans le débat houleux ... car malheureusement (ou heureusement) mr Hitler est passé par là et l'eugenisme est un sujet assez tabou qu'il faut prendre avec des pincettes. Mais plus on avancera vers la prothesisation de l'être humain, plus on va accentuer le phénomène décrit plus haut, plus on se rapprochera du moment ou le sujet sera mis sur la table ...
    Concernant l'explosion des myopes en quelques dizaines d'années, il faut quand même voir que la génétique ne fait pas de sélection à cette vitesse. S'il y a explosion des myopes, c'est avant tout parce qu'il y a eu explosion des moyens de leur détection mais surtout de l'environnement dans lequel on vit.

    Quand on fait une étude statistique un peu sérieuse (mais pas complète: il faudrait utiliser un groupe témoin) en tentant d'isoler les facteurs:
    http://www.slate.fr/life/81391/myopes-enfants

    On s'orienterait plutôt vers le mode de société pour expliquer cela. On peut aussi parler d'épigénétique.
    https://fr.wikipedia.org/wiki/%C3%89...A9n%C3%A9tique

    Si on reviens à des sociétés de chasseurs-cueuilleurs, on aura bien d'autres soucis que la myopie. On peut s'en inquiéter, mais je ne pense pas que la "prothesisation" soit un danger pour la génétique de l'humanité.

  25. #535
    Citation Envoyé par Thufir Voir le message
    Encore une fois pour moi le point fort de l'IA de google ce nest pas le déroulage de branche, c'est le choix opti des branches.
    Ce genre d'IA permet donc des progrès en traduction,donc je dirais:traducteur,assistant juridique,etc,une grosse part du boulot du médecin sur les diagnostic,etc.
    Petite actualité amusante en rapport:

    http://www.lemonde.fr/pixels/article...7_4408996.html

  26. #536
    Courte vidéo, vraiment très bien faite, par des experts en intelligence artificielle et pour l'interdiction des robots tueurs :

    Honour, eh? What the hell is that anyway? Every man thinks it's something different. You can't drink it. You can't fuck it. The more of it you have the less good it does you, and if you've got none at all you don't miss it.

  27. #537
    C'est vraiment du sensationnalisme de merde.

    L'AI n'a rien à faire là dedans. Le premier responsable c'est déjà le connard qui met des moyens dans la fabrication d'arme, et le connard qui conçoit un dispositif mortel autonome. Le connard qui rajoute "l'intelligence", mal conçue, dans la soupe franchement peu importe, on est déjà les deux pieds dans le plat.

    Une magnifique mine anti personnelle à détection de chaleur c'est particulièrement con, c'est automatique et contrôlé par un software pourtant, de même que les missiles téléguidés.

    Notamment le fameux exemple utilisé dans tous les cours d'algorithmique numérique du missile téléguidé qui foire parce que le calcul de l'exponentielle est dangereux en terme d'arrondi si fait naïvement.

    Le 25 Février 1991 un missile Patriot n’a pas pu intercepter un SCUD Iraquien qui a détruit des bâtiments Américains en tuant 28 soldats – la cause: une mauvaise manipulation des erreurs d’arrondi
    Y'a pas d'intelligence artificielle là-dedans, on est juste trop con.

    Si l'IA se goure c'est pareil, on est juste trop con, ça n'a aucun rapport avec l'IA.

    Le point fondamental c'est de donner de l'autonomie, de la liberté d'agir, de la responsabilité, à un dispositif autonome mortel. Comme un piège à souris dans une crèche, le piège il a rien à faire là, c'est l'idiot qui l'a placé là le responsable.

    Cf. Mes posts précédents concernant l’ambiguïté dans la définition d'une IA sinon.

    - - - Mise à jour - - -

    Spoiler Alert!
    Et j'insiste sur le sensationnalisme de merde parce que se concentrer sur l'IA ça enlève énormément de responsabilité à tous les autres instigateur du dispositif concerné. Notamment le pouvoir exécutif qui ordonne sa création.

    "Oups pardon, c'est la faute à l'IA"
    Ou encore
    "Ok c'est une arme mortelle, mais on a pas mis de robot dedans hein, c'est fait à la main avec amour nos lâchers de bombes"

    Ça détourne le regard de sujets importants actuels (concernant le même sujet de trucs tueurs) et ça fait le gagne pain des agitateurs de foule apocalyptique/théorie du complot, c'est très spéculatif et relativement inutile

    Pourquoi ne pas critiquer la charge explosive en premier lieu, pourquoi se concentrer sur un truc aussi secondaire que """""l'IA"""""

  28. #538
    Citation Envoyé par Kamikaze Voir le message
    Notamment le fameux exemple utilisé dans tous les cours d'algorithmique numérique du missile téléguidé qui foire parce que le calcul de l'exponentielle est dangereux en terme d'arrondi si fait naïvement.
    C'était un compteur de temps qui était incrémenté "de 0,1" (une constante non représentable en base 2) à chaque itération, et qui dérivait progressivement par rapport à un autre compteur qui lui était calculé correctement. C'était pas un bug, le code passait tous les tests : le cahier des charges prévoyait une durée de fonctionnement max de quelques heures. D'ailleurs le code original qui datait des années 1970 n'était pas du tout prévu pour intercepter des SCUD à mach 5 à la base, mais des avions à mach 1. Bien entendu personne n'avait dit ça aux mecs sur le terrain, qui le laissaient tourner une semaine entière pour dormir tranquilles.

  29. #539
    Ah je sais plus quel exemple c'est y'a le lanceur Ariane 5 et un autre

  30. #540
    Citation Envoyé par Møgluglu Voir le message
    C'était un compteur de temps qui était incrémenté "de 0,1" (une constante non représentable en base 2) à chaque itération, et qui dérivait progressivement par rapport à un autre compteur qui lui était calculé correctement. C'était pas un bug, le code passait tous les tests : le cahier des charges prévoyait une durée de fonctionnement max de quelques heures. Bien entendu personne n'avait dit ça aux mecs sur le terrain, qui le laissaient tourner une semaine entière pour dormir tranquilles.
    "ça marche très bien, suffit de rebooter la machine à la main deux fois par jour!"

    A ben tiens, si c'est pas un classique ça!

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •