Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 53 sur 175 PremièrePremière ... 343454647484950515253545556575859606163103153 ... DernièreDernière
Affichage des résultats 1 561 à 1 590 sur 5247
  1. #1561
    Citation Envoyé par LeLiquid Voir le message
    Je n'ai pas ton expérience en maison de retraite donc je te laisse le benefice du doute mais j'imagine que le contact humain a tout de même son importance. Il me semble que l'isolement est un vrai problème chez les personnes âgés (et pas que chez elles d'ailleurs). Et je vois mal la robotique apporté une réponse à ce problème..

    Et sinon c'est quoi le message : He les ptits vieux, vous ne méritez même pas 30 minutes d'attention par jour de la part d'un véritable être humain.

    Perso je trouve ça infect.
    Ce qui est infect c'est surtout de parquer les personnes âgées dans un mouroir.

    Citation Envoyé par tompalmer Voir le message
    Mais y'a toujours du contact humain, les vieux se parlent entre eux heureusement C'est normal aussi, question de génération, et puis il y aura toujours les activités, des intervenants extérieurs, la petite messe ... L'idée n'est pas de remplacer tous les humains partout, ils seront juste ailleurs.
    Quand vous mettez les pieds dans une maison de retraite, on est pas en prison. Ils passent 80% de leurs temps à jouer au bridge et bitcher entre eux en se racontant des potins ! C'est surtout dur quand tu perds ta mobilité et que tu deviens dépendant, et c'est généralement le début de la fin, le moral ne suit pas et ta santé se dégrade avec vitesse grand V
    Tu parles de gens qui ont encore leur mobilité et leur tête et d'une maison de retraite à 5000€ par mois. C'est très loin de la réalité.



  2. #1562
    Tu parles de gens qui ont encore leur mobilité et leur tête et d'une maison de retraite à 5000€ par mois. C'est très loin de la réalité.
    J'en ai connu deux pour le moment, plutôt chères en effet mais 5 fois moins

  3. #1563
    Duplex revu et corrigé qui sera testé cet été :



    Plutôt génial sur le papier.

  4. #1564
    Lancement cette année d'une chaîne de Pizzeria autonome, ouverte 24/7

    https://www.bfmtv.com/tech/ce-robot-...e-1479779.html

    En france !

  5. #1565
    Citation Envoyé par Laya Voir le message
    Je trouve ça difficile de prédire quelque chose actuellement, si les courbes de progressions restent très importantes on pourrait voir des IA très puissante dans peu de temps, à contrario si elle s'écrase et ça ne serait pas la première fois, ça pourrait stagner pendant plusieurs dizaines voire centaines d'années.
    Le temps n'est pas nécessairement un problème pour une IA, c'est plus la quantité de données qu'on est capable de lui donner.
    N'oublions pas qu'on pensait que l'IA n'arriverait pas à battre l'humain au jeu de go il y à peu de temps. Mais n'oublions pas non plus que historiquement pas mal de prédiction se sont cassé la gueule.
    C'est un bon exemple que le go. Il n'a pas été résolu, contrairement à ce qu'on pense, par une IA plus "maligne" que celle déployé il y a des dizaines d'années de cela pour les échecs, mais juste par une astuce statistiques dont je ne détaillerais pas le point technique. Sinon c'est la même IA derrière. En clair il a été résolu par la brute force, et non par un changement de paradigme. En aucun cas l'IA déployé sur le go ne pense comme un humain qui joue au go, par exemple.
    Citation Envoyé par Laya Voir le message
    Les réseaux de neurone c'est vieux et ça donnait des résultats médiocres, ça a végété pendant pas mal de temps, aujourd'hui c'est assez puissant sur pas mal de problèmes.
    C'est pas tout à fait vrai, ce serait long a expliquer, d'autant plus que j'en ai déjà fait des pavés sur le topic de l'intelligence artificielle. Il y a deux choses : les réseaux de neurones comme outils d'association. Qui existent depuis longtemps et ont simplement était limité pendant un temps par un soucis mathématique (preuve de convergence sur certains type de réseaux) et surtout par la puissance des PC. Aujourd'hui les deux limitations ont sauté. Mais le réseau en lui même n'a pas trop évolué, et c'est cet outil : ancien, limité, qu'on pousse jusque dans ces retranchements, qui fait parler de lui en ce moment. En aucun cas il ne s'agit d'une découverte scientifique de ouf qui a été faites, mais bien d'une évolution matérielle "bourrines", avec toutes les limites que ça implique.
    Cet outil est notamment limité par le fait qu'il ne fasse que construire, en réalité, un équivalent automatique des "abaques" que les ingénieurs faisait à la main auparavant sur les problèmes qu'ils ne comprenais pas. C'est super pratique, mais on est aussi loin de la compréhension de l'humain et de la reproduction d’être intelligent avec cet outil qu’auparavant. Tant il n'a aucun rapport.
    L'autre outil déployé en ce moment utilise une combinaison de ce premier et d'apprentissage par renforcement type Qlearning, c'est efficace pour trouver un chemin optimal à une tache donnée selon certains critères, mais on savait déjà le faire auparavant, le temps de convergence limite la chose et la compréhension de l'humain et l'IA "type humain" n'avance pas non plus...

    Dans un second temps on retrouve des travaux plus intéressant sur les réseaux de neurones biologiquement plausible appliqué à la robotique, et là il y a de l'avancement théorique et là ça va probablement dans la bonne direction. Malheureusement ce n'est pas ces travaux que le grand public regarde, et ce n'est pas celui là que tu cite quand tu parle de réseaux plus puissant, et ce n'est pas non plus les domaines de recherches ou l'argent arrive le plus, de facto. Même si avec peu de moyens c'est probablement là ou j'ai vu les trucs les plus fous en robotique.

    En résumé : oui le domaine des réseaux de neurones et de l'IA avance, mais sa branche la plus féconde pour le futur n'est pas celle qui fait la une des journaux, ni celle qui est la plus financée. Et donc l'avancement exceptionnel que tu constate est plutôt trompeuse car c'est la montagne de thune tombée sur des algos assez vieux qui a déclenché toute cette com... et ça n'avance pas le domaine le plus intéressant à très long terme pour autant.

    Citation Envoyé par Erreur Voir le message
    [color=#000059]Merci Nilsou pour cette vision terrain extrémement claire et enrichissante.

    Toutefois je suis .... dubitatif sur l'aspect très tranché que tu exprimes.
    Spoiler Alert!


    150 ans en arrière (une broutille à l'échelle de l'humanité, moins qu'une demie seconde à l'échelle de l’existence de la Terre ramenée à un an) presqu'aucune des technos actuelles n'existaient. Pour celles qui avaient déjà été inventées leur démocratisation et leur diffusion semblaient impensable et hors de toute échelle de prix envisageable.

    Il ya 50 ans avec moins de matériel et de soft que la plus ridicule des calculatrice de bureau actuelle, la Nasa envoyait et ramenait deux homes avec de la poussière lunaire sur leurs bottes.

    Il y a 40 ans on enseignait que le pétrole aurait été épuisé avant la fin du siècle (dernier) ou encore qu'un nerf coupé l'était irrémédiablement (pour prendre deux exemples très différents).

    Tout ça pour dire que l'évolution technique est plutôt très cumulative (expo ?) et ne donne pas de traces de ralentissements clairs (même si ...). J'ai un peu l'impression que tu vois le futur en petit comme ceux qui ont choisit de se baser sur l'octet parce qu'à l'époque c’était déjà très ambitieux par rapport aux capacités existantes et bien suffisant par rapport aux besoins de traitement de l'information qu'ils projetaient dans leur futur.

    De même pour les ressources, nous n'avons salopé exploité qu'un petite fraction de notre écosystème il reste encore les fonds marins (une paille) et prétendre que des ressources minières - naturelles sont déjà épuisées me semble ... à coté de la plaque.

    Dire que les softs (IA est surfait, ok) ne sont pas capables de croître en efficacité de traitement suffisante pour ce type de service me semble bien définitif au regard de notre passé et des prédictions (pas en SF seulement bien sûr) faites.

    La miniaturisation des espaces de stockage (1er disque dur commercialisé d'1 Mo représentait un 1/2 m3 d'espace et le prix d'une belle voiture familiale), la rapidité de traitement, etc ... repoussent les limites à chaque fois. La conso électrique baisse, les circuits électroniques sont plus compacts, mais on peu aussi parler gyro, vérins, et autre tendon, muscles et articulations des robots, là aussi les progressions sont sensibles.

    Il y a 20 ans des gars passionnées et pointus sur internet étaient si clairvoyants qu'ils réalisait un annuaire (!) des sites (j'ai soumis des sites manuellement à Yahoo). Tu imagines combien quand on est le nez dans le guidon sur une technos ont peux se leurrer soit même en se battant au quotidien sur des obstacles réels et du coup penser que la colline est une montagne infranchissable ?

    L'actu informatique c'est à la fois des millions de lignes de Cobol qui font encore tourner nos banques et autres mastodontes (sans qu'on sache trop comment d'ailleurs) et des évolutions radicales qui semblaient inatteignable hier (bon, d'accord, 5 ans).
    Ce que tu dis n'est pas faux, mais certains critères restent prédictible malgré tout. Le pétrole s'épuise quand même, même si ils raclent les fonds de tiroir, la simple mathématique et les limites du monde physique l'impose. Donc les mecs se sont peut-être gouré sur le temps qu'il faudrait, mais pas sur la fin. Les machines s'améliorent certes pour compenser, mais l'être humain croit exponentiellement en nombre et le résultat c'est une consommation énergiquement en augmentation chaque année. Contrairement à ce que tu pense, certaines ressources SONT critiques, et on n'en trouve plus tant que ça. Notamment certaines terres rares et métaux, au point de déclencher des tensions internationales à la limite de la guerre froide.
    Si l'être humain était en nombre constant sans trop d'évolution sur la terre, je te dirais que l'évolution futur est relativement optimiste vu que le développement du recyclage compensera en partie... sauf qu'en pratique, quand tu parle de comparer avec 150 ans, justement, comparons, il y a 150 ans nous étions 8 fois moins sur la terre, et les prédictions les plus pessimistes se sont aussi gouré sur ce que ça deviendrais 100 ans plus tard .
    Maintenant on est rentré dans une histoire de sauterelles, et le constat fait plutôt l'unanimité scientifique. On est laaaaaaaaargement trop pour les ressources existantes, notamment agricoles, forestière et énergétique etc... et les petits analystes gouvernementaux s'amusent désormais à jouer à "qui prédira le mieux la date de la grande famine mondiale" tant il n'y a plus trop de débat pour savoir si elle va avoir lieu
    Alors oui c'est pessimistes, et il y aura probablement beaucoup d'évolution d'ici là, mais voila c'est comme ça et dors et déjà on observa largement les prix répondre à cette réalité. Depuis 40 ans le prix de quasiment tout les types d’énergie augmente partout, ce qui est inédit. Le prix des terres rares subit des envolés et pour la première fois le prix de certaines technologie augmente également.

    Après oui, c'est difficile de prédire le futur, notamment la temporalité de quand arrivera quoi, mais certaines choses restent simples : nombre d'humain en hausse, terres agricoles en cours de désertification un peu partout, 6eme extinctions de masse d’espèce (dont pas mal forme un cycle nourrissant les humains), ressources fossiles au stade "on presse le sable pour en récupérer". Il n'y a pas 36 évolutions possible à long termes à cette situation ... Pas mal de scientifique on déjà signalé qu'hormis un grand sursaut de transition écologique et une baisse drastique organisée (pour éviter la guerre) de la population via des limitations sur les naissances, il y a peu de route de sortie ...

    Une fois remis dans ce contexte, l'évolution de certaines technologie, de l’intérêt que les gens y verront etc... devient assez prédictible.
    Enfin quand tu dit qu'on ne peut pas vraiment prédire à 150 ans, c'est pas tout à fait vrai, pas mal de scientifique assez ancien ont prédis l'évolution actuelle de la société, pas mal d'auteur de SF également, en réalité c'est plutôt difficile de prédire l'évolution à court et moyens terme sur l'IA. Tant que les matériaux sont abordable certains peuvent faire des percées par "l'effet hype" et réussir à mettre des robots dans certaines discipline, temporairement.

    Enfin de enfin, je n'ai jamais dit que l'IA n’évoluerais pas pour permettre techniquement ce que tu dit, simplement que les matériaux ça ne s'invente pas, donc ce sera cher de mettre des robots partout, et que surtout un nombre croissant d'être humain sur terre rendront l’être humain "peu cher" et donc toutes les applications ou l'IA remplacerait l'humain seront assez peu intéressante du point de vue des industriels, stou. Sauf à voir le nombre d'humain baisser significativement d'un coups (grande guerre ou que sais-je), il y a peu de chance pour que la boulangère soit remplacé par un robot avec succès dans les 100 prochaines années. (mais il y aura sans doute des essais du genre dans le court et moyens termes)

    Et c'est bien parce que je tente de ne pas être le nez dans le guidon de ma discipline que je formule cet avis en tentant de prendre en compte les évolutions économiques et sociales pour jauger de l'évolution de ma discipline. Si je ne prenais que l'évolution de ma discipline je te dirais que les premiers robots animaux tu en verra dans moins de 50 ans (notamment au niveau des jouets pour enfants), et que l'automatisation de tout arriverais très très tôt avec des robots humanoides à plus ou moins long termes.
    Le soucis c'est que l'automatisation de tout devrait déjà avoir lieu dans ce cas, et que le fait qu'elle n'est pas lieu est surtout due à des soucis qui n'ont rien de technologique ^^

    L'avis inverse est tout à fait possible hein, mais je ne vois pas de véritable argument scientifique et technique suffisamment fort pour l'appuyer (pour le moment), la plupart des temps ce sont des croyances, ou plutôt des prières (tout le monde va se faire des bisous et aller dans l'espace, l'homme va s'auto-réguler, Une nouvelle technologie magique va changer toute la donne, etc etc...)
    Citation Envoyé par tompalmer Voir le message
    Lancement cette année d'une chaîne de Pizzeria autonome, ouverte 24/7

    https://www.bfmtv.com/tech/ce-robot-...e-1479779.html

    En france !
    Ben tient, retient bien cet exemple, on en reparle dans quelques années pour voir si je me plante
    Dernière modification par Nilsou ; 04/07/2018 à 15h48.

  6. #1566
    C'est un bon exemple que le go. Il n'a pas été résolu, contrairement à ce qu'on pense, par une IA plus "maligne" que celle déployé il y a des dizaines d'années de cela pour les échecs, mais juste par une astuce statistiques dont je ne détaillerais pas le point technique. Sinon c'est la même IA derrière. En clair il a été résolu par la brute force, et non par un changement de paradigme. En aucun cas l'IA déployé sur le go ne pense comme un humain qui joue au go, par exemple.
    Franchement? La façon dont Alpha Zero joue au go est assez proche de la façon humaine. L'humain va compenser sa puissance de calcul plus faible par des heuristiques explicites et du découpage en morceaux, mais le fond reste identique :

    On explore l'arbre des coups avec les coups candidats données par l'"intuition", et on évalue le résultat (principalement par l'"intuition"). L'intuition étant remplacée par le réseau pour l'IA.

    L'entrainement est par contre assez différent.

    A noter : même sans parcours d'arbre, ces bots sont déjà forts, largement au niveau d'un joueur de club (mais avec de grosses failles dues à l’absence de parcours d'arbre).


    Alors oui, l'entrainement du réseau de neurone, c'est statistique, mais c'est aussi le cas pour l'intuition chez l'humain.

  7. #1567
    Citation Envoyé par Nilsou Voir le message
    C'est un bon exemple que le go. Il n'a pas été résolu, contrairement à ce qu'on pense, par une IA plus "maligne" que celle déployé il y a des dizaines d'années de cela pour les échecs, mais juste par une astuce statistiques dont je ne détaillerais pas le point technique. Sinon c'est la même IA derrière. En clair il a été résolu par la brute force, et non par un changement de paradigme. En aucun cas l'IA déployé sur le go ne pense comme un humain qui joue au go, par exemple.

    C'est pas tout à fait vrai, ce serait long a expliquer, d'autant plus que j'en ai déjà fait des pavés sur le topic de l'intelligence artificielle. Il y a deux choses : les réseaux de neurones comme outils d'association. Qui existent depuis longtemps et ont simplement était limité pendant un temps par un soucis mathématique (preuve de convergence sur certains type de réseaux) et surtout par la puissance des PC. Aujourd'hui les deux limitations ont sauté. Mais le réseau en lui même n'a pas trop évolué, et c'est cet outil : ancien, limité, qu'on pousse jusque dans ces retranchements, qui fait parler de lui en ce moment. En aucun cas il ne s'agit d'une découverte scientifique de ouf qui a été faites, mais bien d'une évolution matérielle "bourrines", avec toutes les limites que ça implique.
    Cet outil est notamment limité par le fait qu'il ne fasse que construire, en réalité, un équivalent automatique des "abaques" que les ingénieurs faisait à la main auparavant sur les problèmes qu'ils ne comprenais pas. C'est super pratique, mais on est aussi loin de la compréhension de l'humain et de la reproduction d’être intelligent avec cet outil qu’auparavant. Tant il n'a aucun rapport.
    L'autre outil déployé en ce moment utilise une combinaison de ce premier et d'apprentissage par renforcement type Qlearning, c'est efficace pour trouver un chemin optimal à une tache donnée selon certains critères, mais on savait déjà le faire auparavant, le temps de convergence limite la chose et la compréhension de l'humain et l'IA "type humain" n'avance pas non plus...

    Dans un second temps on retrouve des travaux plus intéressant sur les réseaux de neurones biologiquement plausible appliqué à la robotique, et là il y a de l'avancement théorique et là ça va probablement dans la bonne direction. Malheureusement ce n'est pas ces travaux que le grand public regarde, et ce n'est pas celui là que tu cite quand tu parle de réseaux plus puissant, et ce n'est pas non plus les domaines de recherches ou l'argent arrive le plus, de facto. Même si avec peu de moyens c'est probablement là ou j'ai vu les trucs les plus fous en robotique.

    En résumé : oui le domaine des réseaux de neurones et de l'IA avance, mais sa branche la plus féconde pour le futur n'est pas celle qui fait la une des journaux, ni celle qui est la plus financée. Et donc l'avancement exceptionnel que tu constate est plutôt trompeuse car c'est la montagne de thune tombée sur des algos assez vieux qui a déclenché toute cette com... et ça n'avance pas le domaine le plus intéressant à très long terme pour autant.

    Pour les problèmes de convergences tu parles j'imagine du gradient qui stagne ou qui explose, et les changements de fonction de coût de logistique vers relu ou ce genre de chose?
    Parce que justement j'ai l'impression que dans le fond on ne comprend toujours pas exactement ce qu'il se passe, autant dans le nombre de couches de neurones à utilisé, que dans l'initialisation de ces couches, et même dans les connections entre elles. J'ai plutôt l'impression qu'on est dans l'exploration sans avoir de réelle base théoriques solides, et du coup potentiellement peut être des améliorations à avoir dans les prochaines années.
    "Les faits sont têtus."


  8. #1568
    Sinon le Parlement Européen vient de refuser de valider la directive Copyright, qui contient le fameux article 13 qui a fait couler tant d'encre. Une nouvelle version du texte devra être présentée pour septembre.

    EDIT : faillait que j'oublie les deux mots les plus importants de ma phrase.
    Dernière modification par AttilaLeHein ; 05/07/2018 à 19h44.
    Citation Envoyé par Mdt Voir le message
    Le parisien est le moscovite du futur. Petit appart, boutiques pleines mais pas de fric pour acheter, heures perdues dans les transports (à défaut des queues), vendeurs et guichetiers désagréables...


  9. #1569
    Merci AttilaLeHein.

    Et pour compléter les enjeux de pareille disposition juridique, un lien de chez developpez.com libre encore de droit.

    https://www.developpez.com/actu/2068...-propositions/

    CPC n'est pas tenu responsable de ce lien. Herman Speed est responsable du lien : Son adresse IP a été enregistrée et les données appartenant à des ayants droits seront supprimées automatiquement.

  10. #1570
    J'ai corrigé ma phrase : le Parlement Européen a refusé de valider le texte, c'est pour ça qu'il va y avoir un nouveau texte pour septembre.
    Dernière modification par AttilaLeHein ; 05/07/2018 à 20h14.
    Citation Envoyé par Mdt Voir le message
    Le parisien est le moscovite du futur. Petit appart, boutiques pleines mais pas de fric pour acheter, heures perdues dans les transports (à défaut des queues), vendeurs et guichetiers désagréables...


  11. #1571
    Encore un élément à charge pour ceux qui disent que la Commission Européenne est un nid de lobbyistes. C'est usant.
    Alors que le règlement européen sur la protections des données des utilisateurs est une chose utile et intelligente.

  12. #1572
    Là pour le coup c'était un peu lobby des droits d'auteur vs lobby des GAFA + représentants du numérique. Je n'ai même pas entendu parlé de cette fameuse directive dans les médias traditionnels.
    Citation Envoyé par Mdt Voir le message
    Le parisien est le moscovite du futur. Petit appart, boutiques pleines mais pas de fric pour acheter, heures perdues dans les transports (à défaut des queues), vendeurs et guichetiers désagréables...


  13. #1573
    Citation Envoyé par AttilaLeHein Voir le message
    Là pour le coup c'était un peu lobby des droits d'auteur vs lobby des GAFA + représentants du numérique. Je n'ai même pas entendu parlé de cette fameuse directive dans les médias traditionnels.
    Clairement, si je ne trainais pas sur CPC et d'autres sites spécialisés, je n'en aurais jamais entendu parlé.
    Bonne nouvelle en tout cas que le parlement ait rejeté cette version du texte.
    C'est la faute à Arteis

  14. #1574
    Citation Envoyé par Enyss Voir le message
    Franchement? La façon dont Alpha Zero joue au go est assez proche de la façon humaine. L'humain va compenser sa puissance de calcul plus faible par des heuristiques explicites et du découpage en morceaux, mais le fond reste identique :

    On explore l'arbre des coups avec les coups candidats données par l'"intuition", et on évalue le résultat (principalement par l'"intuition"). L'intuition étant remplacée par le réseau pour l'IA.

    L'entrainement est par contre assez différent.

    A noter : même sans parcours d'arbre, ces bots sont déjà forts, largement au niveau d'un joueur de club (mais avec de grosses failles dues à l’absence de parcours d'arbre).


    Alors oui, l'entrainement du réseau de neurone, c'est statistique, mais c'est aussi le cas pour l'intuition chez l'humain.
    C'est sujet à interprétation, mais je trouve que ce n'est pas vraiment le cas, ici alpha go coupe les branches avec sa partie "intuition" pour permettre aux réseaux de tester plus de possibilités, de manière à battre l'explosion combinatoire, mais le but reste, comme pour les échecs, d'explorer la plus grande profondeurs. Aucun humain ne teste autant de coups que l'alpha go, bien loin de là. Alpha go reste dans un déroulage d'arbre, et si on déroule peut-être une partie de l'arbre, c'est pas à ces profondeurs ...
    De plus le go a haut niveau ne se réfléchit pas comme les échecs, et donc pas de cette manière, d'après ce que j'ai compris de joueurs "pro".

    Citation Envoyé par Laya Voir le message
    Pour les problèmes de convergences tu parles j'imagine du gradient qui stagne ou qui explose, et les changements de fonction de coût de logistique vers relu ou ce genre de chose?
    Parce que justement j'ai l'impression que dans le fond on ne comprend toujours pas exactement ce qu'il se passe, autant dans le nombre de couches de neurones à utilisé, que dans l'initialisation de ces couches, et même dans les connections entre elles. J'ai plutôt l'impression qu'on est dans l'exploration sans avoir de réelle base théoriques solides, et du coup potentiellement peut être des améliorations à avoir dans les prochaines années.
    Pour les développements futurs techniques et leurs implications : Ça dépends de quoi on parle, pour le type d'IA que je nommerais "on empile des couches comme des bourrins" tu a une partie ou une preuve a été donné qui a enfin permis à l'époque de faire une rétro-propagation du gradient de l’erreur. Donc tu a eu une véritable percée théorique à un moment. Et ensuite ils ont essayé d'améliorer le concept (pour gagner en temps de convergence ou en puissance de calcul, principalement) mais c'est à peu prés tout. De mémoire il me semble qu'au bout d'un très grand nombre de couche ils ne savent pas trop si c'est encore valide leurs preuves actuelles, mais ça ne les empêchent pas d'y aller en mode pragmatique.
    Il est "normal" qu'ils ne comprennent pas ce qui se passe, cet outil est sorti de nul part, les cerveaux réels ne sont pas conçu comme un empilage de milliers de couche. Un estimateur qu'on considère comme très bon comme le cervelet est un énorme calculateur parallèle mais de seulement 3/4 couches (dont deux seulement apprenne à priori) et c'est presque le max dans le cerveau ... Le cerveau est bien plus souvent un empilage de seulement quelques couches, mais grosses, qui se renvoient des infos entres elles et qui fonctionnent bien souvent de manière radicalement différente d'une couche à l'autre, avec donc une spécialisation des taches. A l'inverses des réseaux multicouches.
    Les mecs n'ayant pas de modèle réel ils utilisent un outils mathématique un peu au pif, c'est évident. Il n'est même pas dit que leur problème admette une règle général optimale qui leur permettrait de déduire une organisation optimale de leur réseau... Mais de toute façon en vrai il y a également peu de chose à améliorer sur cette branche, les résultats de l'utilisation simple de ces réseaux (reconnaissance de ce qu'on sait être reconnaissable) frisent les 100%, hormis une bataille de pouillème c'est devenu une quête d'optimisation mais c'est à peu prés tout ... quant aux résultats n’atteignant pas ces 100%, bien souvent on pense que c'est la limite des données en entrée. Le tout est certainement encore améliorable et capable de donner quelques surprise, mais on atteint quand même un bon plafond.

    Mais il existe un autre type d'IA employant des réseaux de neurones : l'original, qui consiste à regarder comment ça s'organise chez l’être humain pour tenter de le comprendre, d'en garder tout le suc, tout l'important, pour reproduire le résultat en partie. On parle alors d'IA bioinspirée, connectiviste, en gros.
    Là il y a pas mal d'avancement et on ne stagne pas contrairement au premier paradigme. Mais c'est évidemment bien plus complexe. L’être humain (et l'animal) est une délicate alchimie entre partie de cerveaux "ad-hoc" qui ne sont là que parce que la génétique les a conçu au poil prés pour fonctionner dans cette situation, de parties hautement adaptatives, de parties adaptatives surtout dans l'enfance et le tout savamment mélangé avec un corps bien conçu qui simplifie les problèmes à résoudre au max. (voir la différence entre asimo, le robot qui vient de l'IA classique, et les marcheurs de BostonDynamics, qui viennent plutôt de cette branche, qui n'ont aucune IA mais qui marche tout de même, ou voir encore les "marcheurs passifs"). Le tout forme un ensemble ou le concept même de "preuve théorique" tant chérie par les matheux de la première branche est bien souvent impossible . C'est donc par essai erreur et déduction qu'on procede.
    Ha et on s'interdit évidemment l'emploi de réseau à multiples couches de la première branche, non parce qu'on ne les aiment pas, mais parce que ça n'existe tout simplement pas dans le cerveau

    Perso je mise sur le second pour les chances de développement de l'IA de "contrôle robotique" du futur. Pour le premier je pense qu'on a déjà peu ou prou "l'IA de reconnaissance" parfaite capable de résoudre quasiment toute tache de ce type disposant des données adéquate. Il y a évidemment des pistes d'amélioration (mieux théoriser le fonctionnement interne et la convergence, améliorer les perfs, le temps de convergence etc...) , mais plus forcement de grande découverte à faire qui changerais fondamentalement l'utilisation qu'on en fera ^^.
    Par contre je ne suis pas sur que l'IA de reconnaissance multi-couche soit adapté à la robotique embarqué, sa nature rends son déploiement en archi embarque couteux, son résultat est meilleur, mais très similaire à ce qu'on obtient avec un réseau categorisateurs en une couche et un réseau associateur en une couche derrière. (donc deux couches). Les performances de reconnaissance du second étant bien suffisante en robotique car on sait qu'elles sont suffisante pour l’être humain pour contrôler son corps, donc ça nous va. Surtout que les robots peuvent se créer leur propre entrée de donnée, si un visage donne une reconnaissance toute pourrie, rien n’empêche de s'en rapprocher et de multiplier les angles jusqu'a atteindre le 100% tout rond , donc la reconnaissance n'est pas un vrai problème sur un robot capable d'action sur son environnement et de facto les performance de l'algo la permettant ne sont pas critique et ses améliorations théorique de facto peu importante pour le roboticien.

    Citation Envoyé par Herman Speed Voir le message
    Encore un élément à charge pour ceux qui disent que la Commission Européenne est un nid de lobbyistes. C'est usant.
    Alors que le règlement européen sur la protections des données des utilisateurs est une chose utile et intelligente.
    C'est quand même tellement un nid à lobbyiste que c'est l'endroit du monde ou il y en a le plus par représentant du peuple et que dans le cadre des lois sur l'agriculture ils ont du interdire l’accès des locaux aux représentants de Bayer, tant ça en devenait ridicule ...
    faut pas non plus se voiler la face ... quand les principaux intéressés, les députés, sont les premiers à le dénoncer en général, c'est difficile à remettre en cause ... Même dans des débats entre un type sortant cet argument et un adversaire du camps des "politiques n'ayant pas trop de soucis avec les lobbyistes à priori" j'ai rarement entendu le second répliquer "meuuu non c'est tout à fait faux" La plupart du temps l'adversaire politique admet également cette réalité et essaiera de s'en sortir autrement dans la joute. Ça ne fait donc même pas vraiment débat chez ceux qui auraient tout intérêt à en débattre ...
    Dernière modification par Nilsou ; 06/07/2018 à 02h16.

  15. #1575
    Citation Envoyé par AttilaLeHein Voir le message
    Là pour le coup c'était un peu lobby des droits d'auteur vs lobby des GAFA + représentants du numérique. Je n'ai même pas entendu parlé de cette fameuse directive dans les médias traditionnels.
    Perso j'ai rien compris des enjeux, bien que je sois sensé être sensible au droit d'auteur vu mon métier, les lois proposées sont toujours super connes.

    La palme étant de faire payer a Google une taxe pour financer la photographie d'auteur via Google image

  16. #1576
    Citation Envoyé par tompalmer Voir le message
    Perso j'ai rien compris des enjeux, bien que je sois sensé être sensible au droit d'auteur vu mon métier, les lois proposées sont toujours super connes.

    La palme étant de faire payer a Google une taxe pour financer la photographie d'auteur via Google image
    L'enjeu c'est que les boites profitant des droits d'auteur sont toutes tristes parce qu'elles se sont pas sorti les doigts du cul plus tôt pour s'adapter à la démocratisation des supports numérique et du streamin, et maintenant ils viennent chialer que Google (via Youtube), Amazon et cie leur vole injustement de l'argent et tuent la création artistique, et veulent donc que l'UE impose un système où les GAFA et cie devront leur payer la dîme, et tant qu'à faire faire peser la responsabilité du contenu en ligne sur l'hébergeur et non plus sur celui qui l'a mis en ligne, ce qui requérait un système de contrôle et filtrage que même la Chine ne sait pas faire (on en reparle dans quelques années), mais les ayant droits s'en foutent, car ça leur donnera carte blanche pour faire cracher au bassinet les hébergeurs autant de fois qu'ils veulent.
    Citation Envoyé par Mdt Voir le message
    Le parisien est le moscovite du futur. Petit appart, boutiques pleines mais pas de fric pour acheter, heures perdues dans les transports (à défaut des queues), vendeurs et guichetiers désagréables...


  17. #1577
    Là où je me dis que le mec a raison, c'est quand n'hésite à poster l'article sur CPC parce que trop politique : https://www.bing.com/cr?IG=D543C1150...p=DevEx,5027.1

  18. #1578
    Citation Envoyé par AttilaLeHein Voir le message
    L'enjeu c'est que les boites profitant des droits d'auteur sont toutes tristes parce qu'elles se sont pas sorti les doigts du cul plus tôt pour s'adapter à la démocratisation des supports numérique et du streamin, et maintenant ils viennent chialer que Google (via Youtube), Amazon et cie leur vole injustement de l'argent et tuent la création artistique, et veulent donc que l'UE impose un système où les GAFA et cie devront leur payer la dîme, et tant qu'à faire faire peser la responsabilité du contenu en ligne sur l'hébergeur et non plus sur celui qui l'a mis en ligne, ce qui requérait un système de contrôle et filtrage que même la Chine ne sait pas faire (on en reparle dans quelques années), mais les ayant droits s'en foutent, car ça leur donnera carte blanche pour faire cracher au bassinet les hébergeurs autant de fois qu'ils veulent.
    C'est la même chose aux US hein, c'est pas spécifique à l'UE, la fin de la neutralité du net aux US repose sur le même principe (faire payer aux diffuseurs majeur de contenu). Néanmoins je n’achète pas forcement le discours sur "les pauvres GAFA qui ont été précurseur et dont tout le monde veut voler les sousous"
    Faut pas non plus être idyllique vis à vis des GAFA, la plupart des lois qui les embêtent vraiment se ramassent tout pleins de bon gros bâton dans les roues, et leurs puissances économiques est telle qu'il est plus probable qu'il s'en tirent via des accords à haut niveau avec les ayant droits (Les GAFA ont un gros pouvoir sur eux : ne serais-ce qu'en menaçant de retirer le contenu indexé).
    Les GAFA, bien au contraire, ont très vite profité de ces accords (exemple) et ont mêmes contribué, pour certains d’entre eux, à appuyer ces dernières lois au niveau US et UE (ce qui est surprenant au premier abord vu qu'on pourrait penser qu'ils en sont les premières victimes, mais pas tant que ça une fois l'analyse faites).
    En clair : à la fin il est bien plus probable que ces lois polarisent au contraire le contenu et les sousous autour des GAFA, qui ont les moyens de faire des accords, de tirer la couverture à eux à long terme
    etc etc... et qu'elle embête surtout les petits diffuseurs et indexeurs de contenu.

    Je ne me fait guère de soucis pour les soussous des GAFA dans ces affaires perso ... J'ai la nette impression qu'ils ont bien les moyens d'être les grands gagnants de l'histoire si ils se plient aux quelques exigences formulés par les loulou qui ont pondus ces lois. Ce qu'ils se sont empressé de faire en pratique une fois les belles déclarations consommées.

  19. #1579
    Ah mais je ne dis pas que les GAFA sont de blancs chevaliers défenseurs de la neutralité du net et de la création artistique, juste qu'ils pris le coche avant les ayant-droits classiques et que maintenant ces derniers chialent parce qu'ils ont pas sut (ou voulu) voir le vent tourner.
    Citation Envoyé par Mdt Voir le message
    Le parisien est le moscovite du futur. Petit appart, boutiques pleines mais pas de fric pour acheter, heures perdues dans les transports (à défaut des queues), vendeurs et guichetiers désagréables...


  20. #1580
    Le raisonnement va loin, sortir un cas de 2010 pour parler d'une loi qui est passée avec Trump en 2017 pour ultimement parler d'une directive européenne de 2018.

    Simplement Google a changé d'avis (et cet accord avait été annulé), l'infamous patron d'orange change d'avis tous les 2 ans sur la neutralité

    Tous le monde sauf les ISP ont un interêt à la neutralité du net, mais dès que les lois changent, les entreprises sont obligées de s'adapter.

  21. #1581
    Ben justement, le fait que ce soit 2010 montre que bien avant que les lois soit passé au forceps ... ils envisageaient déjà d'exploiter ce filon. Donc que ce ne sont pas vraiment du tout des chevaliers blancs ...
    Ensuite le point : "Tous le monde sauf les ISP ont un intérêt à la neutralité du net, mais dès que les lois changent, les entreprises sont obligées de s'adapter. " (les pauvres entreprises qui n'ont aucun pouvoir du tout du tout et qui n’essaie pas du tout du tout de changer ces lois tout les jours via des centaines de lobbyistes... )
    c'est bien le problème ici : la capacité des entreprises à s'adapter dans ces logiques d'accord dépendra du poids de l'entreprise. Il est évident qu'avec leur puissance une grosse multinationale comme facebook ou google n'aura pas de mal à trouver des accords arrangeant pour ne pas être impacté par ces changements (l'exemple de 2010 montre que c'est clairement dans leur corde). A l'inverse, les petits diffuseurs vont prendre cher dans la pomme, n'ayant aucun poids dans la balance.
    On retrouve ce raisonnement un peu partout hein (quel que soit l'orientation politique des analystes), j'en suis pas l'inventeur :

    voir par exemple la conclusion ici :
    https://www.lesechos.fr/14/12/2017/l...profil-bas.htm

    Ou le chapitre "protection de leur position dominante" ici :
    http://www.europe1.fr/economie/neutr...erdant-3521822

    Le résultat prévu par à peu prés tout le monde dans l'univers économique c'est la prolifération d'entrave dans les pâtes des concurrents aux gafa et des fournisseurs de contenu et une concentration logique des activités dans les mains des gafa (encore plus que maintenant).
    D’où la conclusion : les gafa ont eu intérêt à cet abrogation. (et certains, bien conscient de ce fait, ont fait du lobbying pour). Alors certes, pour des raisons politiques et de principes, certains l'ont également défendu à la toute fin. Mais le résultat leur ira aussi ... à se demander si la défense n'était là que pour parader
    l'année dernière il y avais eu pas mal d'analyse des activités des lobbyiste aux USA pour montrer que c’était loin de n’être que les ISP qui avaient poussé dans ce sens, et qu'assez étonnement on retrouvait des lobbyiste affilié à certains gafa qui à coté de ça se posait en victime

    Le raisonnement, sinon, est assez extractible ailleurs et sur d'autres sujet impliquant les gafa. La situation est peu ou prou la même en UE, et les lobbyiste aussi. Si une loi de ce genre passe en UE il y a fort à parier que les GAFA auront de quoi faire des accords à leurs avantages, quand les autres "petit" devront juste sortir le gros chéquier régulièrement... la conclusion sera alors à peu prés la même.

    Citation Envoyé par AttilaLeHein Voir le message
    Ah mais je ne dis pas que les GAFA sont de blancs chevaliers défenseurs de la neutralité du net et de la création artistique, juste qu'ils pris le coche avant les ayant-droits classiques et que maintenant ces derniers chialent parce qu'ils ont pas sut (ou voulu) voir le vent tourner.
    Disons plutôt qu'ils ont inventé un nouveau coche et que du point de vue de certains ça devient à terme un abus de position dominantes
    C'est compréhensible après, on ne peut pas vanter la concurrence partout en espérant qu'en cas de monopole les frustrés d'en dessous ne se mettent pas à gueuler.
    Du point de vue du système auquel ils appartiennent ils sont plutôt dans leur bon droit vis à vis de ça. C'est un système qui est normalement censé tirer dans les pâtes des monopoles, et qui ne le fait pas tant que ça. Donc ça fait grincer des dents.
    Je n'aime pas du tout ce système hein, mais dans les règles du jeu auquel ils pensent jouer ils n'ont pas forcement tort.

  22. #1582
    Pour le monopole, c'est surtout que c'est compliqué, dans le monde du numérique, où les monopoles se font et se défont très vite par rapport à avant.

    Après, c'est sûr que certaines positions de Google sont définitivement dominantes au sens où on l'entendait auparavant.

  23. #1583
    Les monopoles de Google sont pas si malsains non plus d'un point de vue économique, ils utilisent des standards ouverts et font participer des constructeurs et développeurs tiers. Donc ils partagent le gâteau d'une certaine façon.

    Y'a aussi certains contenus (notamment culturels) qui n'ont aucune vocation à être mis en concurrence, donc je préfère un gros monopole de Netflix qu'avoir 12 abonnements similaires.

  24. #1584
    Ça peut poser problème quand le monopole culturel décidera pour toi quelles oeuvres (films, livres etc...) pourront être diffusées et lesquelles seront supprimées du circuit.

  25. #1585
    En fait je me corrige, il peut y avoir 400 clones de Netflix, ce qui devrait être interdit, c'est les exclus, ça va justement vers une concurrence plus pure. Ainsi tu peux t'abonner à n'importe quel plate forme, t'aura toujours le même contenu et ça se démarque sur les fonctionnalités (comme pour la musique)

    En bonus la facilité de migrer d'une plate forme à une autre

  26. #1586
    Citation Envoyé par tompalmer Voir le message
    Les monopoles de Google sont pas si malsains non plus d'un point de vue économique, ils utilisent des standards ouverts et font participer des constructeurs et développeurs tiers. Donc ils partagent le gâteau d'une certaine façon.

    Y'a aussi certains contenus (notamment culturels) qui n'ont aucune vocation à être mis en concurrence, donc je préfère un gros monopole de Netflix qu'avoir 12 abonnements similaires.
    Moi j'ai rien contre les monopoles dans mon principe perso. A partir du moment ou ils sont gérés par une autorité publique (un état), mondiale (l'ONU, une ONG) ou par une fondation à but non lucratif. La ça me va, ça leur évite de se casser la gueule quand le patron à décidé que "bon OK je vend le truc pour me faire ma retraite" (vous avez pensez à ce que le monopole de steam, que j’apprécie, présente comme risque de malade ... que je n'apprécie guère ) ou quand une bulle d'actionnaire explose.

    Mais dans un systeme purement capitaliste faut pas déconner, le monopole est un risque affreux. Eux même le savent, pas pour rien qu'après la crise de 29 des garde-fou très solide et très puissant avaient été mis en place, tel que l'anti-trust américain ou les instances mondiales commerciales (FMI et OMC avait cette vocation à la base) . Force est de constater que ces garde fous ne sont plus que de grosses blague jouant même parfois contre leur propre camps ...

    Du coups il est tout à fait logique que dans un système capitaliste libéral ou sont censé exister des garde fous très puissant, les entreprises qui constatent le monopole d'un de leur pair réagissent avec aigreur. C'est logique de leur point de vue. (ça ne fait pas d'eux des parangon de la vertu pour autant, à la place de google ils feraient surement la même, mais ça sert d'indicateur que quelque chose déconne un peu.)

    De plus les monopoles ont pour risque infiniment plus pervers de faire subir à tous leur dérive idéologique sans que la masse ne s'en aperçoivent (algo de facebook modifié pour aller dans le sens du conservatisme US, algo de google idéologiquement orienté depuis 2017)

  27. #1587
    Citation Envoyé par Nilsou Voir le message
    C'est un système qui est normalement censé tirer dans les pâtes des monopoles, et qui ne le fait pas tant que ça. .../...
    Tu ne veux pas plutôt dire qu'ils se tirent la nouille et qu'au final ça ne casse pas 3 pattes à un canard ?

    Citation Envoyé par Nilsou Voir le message
    .../... Donc ça fait grincer des dents.
    Normal, quand tu chasses les nids d'hirondelles, il faut charger avec du gros sel. Le petit plomb, ça crisse entre les dents. ²
    Si ça ne marche toujours pas... Prend un plus gros marteau !
    Citation Envoyé par Daedaal
    Je crois que je cite.

  28. #1588
    Pour info la première loi anti trust c'est 1890 et ça concernait le pétrole, rien à voir avec la crise de 29 (financière).

    De plus les monopoles ont pour risque infiniment plus pervers de faire subir à tous leur dérive idéologique sans que la masse ne s'en aperçoivent (algo de facebook modifié pour aller dans le sens du conservatisme US, algo de google idéologiquement orienté depuis 2017)
    Hein ?
    Alors pour Facebook si tu fais allusion au fait de ne pas vouloir montrer des tétons, c'est plutôt une volonté de ne pas choquer 70 % de leurs utilisateurs.
    Si tu fais référence au scandale Cambridge Analytica, tu te trompe également, ce qu'on reproche a Facebook est (en gros) d'avoir laissé trop de puissance aux annonceurs, et étrangement c'est a droite qu'ils ont été suffisamment malins pour comprendre qu'on pouvait s'en servir pour capter des données et s'en servir pour bien cibler des gens qui penchaient à droite sur le terrain.
    s'ajoute a ça les fake news et les russes, qui sont des contenus viraux par essence et donc on été favorisés par la plate forme. parce qu'ils faisaient du clic, pas pour leur contenu

    Enfin Zuck est démocrate et envisage de se présenter, à moins d'adhérer à la théorie du complot selon laquelle ils aurait voulu foutre la merde en favorisant Trump pour arriver en sauveur (trèèèès far fetched), on délire.

    Enfin pour Google chacun y voit ce qu'il veut dans l'algorithme, perso Youtube est capable de me proposer du Soral comme du Usul donc je sais pas de quel côté il est orienté
    C'est l'éternel débat dès qu'un contenu devient trop dense : il faut le classer. Google essaye de te proposer sur une même page ce que tu peux apprécier, avec une marge de manoeuvre pour la sérendipité.

    Quand je vais a la Fnac, je ne me plains pas des livres sur les présentoirs, alors que c'est le même principe. Et quand je demande à un vendeur ce qui pourrait me plaire alors que je viens de lire un Chomsky, je m'attends a ce qu'il me propose des lectures de gauches.

    En bref, je pense que les gens attendent trop de ces sites, on veut qu'ils soient à la fois neutres, personnalisés, ne collectent pas nos données, pertinents ... On peut pas tout avoir.

    Si vous voulez un moteur de recherche plat, utilisez Qwant (même le maire qui a marié ma soeur en fait la promotion ), mais cassez pas les couilles des autres

  29. #1589
    Citation Envoyé par tompalmer Voir le message
    Enfin pour Google chacun y voit ce qu'il veut dans l'algorithme, perso Youtube est capable de me proposer du Soral comme du Usul donc je sais pas de quel côté il est orienté
    Perso, je ne l'utilise que ponctuellement mais quand je vois ce qu'il me propose sur mon malinphone ( ), sa côte a très fortement augmenté dans le sens ou justement il est "neutre" idéologiquement (comprendre, il me propose des sites totalement et viscéralement anti-américains à des niveaux confinant à la xénophobie voire au racisme. Je me demande d'ou il arrive à trouver cela soit dit en passant. )

  30. #1590
    C'est probable que ça vienne de toi, après sur actualité par exemple tu peux dire "je ne veux plus voir d'articles a propos de ce sujet" "ou de cette source".

    ça me permet d'éliminer les news venant de site people putaclic et les turpitudes quotidienne d'Hanouna

Page 53 sur 175 PremièrePremière ... 343454647484950515253545556575859606163103153 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •