C'est pas mal, c'est grosso modo le même court que ce que j'ai eu en première année . Un grand classique sur la décomposition linéaire. Ça te permettra ensuite de comprendre pourquoi ça a bloqué pendant 30 ans suite à l'article historique de 69 ^^ .
Spoiler : en gros, parce que le trait qu'il trace, c'est à peu prés tout ce que peut faire un perceptron seul. Donc si tu fout tes trucs en ronds, tu es cuits .
Il a fallut attendre 20 ans pour avoir la solution
- - - Mise à jour - - -
Il est bon. La solution classique ici est d'avoir toujours du bruit (de l'exploration, comme tu veut) pour pouvoir "sortir" de ce minimum local (dans sa video c'est un maximum local mais je trouve ça plus parlant avec un minimum, tu a la notion de rester coincer dans le trou et tenter de sautiller pour en sortir)
Sur un agent en environnement reel, le probleme se pose peu, le monde étant assez bordelique/chaotique pour imposer de nouvelles experiences régulierement (en gros pour téléporter le mec n'importe ou sur la carte de temps à autres), ce qui résout le problème en grande partie.
C'est dommage, je crois que mes cours d'optimisations sont les seuls non filmés dans mon master. Sinon je les auraient linké. Par contre ils sont un peu moins "doux"
Dernière modification par Nilsou ; 20/06/2017 à 17h05.
J'avais jamais répondu à cette question (de 2016 :P ) dans les dernières pages. Je t'en trouverais si tu veut. Mais ça se comprends assez simplement si tu a manipulé les opérateurs de calculs quantique ET que tu à fait un peu d'IA en neural field (j'ai eu cette chance en faisant une spé info quantique en ingé et ensuite mon doctorat en IA :selapete: ) . Les comportements sont assez proche (superposition d'état, traitement "parallèle" de ces états malgré leur superposition, qui est non destructive, puis état final en fonction de tout les trucs entremêlée, qui lui est donc unique macroscopiquement. Bon ben c'est la même chose ^^. Traitement parallèle par divers neurones en masses, qui peuvent aboutir à des résultats opposés ou à des chats mort-vivant puis "tranchage" de la solution pour avoir un comportement cohérent (de toute façon, comme en quantique, l'univers te l'impose : tu ne peut pas commander un muscles avec deux ordres contradictoires, ils vont se mélanger pour aller au milieu puis c'est tout, ou d'un coté ou de l'autre selon le traitement . Comme tu ne peut pas avoir un chat observé mort-vivant, pas encore )
C'est d'ailleurs suffisamment similaire pour qu'il y ai eu des tentatives pour utiliser les opérateurs du calcul quantique pour décrire des réseaux de neurones. Mais bon, comme je le disait, la comparaison est assez foireuse car bien des phénomènes statistiques peuvent être comparé ainsi. Elle n'est pas fausse, mais pas de quoi en faire un foin. Mais bon, ça leur permet de vendre des bouquins mystiques .
Dernière modification par Nilsou ; 20/06/2017 à 17h25.
Il a pas dit le contraire. Les solutions analytiques qu'évoque Nilsou sont typiquement plus efficaces justement
Il existe des types de SMA, dits Coopératifs, qui sont composés d’agents aux comportements pouvant être assez complexes.
Pour faire simple, chaque agent agit par rapport à ses perceptions locales, et évalue son degré « d’inconfort » (criticité) pour décider de ses actions. Il se renseigne sur l’état de ses voisins, et agit pour minimiser sa valeur de criticité sans faire exploser celle de son voisinage. Les agents peuvent se supprimer du système s’ils ne se considèrent plus comme pertinent, ou conduire à la création d’autres agents pour les assister.
Le reste des comportements est dépendant du problème à traiter, et c’est là qu’est la difficulté de coder de tels systèmes. Mais ils vont d’agents très réactifs à des agents possédants de grosses capacités d’apprentissage pour évaluer leur pertinence au cours du temps etc.
Le bon côté, c’est que ce type de SMA est très robuste, en particulier dans les environnements dynamiques vu que la structure formée par les agents s’adapte aux contraintes de l’environnement pour faire émerger le fonctionnement global attendu.
L’équipe SMAC de l’IRIT à Toulouse développe des systèmes basés sur cette techno, il y a des publis pas mal si vous êtes intéressés j’pourrais en link quelques-unes.
Mais tu a des exemples de tels systèmes qui apprennent dynamiquement ET qui ont une application autre qu’expérimentale ? (pas juste des publis)
Nous on fait ça en apartés des thèmes principaux de l'équipe et aux dernières nouvelles de mon coté les industriels sont quand même peu friand de systeme "trop" dynamique. Ils préfèrent un comportement stable pour leur problème stable, sans surprise, quitte à recoder les agents si le problème évolue au cas par cas etc...
Enfin j'imagine que dans des applications spécifiques ça doit exister, mais je voudrais bien des exemples quand même ^^.
Edit : je n'avais jamais entendu parler de cette équipe, mais j'aime bien leur thème au premier coups d’œil, j'irai jeter un coups d’œil aux publis je pense. On a du se croiser à certains trucs je pense, comme les GDR GT8 en neuroscience computationnelle qui ont parfois lieux à Toulouse au Laas
re-edit : Ho putain ce n'est pas une petite équipe, rien que la liste des publis de Zaraté est juste astronomique . Il doit surement se trouver dans nos biblio dans un coin ...
Dernière modification par Nilsou ; 20/06/2017 à 18h56.
Pour une vue générale de l’approche, il y a une description ici ftp://ftp.irit.fr/pub/IRIT/SMAC/DOCU...A03_George.pdf
Sinon au niveau des applications, il y a eu pas mal de projets sur l'optimisation multi-critères/multi objectifs avec des résultats très sympa, en particulier en aéro et dans le spatial.
En fait, l'équipe a beaucoup de sujets de recherche sur des appli concrètes et en partenariat avec des industriels, ça va de la sélection génétique de maïs à la calibration de moteurs.
Mais effectivement, pour "productiser" la techno et vendre des solutions basées là dessus c'est une autre problématique.
Du coup pour les applications autre qu’expérimentales, si "c'est vendues et appliquées hors labo", c'est ce sur quoi des anciens de l'équipe bossent en ce moment =)
Si c'est sur des problématique concrètes avec des données issues du monde réel, là il y a de la matière dans les publis de l'équipe.
Et je n'ai pas parlé d'IA au sens fort, mais bien d'aptitude pour des emplois humains et distinction d'une intuition humaine.
Dans le sens où si l'Ia sera toujours aussi peu adapatable/intelligente, dès qu'on va la restreindre à une spécialisation,je ne vois pas la limite à part la recherche pure.
Quand tu vois l'application au jeu de go, on voit typiquement que ce n'est pas juste des problèmes qu'on peut résoudre analytiquement.
OK, mais ça revient grosso-modo à dire "y'a des tenseurs dedans donc c'est quantique".
Ce qui fait la spécificité du calcul quantique c'est pas juste la superposition, c'est surtout l'intrication, qui fait qu'avec n qubits tu as une superposition de 2^n états. C'est-à-dire un point dans un espace à 2^n dimensions.
Si l'état manipulé lors du "traitement parallèle" n'a que n^k dimensions avec k constant, c'est simplement du calcul probabiliste à la Monte-Carlo. Y associer le mot quantique n'est pas seulement "assez foireux", c'est totalement bullshit. Rien que je fait qu'on arrive à faire tourner les algos sur des dispositifs macroscopiques régis par la physique classique (ordinateur ou cerveau) en temps raisonnable montre bien que c'est du bullshit.
Ouais après ce que je voulais dire surtout c'est que les systèmes avec agent c'est un peu "un aveu de défaite". J'ai absolument rien contre, d'ailleurs je bosse sur un projet perso en ce moment qui utilise pas mal de techniques "force brute" de ce genre, machine learning etc. mais c'est plus dans l'optique de détecter des patterns sous jacents (les liens dont parlait Nilsou) a posteriori via un regard humain, pour ultimement s'en libérer (donner du sens aux paramètres utilisés lors de l'apprentissage), c'est une bonne approche je pense.
Mais quand tu modélises quelque chose avec des agents pour moi c'est dire que tu comprends pas la dynamique du système et que du coup tu choisis la solution de répliquer.
J'exagère un peu mais si on avait eu ça au 19ème siècle on serait peut-être parti sur une représentation par agent pour l'équation de la chaleur en modélisant chaque particule comme un agent
J'exagère, j'exagère, hein! Mais y'a une certaine paresse dangereuse à se reposer sur cette puissance je trouve.
Je ne crois pas que ca soit trivial de faire un modele multiagent, souvent dans un bon modele il y a des agents qui ne correspondent a rien de physique.
Il y a egalement d'autres formes de SMA qui font appel a plus de mathematiques.
Allez au diable Square-Enix Co. Ltd., Character Development, Marketing Division, et autres Online Business chaipasquoi.
https://en.wikipedia.org/wiki/Hidden_variable_theory
Enfin je sais pas exactement ce que tu sous entendais par rien de physique mais ça fait parti du problème que j'évoque.
Tu peux entrainer un énorme réseau de neurone à faire un truc, mais tu pourras pas comprendre l'état dans lequel il est, et comment manipuler les paramètres issus de l'apprentissage => ça marche mais tu sais pas trop pourquoi.
Après c'est bien aussi car tu peux découvrir des dynamiques que tu n'avais pas prévues, reste à leur donner du sens.
Ton agent abstrait c'est un peu comme le poids arbitraire d'un neurone.
Mais tu parlais peut-être d'autre chose, en tout cas ça me tenait à coeur d'évoquer ma réflexion à ce sujet, voilà
Si tu as le temps, jettes un oeil au doc de l'IRIT (ou leur page web), c'est assez clair et vraiment pas du tout abstrait.
En tout cas moi je trouve ca sympa leurs histoires d'intelligence collaborative, meme si on atteint les limites de la machine puisque les ia collaborent effectivement.
(Parce qu'en vrai, en mettant suffisamment d'humain sur une tache, on est sur qu'il vont tous se mettre a glander sur le forum de cpc).
Allez au diable Square-Enix Co. Ltd., Character Development, Marketing Division, et autres Online Business chaipasquoi.
Parce que pour la plupart des gens, l'être animal n'est pas l'être humain, au sens Heideggerien. Déjà, il restera toujours la question fondamentale de savoir si l'être animal artificiel est un être animal, autre que de part sa simulation de comportement d'être animal. Et ensuite, il y a un gouffre, selon la philosophie d'Heidegger entre l'être humain et les autres êtres. C'est le genre de problème à résoudre pour les scientifiques, et je pense pas qu'on pourra faire l'impasse dessus.
Si : C'était juste un problème de puissance de calcul. (bon OK, pas "analytiquement" mais par les techniques classiques de jeux d'echecs) . Tout ce qu'a fait google est d'établir un heuristique pour couper les branches en amont afin d'économiser de la puissance de calcul.
Bon, leur heuristique ils l'ont appris (ce qui se fait depuis 10 ans ...) ... mais honnêtement, c'est juste une vaste blague de communication tout le foin autour... parce que le reste c'est l'algo jeu d’échec d'il y a 60 ans, parcours de branche et cie, rien de nouveau.
En fait la seule raison pour laquelle un stagiaire L3 n'a pas fait de publi dessus auparavant alors que la technique est simple et maitrisé, c'est juste que l'IA du go : tout le monde s'en foutait (dans le milieu de l'IA tout du moins ^^)
Tout ça pour dire, ça reste une application "économie d’énergie", appliquée à un cas qui a fait beaucoup parlé grâce à moult publicité, et non une résolution "nouvelle" dans la méthode. Loin de là.
- - - Mise à jour - - -
Ha mais oui mais je suis d'accord. N’empêche tu peut détourner certains opérateurs qui ont été inventé pour la physique quantique "à la base" pour ceci. Et ça permet de vendre leur bullshit.
Mais j'ai jamais dit autre chose moi : c'est du bullshit, ne serais-ce que parce que ça n'a rien apporté de nouveau... donc purement du cosmétique.
Bon après, comme ça, avec ma mémoire défaillante et en racontant surement une connerie, il y a quand même quelques similitudes qui ne rendent pas forcement le truc "faux" en soit, même si il n'y a pas d'apport : avec N neurones, si chacune traite son problème en parallèle sur une ligne de traitement, tu a bien un point dans un espace de N dimension non ? Et on a bien 2^N état possible sur le champs de neurone, à priori, pour des neurones simplistes 0/1.
Je doit oublier un truc qui fait foirer ensuite la justesse de la comparaison
- - - Mise à jour - - -
Trivial non, au doigt mouillé par contre ... clairement ... ça depends beaucoup du "feeling" du concepteur, de son expérience etc... la "science" autour ne donne pas (encore, d'après ce que j'en sais) de règle claire pour concevoir le SMA parfait adapté au problème.
- - - Mise à jour - - -
C'est une très bonne analyse, ce n'est pas faux du tout.
Mais après c'est un peu ce qu'on fait depuis un bout de temps en mécanique des fluide et cie... en dehors des cas simplistes.
Mais c'est vrai qu'après ça risque de nous dispenser de trouver une règle "moyenne" juste et facilement utilisable, comme l'ont fait la thermo ou la meca flu en leur temps.
Dernière modification par Nilsou ; 21/06/2017 à 03h54.
(hors sujet donc en spoiler2 )
Spoiler Alert!
Pour le bon vieux comptable faut voir, il a un rôle très "contact humain" également, il doit pas mal improviser selon les cas et tout ça ... pas si simple à remplacer...
Après je ne suis pas comptable, je ne sais pas à quel point c'est répétitif
- - - Mise à jour - - -
Pas faux, mais ça dépends de ce qu'on parle, quand on parle juste de sensation vis à vis du truc en face, il y a quand même une gradation douce en passant par certains animaux, pas vraiment de pic de fou. Il y a bien un creux de rejet (la fameuse uncanny valley) mais sinon c'est purement linéaire.
Le gouffre vient surtout du langage amha. Comme on a beaucoup pris l'habitude de communiquer par ce biais on passe toute notre définition de "l'intelligence" par le langage. Mais j'aurais tendance à dire que c'est purement culturel ... et d'ailleurs très variable selon les cas, l'age ect...
Mais bref, ne nous embarquons pas forcement dans la philo. Tout ce que je voulais dire c'est que certains truc "pète" plus d'un point de vue "effet Woooo" et même si tu réalise ces "trucs" de façon crade, tu aura toujours bien plus de projecteur sur toi que si tu simule à 100% un bébé avant qu'il puisse parler ... meme si une forme de communication autre s'établit, ça vend moins et c'est moins facile d'en parler (fort logiquement).
Dernière modification par Nilsou ; 21/06/2017 à 04h20.
L'effet "woo", ça sera le jour ou on arriveras à une IA capable d'utiliser la fameuse entité symbiotique de l'homme qui viens d'être mentionnée: la Culture.
Chaque homme acquiert depuis la naissance l'ensemble de ses connaissances dans la Culture, et en restitue quelque chose. Que ce soit des photos de chat sur Facebook ou une transformée de Fourrier
Une IA capable, à l'image de l'homme, d'acquérir ses connaissances en les puisant dans la Culture de la même manière que l'homme, ouais, là c'est gagné.
Apprendre du seul environnement, ça donne effectivement rien de mieux qu'une souris un peu conne à la fin, aussi impressionnants que soient les algos d'apprentissage ou le réseau de neurones. Et encore. A condition qu'il y ait d'autres souris dans les parages pour lui apprendre a se comporter comme une souris. S'il n'y a que 4 murs, L'IA arriveras juste à faire semblant d'être un 5e
Un point cependant: tu parlais du langage. Qui semble effectivement être un support indispensable à l'accès à la culture: Nous, humains, disposons d'un des plus impressionnants et efficaces réseaux de neurones et d'apprentissage jamais conçu, pour une consommation énergétique dérisoire.
Et pourtant ils nous faut des années pour acquérir ne serait-ce qu'une maitrise basique de ce langage.
De quelle puissance auras besoin une IA pour réussir le même tour de force que n'importe quel enfant humain réussi avec pour seul carburant un peu de nourriture et un doux environnement familial?
S'il faut 1 centrale nucléaire par IA, l'homme garde certains avantages dans la course au ratio cout/performance. Et pour la force brute de calcul, que l'on branche une IA ou un humain sur un réseau de supercalculateurs, il n'y a pas de différence fondamentale.
D'autant plus que les ressources énergétiques sont un problème qui arrive à grande vitesse...
Oui, c'est précisément pour ça que c'est faux. En calcul quantique, tu as 2^N dimensions, donc O(e^2^N) états intermédiaires possibles. Et c'est ça la caractéristique qui fait que c'est plus puissant que le calcul classique, où tu es limité à N dimensions avec N bits.
Les éthologues te diront qu'il y a plein de communautés d'animaux qui sont "vachement" cultivées aussi.
Ya l'histoire du corbeau de Nouvelle-Calédonie dont les maman corbeau apprennent aux bébés corbeau à faire des outils, oui.
Après, faut quand même voir que "vachement", c'est limité. On parlait du langage, ben la culture orale s'en sert comme support. Et quand on passe à l'écrit puis au numérique, ça donne quelques ordres de grandeurs supplémentaires en termes de production et distribution culturelle.
HS : la famille des corvidés contient surement les animaux les plus intelligents actuellement en dehors de l'humain.
D'ailleurs il a une espèce de corbeau qu'on a observé créer des outils à partir de matériau artificiel (crochet à base de fil de fer pour attraper de la nourriture) là où tous les autres animaux ne font que des outils à base de matière "naturelle".
Sachant que l'individu observé n'avait pas été en contact avec ce genre de matériau avant.
Sauf que si ce ne sont pas des neurones "simplifiée" mais de véritables neurones convoyant une valeur analogique. N'est-ce pas un peu plus juste ? Dans ce cas chaque neurone peut bien représenter un axe dans une dimension sans trop de soucis (bon, sauf qu'en vrai il y a des bornes. Mais oublions les pour le moment)
- - - Mise à jour - - -
Pas tout à fait juste, le cerveau ça consomme pas mal quand même ...
Alors tu n'a pas tout à fait tort dans ton analyse, mais tu pointe le mauvais problème. Ce n'est pas tant un problème de consommation énergétique. Ça on se débrouille, il a été montré qu'on peut simuler sans trop de soucis tout le cerveau humain avec un bon gros supercalculateur (en théorie je veut dire, et pas forcement en temps reel, et ça ne veut pas dire qu'on sache le coder pour autant), sans parler de la prochaine génération.
Mais là ou tu n'a pas tort c'est dans ta comparaison : "si il faut ça à l'humain alors ne faudra t-il pas ça au minimum à l'IA?" . C'est très malin, j'ai pas mal de collègue qui n'arrive pas à pousser la réflexion jusque là
Et tu a tout fait raison, mais c'est plutôt sur le temps d'apprentissage nécessaire. L'humain apprends en plusieurs année en faisant des centaines d'essais erreurs et ça, il y a peu de chance qu'on arrive à éviter de passer par ces années d'apprentissage ce qui est LE frein majeur à l'IA de développement pour le moment.
Et comme on ne sait pas simuler le monde pour faire de l'accéléré , ben on est cuit. Donc il y a bien une limitation majeure... qui est pour l'instant assez peu débattu dans mon domaine alors que c'est LE soucis principal.
Dans mon labo on commence à en voir le soucis. Quand il faut 2/3 jours d'apprentissage pour gérer un truc simple dans le monde de la vrai vie commence à se poser de véritable problème annexe. Genre faut avoir des robots suffisamment résilient pour supporter 2/3 jours de fonctionnement non/stop . Et je ne te parle pas de l’inadéquation entre la recherche standard et des expe essai/erreur ou une expe prendrait un mois ...
Ce bordel ... dans un monde de recherche ou il faut dégainer de la publi rapidement c'est un vrai problème. Et c'est possiblement un frein majeur à l'IA. Il n'est pas certains que les investisseur apprécie que plus on se rapproche de la solution plus le temps d'attente se compte en année
- - - Mise à jour - - -
D'ailleurs on en parle assez peu en dehors des labo, mais il y a pas mal de chance que la présence d’être humain pousse artificiellement à une sélection génétique ultra-rapide qui entraîne certaine espèce vers de grande intelligence. Notamment les oiseaux urbain, qui ont de fréquents contacts avec les humains, mais également tout ce qui est rat chat et chien...
Je sais pas si certains d'entre vous ont déjà été en contact avec certaines espèces de chien, notamment les chien de berger genre border-colli.... c'est juste
Je veut dire, c'est limite si le chien parle pas quoi
Ça change juste la constante dans le grand O, le comportement asymptotique est le même. Avec N bidules tu encodes O(e^N) états, et non O(e^e^N) états.
Pourquoi pas ? Beaucoup de systèmes d'apprentissage sont basés sur des modèles d'environnements simplifiés qu'on peut simuler rapidement. Par exemple avec de la réalité virtuelle pour les robots. Ça permet de gagner pas mal de temps et de ressources, en s'assurant qu'avant de construire le robot et de le lâcher dans le monde physique il ne soit pas complètement débile.Et comme on ne sait pas simuler le monde pour faire de l'accéléré , ben on est cuit.
Donc on a un problème qui a priori demande une puissance de calcul "infinie", mais l'IA "apprend" comment à la fois couper cetaines branches et évaluer une position, pour le faire mieux que les humains .
C'est bin le choix des branches à couper/cosnerver qui est crucial.
Si je comprends bien que ce n'est pas révolutionnaire d'une point de vue théorie,je vois mal comment on peut dire que de telles IA ne peuvent pas révolutionner le marché du travail.
Parce que c'est bien beau de dire que c'est "que" de la puissance de calcul, mais quand elle est suffisemment bien utilisée pour résoudre des problèmes qu'on sait solubles,mais uniquement avec une puissance de calcul infinie, je vois pas trop la limite.
Pour l'apprentissage ca va peut être prendre x années incompressibles pour apprendre un truc tout bête, mais au final et à l'inverse d'humains qui doivent être instruits un par un en recommençant à chaque fois du début, on pourra répliquer tout ce qui aura été appris sur d'autres robots sans qu'ils doivent à leur tour tout refaire de 0 non?
Du coups en utilisant pleins de robots qui apprendront pleins de trucs en parallèle et qui échangeront directement le résultat de leur recherches entre eux, ca devrait aller de plus en plus vite, chaque solution trouvée dans chaque aspect étant susceptible d'enrichir le reste des champs de recherches explorés par croisement?
Avec des profs-robots spécialisés dans l'apprentissage d'autres robots.
La "Culture" humaine n'est rien d'autre qu'une accumulation de solutions diverses à des problèmes variés dans lesquelles on pioche directement sans refaire toute la démarche depuis 0, donc pourquoi on ne pourrait pas faire ingurgiter à grande vitesse une sorte de wikipedia spécial à un robot? Ca serait l'évolution logique après l'humain qui lui même se différencie des animaux par son utilisation optimisée de la culture.
Un peu comme ca:
https://medium.com/@Terrybroad/autoe...bbe#.6n3dcj433
Y a aussi Tay le bot de crosoft qui était devenu nazi à force de mimer ce qu'il lisait sur tweeter; ca montre qu'il est possible pour un bot de se construire un avis selon ce qu'il ingurgite.
Après il suffit d'avoir une base de donnée suffisamment grosse pour pondérer les extrêmes automatiquement sans qu'il y ai besoin de censurer son éducation, il fera le tri par simple logique.
Difficile en IA comportementale car on suppose justement qu'il y a pas mal de truc qu'on rate dans la vrai vie mais qui sont primordiaux pour le robot.
A cela tu ajoute que le principal avantage est de laisser le robot découvrir son propre corps (De modèle totalement inconnu de l’expérimentateur si on veut donc, c'est bien là le point important, et avec des pièces pouvant être imprécise) par l'action.
Et enfin tu rajouter par dessus tout ça que la plupart de nos robots se développent en interactions sociales, et voila tu es cuit...
Ces trois points même pas pris ensemble suffisent à griller toute simulation. Tu PEUT faire une simu et valider le concept de ton algo sur un robot simulé correctement en environnement simple et sans partenaire. Mais ça se pétera probablement la gueule quand tu le transférera sur le vrai robot, qui va devoir corriger les imperfections etc... car si on a construit des algo d'apprentissage en robotique à la base c'est bien parce que l'environnement reel est trop chaud à modéliser finement et à prédire pour y coller les algos d'IA "classique"... donc on tourne un peu en rond si on repart sur de la simu imparfaite ...
On gagnerais peut-etre un peu de temps, mais encore, ça reste à voir...
Scientifiquement c'est aussi peu utile puisque l’intérêt est d'observer le développement et comment il compense graduellement les imperfections et les situations nouvelles dans des environnements complexe non contrôlée. Aucun intérêt en simulation, la encore...
- - - Mise à jour - - -
Relis l'analyse initiale sur le marché du travail plus haut. Il n'y a rien à révolutionner parce que la plupart des métiers ne sont pas dans le "cas go" et que ceux qui y sont demanderais parfois un robot au sens mécanique du terme pour exécuter les actions. Sauf que l'homme coûtant moins cher dans bien des pays ... ce n'est déja pas la solution qui a été retenu pour l'automatisation simple...
D'ailleurs, a tu vu des annonces particulière de google qui utiliserait son archi dans la vrai vie pour des trucs sympa ? Bah non...
- - - Mise à jour - - -
Sur ce point tu a tout à fait raison. C'est une solution plus viable (et qu'on applique déjà dans une entreprise sœur de notre labo) que celle de Mogluglu en simulation. Il y a toujours le soucis des petites imperfections pour chaque robot mais on refait tourner un peu l'apprentissage pour chacun dans une "nursery robotique" à la sortie de la construction pour résoudre en partie le problème.
C'est probablement ce modèle là qui va être massivement retenu car il est validé comme fonctionnel industriellement.
une balle, un imp (Newstuff #491, Edge, Duke it out in Doom, John Romero, DoomeD again)
Canard zizique : q 4, c, d, c, g, n , t-s, l, d, s, r, t, d, s, c, jv, c, g, b, p, b, m, c, 8 b, a, a-g, b, BOF, BOJV, c, c, c, c, e, e 80, e b, é, e, f, f, f, h r, i, J, j, m-u, m, m s, n, o, p, p-r, p, r, r r, r, r p, s, s d, t, t
Canard lecture
L4IA de google pour le go consomme l'électricité d'une petite ville,je m'attends pas à ce que soit rentable tout de suite.
Mais je pense qu'au contraire si peu de jobs tombent à 100% dans le "cas go" ,je dirais que dans énormément de jobs plus de la moitié du temps de travail passe dans ce genre de taches.