J'en ai connu deux pour le moment, plutôt chères en effet mais 5 fois moinsTu parles de gens qui ont encore leur mobilité et leur tête et d'une maison de retraite à 5000€ par mois. C'est très loin de la réalité.
Lancement cette année d'une chaîne de Pizzeria autonome, ouverte 24/7
https://www.bfmtv.com/tech/ce-robot-...e-1479779.html
En france !
C'est un bon exemple que le go. Il n'a pas été résolu, contrairement à ce qu'on pense, par une IA plus "maligne" que celle déployé il y a des dizaines d'années de cela pour les échecs, mais juste par une astuce statistiques dont je ne détaillerais pas le point technique. Sinon c'est la même IA derrière. En clair il a été résolu par la brute force, et non par un changement de paradigme. En aucun cas l'IA déployé sur le go ne pense comme un humain qui joue au go, par exemple.
C'est pas tout à fait vrai, ce serait long a expliquer, d'autant plus que j'en ai déjà fait des pavés sur le topic de l'intelligence artificielle. Il y a deux choses : les réseaux de neurones comme outils d'association. Qui existent depuis longtemps et ont simplement était limité pendant un temps par un soucis mathématique (preuve de convergence sur certains type de réseaux) et surtout par la puissance des PC. Aujourd'hui les deux limitations ont sauté. Mais le réseau en lui même n'a pas trop évolué, et c'est cet outil : ancien, limité, qu'on pousse jusque dans ces retranchements, qui fait parler de lui en ce moment. En aucun cas il ne s'agit d'une découverte scientifique de ouf qui a été faites, mais bien d'une évolution matérielle "bourrines", avec toutes les limites que ça implique.
Cet outil est notamment limité par le fait qu'il ne fasse que construire, en réalité, un équivalent automatique des "abaques" que les ingénieurs faisait à la main auparavant sur les problèmes qu'ils ne comprenais pas. C'est super pratique, mais on est aussi loin de la compréhension de l'humain et de la reproduction d’être intelligent avec cet outil qu’auparavant. Tant il n'a aucun rapport.
L'autre outil déployé en ce moment utilise une combinaison de ce premier et d'apprentissage par renforcement type Qlearning, c'est efficace pour trouver un chemin optimal à une tache donnée selon certains critères, mais on savait déjà le faire auparavant, le temps de convergence limite la chose et la compréhension de l'humain et l'IA "type humain" n'avance pas non plus...
Dans un second temps on retrouve des travaux plus intéressant sur les réseaux de neurones biologiquement plausible appliqué à la robotique, et là il y a de l'avancement théorique et là ça va probablement dans la bonne direction. Malheureusement ce n'est pas ces travaux que le grand public regarde, et ce n'est pas celui là que tu cite quand tu parle de réseaux plus puissant, et ce n'est pas non plus les domaines de recherches ou l'argent arrive le plus, de facto. Même si avec peu de moyens c'est probablement là ou j'ai vu les trucs les plus fous en robotique.
En résumé : oui le domaine des réseaux de neurones et de l'IA avance, mais sa branche la plus féconde pour le futur n'est pas celle qui fait la une des journaux, ni celle qui est la plus financée. Et donc l'avancement exceptionnel que tu constate est plutôt trompeuse car c'est la montagne de thune tombée sur des algos assez vieux qui a déclenché toute cette com... et ça n'avance pas le domaine le plus intéressant à très long terme pour autant.
Ce que tu dis n'est pas faux, mais certains critères restent prédictible malgré tout. Le pétrole s'épuise quand même, même si ils raclent les fonds de tiroir, la simple mathématique et les limites du monde physique l'impose. Donc les mecs se sont peut-être gouré sur le temps qu'il faudrait, mais pas sur la fin. Les machines s'améliorent certes pour compenser, mais l'être humain croit exponentiellement en nombre et le résultat c'est une consommation énergiquement en augmentation chaque année. Contrairement à ce que tu pense, certaines ressources SONT critiques, et on n'en trouve plus tant que ça. Notamment certaines terres rares et métaux, au point de déclencher des tensions internationales à la limite de la guerre froide.
Si l'être humain était en nombre constant sans trop d'évolution sur la terre, je te dirais que l'évolution futur est relativement optimiste vu que le développement du recyclage compensera en partie... sauf qu'en pratique, quand tu parle de comparer avec 150 ans, justement, comparons, il y a 150 ans nous étions 8 fois moins sur la terre, et les prédictions les plus pessimistes se sont aussi gouré sur ce que ça deviendrais 100 ans plus tard .
Maintenant on est rentré dans une histoire de sauterelles, et le constat fait plutôt l'unanimité scientifique. On est laaaaaaaaargement trop pour les ressources existantes, notamment agricoles, forestière et énergétique etc... et les petits analystes gouvernementaux s'amusent désormais à jouer à "qui prédira le mieux la date de la grande famine mondiale" tant il n'y a plus trop de débat pour savoir si elle va avoir lieu
Alors oui c'est pessimistes, et il y aura probablement beaucoup d'évolution d'ici là, mais voila c'est comme ça et dors et déjà on observa largement les prix répondre à cette réalité. Depuis 40 ans le prix de quasiment tout les types d’énergie augmente partout, ce qui est inédit. Le prix des terres rares subit des envolés et pour la première fois le prix de certaines technologie augmente également.
Après oui, c'est difficile de prédire le futur, notamment la temporalité de quand arrivera quoi, mais certaines choses restent simples : nombre d'humain en hausse, terres agricoles en cours de désertification un peu partout, 6eme extinctions de masse d’espèce (dont pas mal forme un cycle nourrissant les humains), ressources fossiles au stade "on presse le sable pour en récupérer". Il n'y a pas 36 évolutions possible à long termes à cette situation ... Pas mal de scientifique on déjà signalé qu'hormis un grand sursaut de transition écologique et une baisse drastique organisée (pour éviter la guerre) de la population via des limitations sur les naissances, il y a peu de route de sortie ...
Une fois remis dans ce contexte, l'évolution de certaines technologie, de l’intérêt que les gens y verront etc... devient assez prédictible.
Enfin quand tu dit qu'on ne peut pas vraiment prédire à 150 ans, c'est pas tout à fait vrai, pas mal de scientifique assez ancien ont prédis l'évolution actuelle de la société, pas mal d'auteur de SF également, en réalité c'est plutôt difficile de prédire l'évolution à court et moyens terme sur l'IA. Tant que les matériaux sont abordable certains peuvent faire des percées par "l'effet hype" et réussir à mettre des robots dans certaines discipline, temporairement.
Enfin de enfin, je n'ai jamais dit que l'IA n’évoluerais pas pour permettre techniquement ce que tu dit, simplement que les matériaux ça ne s'invente pas, donc ce sera cher de mettre des robots partout, et que surtout un nombre croissant d'être humain sur terre rendront l’être humain "peu cher" et donc toutes les applications ou l'IA remplacerait l'humain seront assez peu intéressante du point de vue des industriels, stou. Sauf à voir le nombre d'humain baisser significativement d'un coups (grande guerre ou que sais-je), il y a peu de chance pour que la boulangère soit remplacé par un robot avec succès dans les 100 prochaines années. (mais il y aura sans doute des essais du genre dans le court et moyens termes)
Et c'est bien parce que je tente de ne pas être le nez dans le guidon de ma discipline que je formule cet avis en tentant de prendre en compte les évolutions économiques et sociales pour jauger de l'évolution de ma discipline. Si je ne prenais que l'évolution de ma discipline je te dirais que les premiers robots animaux tu en verra dans moins de 50 ans (notamment au niveau des jouets pour enfants), et que l'automatisation de tout arriverais très très tôt avec des robots humanoides à plus ou moins long termes.
Le soucis c'est que l'automatisation de tout devrait déjà avoir lieu dans ce cas, et que le fait qu'elle n'est pas lieu est surtout due à des soucis qui n'ont rien de technologique ^^
L'avis inverse est tout à fait possible hein, mais je ne vois pas de véritable argument scientifique et technique suffisamment fort pour l'appuyer (pour le moment), la plupart des temps ce sont des croyances, ou plutôt des prières (tout le monde va se faire des bisous et aller dans l'espace, l'homme va s'auto-réguler, Une nouvelle technologie magique va changer toute la donne, etc etc...)
Ben tient, retient bien cet exemple, on en reparle dans quelques années pour voir si je me plante
Dernière modification par Nilsou ; 04/07/2018 à 15h48.
Franchement? La façon dont Alpha Zero joue au go est assez proche de la façon humaine. L'humain va compenser sa puissance de calcul plus faible par des heuristiques explicites et du découpage en morceaux, mais le fond reste identique :C'est un bon exemple que le go. Il n'a pas été résolu, contrairement à ce qu'on pense, par une IA plus "maligne" que celle déployé il y a des dizaines d'années de cela pour les échecs, mais juste par une astuce statistiques dont je ne détaillerais pas le point technique. Sinon c'est la même IA derrière. En clair il a été résolu par la brute force, et non par un changement de paradigme. En aucun cas l'IA déployé sur le go ne pense comme un humain qui joue au go, par exemple.
On explore l'arbre des coups avec les coups candidats données par l'"intuition", et on évalue le résultat (principalement par l'"intuition"). L'intuition étant remplacée par le réseau pour l'IA.
L'entrainement est par contre assez différent.
A noter : même sans parcours d'arbre, ces bots sont déjà forts, largement au niveau d'un joueur de club (mais avec de grosses failles dues à l’absence de parcours d'arbre).
Alors oui, l'entrainement du réseau de neurone, c'est statistique, mais c'est aussi le cas pour l'intuition chez l'humain.
Pour les problèmes de convergences tu parles j'imagine du gradient qui stagne ou qui explose, et les changements de fonction de coût de logistique vers relu ou ce genre de chose?
Parce que justement j'ai l'impression que dans le fond on ne comprend toujours pas exactement ce qu'il se passe, autant dans le nombre de couches de neurones à utilisé, que dans l'initialisation de ces couches, et même dans les connections entre elles. J'ai plutôt l'impression qu'on est dans l'exploration sans avoir de réelle base théoriques solides, et du coup potentiellement peut être des améliorations à avoir dans les prochaines années.
"Les faits sont têtus."
Sinon le Parlement Européen vient de refuser de valider la directive Copyright, qui contient le fameux article 13 qui a fait couler tant d'encre. Une nouvelle version du texte devra être présentée pour septembre.
EDIT : faillait que j'oublie les deux mots les plus importants de ma phrase.
Merci AttilaLeHein.
Et pour compléter les enjeux de pareille disposition juridique, un lien de chez developpez.com libre encore de droit.
https://www.developpez.com/actu/2068...-propositions/
CPC n'est pas tenu responsable de ce lien. Herman Speed est responsable du lien : Son adresse IP a été enregistrée et les données appartenant à des ayants droits seront supprimées automatiquement.
Encore un élément à charge pour ceux qui disent que la Commission Européenne est un nid de lobbyistes. C'est usant.
Alors que le règlement européen sur la protections des données des utilisateurs est une chose utile et intelligente.
C'est sujet à interprétation, mais je trouve que ce n'est pas vraiment le cas, ici alpha go coupe les branches avec sa partie "intuition" pour permettre aux réseaux de tester plus de possibilités, de manière à battre l'explosion combinatoire, mais le but reste, comme pour les échecs, d'explorer la plus grande profondeurs. Aucun humain ne teste autant de coups que l'alpha go, bien loin de là. Alpha go reste dans un déroulage d'arbre, et si on déroule peut-être une partie de l'arbre, c'est pas à ces profondeurs ...
De plus le go a haut niveau ne se réfléchit pas comme les échecs, et donc pas de cette manière, d'après ce que j'ai compris de joueurs "pro".
Pour les développements futurs techniques et leurs implications : Ça dépends de quoi on parle, pour le type d'IA que je nommerais "on empile des couches comme des bourrins" tu a une partie ou une preuve a été donné qui a enfin permis à l'époque de faire une rétro-propagation du gradient de l’erreur. Donc tu a eu une véritable percée théorique à un moment. Et ensuite ils ont essayé d'améliorer le concept (pour gagner en temps de convergence ou en puissance de calcul, principalement) mais c'est à peu prés tout. De mémoire il me semble qu'au bout d'un très grand nombre de couche ils ne savent pas trop si c'est encore valide leurs preuves actuelles, mais ça ne les empêchent pas d'y aller en mode pragmatique.
Il est "normal" qu'ils ne comprennent pas ce qui se passe, cet outil est sorti de nul part, les cerveaux réels ne sont pas conçu comme un empilage de milliers de couche. Un estimateur qu'on considère comme très bon comme le cervelet est un énorme calculateur parallèle mais de seulement 3/4 couches (dont deux seulement apprenne à priori) et c'est presque le max dans le cerveau ... Le cerveau est bien plus souvent un empilage de seulement quelques couches, mais grosses, qui se renvoient des infos entres elles et qui fonctionnent bien souvent de manière radicalement différente d'une couche à l'autre, avec donc une spécialisation des taches. A l'inverses des réseaux multicouches.
Les mecs n'ayant pas de modèle réel ils utilisent un outils mathématique un peu au pif, c'est évident. Il n'est même pas dit que leur problème admette une règle général optimale qui leur permettrait de déduire une organisation optimale de leur réseau... Mais de toute façon en vrai il y a également peu de chose à améliorer sur cette branche, les résultats de l'utilisation simple de ces réseaux (reconnaissance de ce qu'on sait être reconnaissable) frisent les 100%, hormis une bataille de pouillème c'est devenu une quête d'optimisation mais c'est à peu prés tout ... quant aux résultats n’atteignant pas ces 100%, bien souvent on pense que c'est la limite des données en entrée. Le tout est certainement encore améliorable et capable de donner quelques surprise, mais on atteint quand même un bon plafond.
Mais il existe un autre type d'IA employant des réseaux de neurones : l'original, qui consiste à regarder comment ça s'organise chez l’être humain pour tenter de le comprendre, d'en garder tout le suc, tout l'important, pour reproduire le résultat en partie. On parle alors d'IA bioinspirée, connectiviste, en gros.
Là il y a pas mal d'avancement et on ne stagne pas contrairement au premier paradigme. Mais c'est évidemment bien plus complexe. L’être humain (et l'animal) est une délicate alchimie entre partie de cerveaux "ad-hoc" qui ne sont là que parce que la génétique les a conçu au poil prés pour fonctionner dans cette situation, de parties hautement adaptatives, de parties adaptatives surtout dans l'enfance et le tout savamment mélangé avec un corps bien conçu qui simplifie les problèmes à résoudre au max. (voir la différence entre asimo, le robot qui vient de l'IA classique, et les marcheurs de BostonDynamics, qui viennent plutôt de cette branche, qui n'ont aucune IA mais qui marche tout de même, ou voir encore les "marcheurs passifs"). Le tout forme un ensemble ou le concept même de "preuve théorique" tant chérie par les matheux de la première branche est bien souvent impossible . C'est donc par essai erreur et déduction qu'on procede.
Ha et on s'interdit évidemment l'emploi de réseau à multiples couches de la première branche, non parce qu'on ne les aiment pas, mais parce que ça n'existe tout simplement pas dans le cerveau
Perso je mise sur le second pour les chances de développement de l'IA de "contrôle robotique" du futur. Pour le premier je pense qu'on a déjà peu ou prou "l'IA de reconnaissance" parfaite capable de résoudre quasiment toute tache de ce type disposant des données adéquate. Il y a évidemment des pistes d'amélioration (mieux théoriser le fonctionnement interne et la convergence, améliorer les perfs, le temps de convergence etc...) , mais plus forcement de grande découverte à faire qui changerais fondamentalement l'utilisation qu'on en fera ^^.
Par contre je ne suis pas sur que l'IA de reconnaissance multi-couche soit adapté à la robotique embarqué, sa nature rends son déploiement en archi embarque couteux, son résultat est meilleur, mais très similaire à ce qu'on obtient avec un réseau categorisateurs en une couche et un réseau associateur en une couche derrière. (donc deux couches). Les performances de reconnaissance du second étant bien suffisante en robotique car on sait qu'elles sont suffisante pour l’être humain pour contrôler son corps, donc ça nous va. Surtout que les robots peuvent se créer leur propre entrée de donnée, si un visage donne une reconnaissance toute pourrie, rien n’empêche de s'en rapprocher et de multiplier les angles jusqu'a atteindre le 100% tout rond , donc la reconnaissance n'est pas un vrai problème sur un robot capable d'action sur son environnement et de facto les performance de l'algo la permettant ne sont pas critique et ses améliorations théorique de facto peu importante pour le roboticien.
C'est quand même tellement un nid à lobbyiste que c'est l'endroit du monde ou il y en a le plus par représentant du peuple et que dans le cadre des lois sur l'agriculture ils ont du interdire l’accès des locaux aux représentants de Bayer, tant ça en devenait ridicule ...
faut pas non plus se voiler la face ... quand les principaux intéressés, les députés, sont les premiers à le dénoncer en général, c'est difficile à remettre en cause ... Même dans des débats entre un type sortant cet argument et un adversaire du camps des "politiques n'ayant pas trop de soucis avec les lobbyistes à priori" j'ai rarement entendu le second répliquer "meuuu non c'est tout à fait faux" La plupart du temps l'adversaire politique admet également cette réalité et essaiera de s'en sortir autrement dans la joute. Ça ne fait donc même pas vraiment débat chez ceux qui auraient tout intérêt à en débattre ...
Dernière modification par Nilsou ; 06/07/2018 à 02h16.
L'enjeu c'est que les boites profitant des droits d'auteur sont toutes tristes parce qu'elles se sont pas sorti les doigts du cul plus tôt pour s'adapter à la démocratisation des supports numérique et du streamin, et maintenant ils viennent chialer que Google (via Youtube), Amazon et cie leur vole injustement de l'argent et tuent la création artistique, et veulent donc que l'UE impose un système où les GAFA et cie devront leur payer la dîme, et tant qu'à faire faire peser la responsabilité du contenu en ligne sur l'hébergeur et non plus sur celui qui l'a mis en ligne, ce qui requérait un système de contrôle et filtrage que même la Chine ne sait pas faire (on en reparle dans quelques années), mais les ayant droits s'en foutent, car ça leur donnera carte blanche pour faire cracher au bassinet les hébergeurs autant de fois qu'ils veulent.
Là où je me dis que le mec a raison, c'est quand n'hésite à poster l'article sur CPC parce que trop politique : https://www.bing.com/cr?IG=D543C1150...p=DevEx,5027.1
C'est la même chose aux US hein, c'est pas spécifique à l'UE, la fin de la neutralité du net aux US repose sur le même principe (faire payer aux diffuseurs majeur de contenu). Néanmoins je n’achète pas forcement le discours sur "les pauvres GAFA qui ont été précurseur et dont tout le monde veut voler les sousous"
Faut pas non plus être idyllique vis à vis des GAFA, la plupart des lois qui les embêtent vraiment se ramassent tout pleins de bon gros bâton dans les roues, et leurs puissances économiques est telle qu'il est plus probable qu'il s'en tirent via des accords à haut niveau avec les ayant droits (Les GAFA ont un gros pouvoir sur eux : ne serais-ce qu'en menaçant de retirer le contenu indexé).
Les GAFA, bien au contraire, ont très vite profité de ces accords (exemple) et ont mêmes contribué, pour certains d’entre eux, à appuyer ces dernières lois au niveau US et UE (ce qui est surprenant au premier abord vu qu'on pourrait penser qu'ils en sont les premières victimes, mais pas tant que ça une fois l'analyse faites).
En clair : à la fin il est bien plus probable que ces lois polarisent au contraire le contenu et les sousous autour des GAFA, qui ont les moyens de faire des accords, de tirer la couverture à eux à long terme
etc etc... et qu'elle embête surtout les petits diffuseurs et indexeurs de contenu.
Je ne me fait guère de soucis pour les soussous des GAFA dans ces affaires perso ... J'ai la nette impression qu'ils ont bien les moyens d'être les grands gagnants de l'histoire si ils se plient aux quelques exigences formulés par les loulou qui ont pondus ces lois. Ce qu'ils se sont empressé de faire en pratique une fois les belles déclarations consommées.
Le raisonnement va loin, sortir un cas de 2010 pour parler d'une loi qui est passée avec Trump en 2017 pour ultimement parler d'une directive européenne de 2018.
Simplement Google a changé d'avis (et cet accord avait été annulé), l'infamous patron d'orange change d'avis tous les 2 ans sur la neutralité
Tous le monde sauf les ISP ont un interêt à la neutralité du net, mais dès que les lois changent, les entreprises sont obligées de s'adapter.
Ben justement, le fait que ce soit 2010 montre que bien avant que les lois soit passé au forceps ... ils envisageaient déjà d'exploiter ce filon. Donc que ce ne sont pas vraiment du tout des chevaliers blancs ...
Ensuite le point : "Tous le monde sauf les ISP ont un intérêt à la neutralité du net, mais dès que les lois changent, les entreprises sont obligées de s'adapter. " (les pauvres entreprises qui n'ont aucun pouvoir du tout du tout et qui n’essaie pas du tout du tout de changer ces lois tout les jours via des centaines de lobbyistes... )
c'est bien le problème ici : la capacité des entreprises à s'adapter dans ces logiques d'accord dépendra du poids de l'entreprise. Il est évident qu'avec leur puissance une grosse multinationale comme facebook ou google n'aura pas de mal à trouver des accords arrangeant pour ne pas être impacté par ces changements (l'exemple de 2010 montre que c'est clairement dans leur corde). A l'inverse, les petits diffuseurs vont prendre cher dans la pomme, n'ayant aucun poids dans la balance.
On retrouve ce raisonnement un peu partout hein (quel que soit l'orientation politique des analystes), j'en suis pas l'inventeur :
voir par exemple la conclusion ici :
https://www.lesechos.fr/14/12/2017/l...profil-bas.htm
Ou le chapitre "protection de leur position dominante" ici :
http://www.europe1.fr/economie/neutr...erdant-3521822
Le résultat prévu par à peu prés tout le monde dans l'univers économique c'est la prolifération d'entrave dans les pâtes des concurrents aux gafa et des fournisseurs de contenu et une concentration logique des activités dans les mains des gafa (encore plus que maintenant).
D’où la conclusion : les gafa ont eu intérêt à cet abrogation. (et certains, bien conscient de ce fait, ont fait du lobbying pour). Alors certes, pour des raisons politiques et de principes, certains l'ont également défendu à la toute fin. Mais le résultat leur ira aussi ... à se demander si la défense n'était là que pour parader
l'année dernière il y avais eu pas mal d'analyse des activités des lobbyiste aux USA pour montrer que c’était loin de n’être que les ISP qui avaient poussé dans ce sens, et qu'assez étonnement on retrouvait des lobbyiste affilié à certains gafa qui à coté de ça se posait en victime
Le raisonnement, sinon, est assez extractible ailleurs et sur d'autres sujet impliquant les gafa. La situation est peu ou prou la même en UE, et les lobbyiste aussi. Si une loi de ce genre passe en UE il y a fort à parier que les GAFA auront de quoi faire des accords à leurs avantages, quand les autres "petit" devront juste sortir le gros chéquier régulièrement... la conclusion sera alors à peu prés la même.
Disons plutôt qu'ils ont inventé un nouveau coche et que du point de vue de certains ça devient à terme un abus de position dominantes
C'est compréhensible après, on ne peut pas vanter la concurrence partout en espérant qu'en cas de monopole les frustrés d'en dessous ne se mettent pas à gueuler.
Du point de vue du système auquel ils appartiennent ils sont plutôt dans leur bon droit vis à vis de ça. C'est un système qui est normalement censé tirer dans les pâtes des monopoles, et qui ne le fait pas tant que ça. Donc ça fait grincer des dents.
Je n'aime pas du tout ce système hein, mais dans les règles du jeu auquel ils pensent jouer ils n'ont pas forcement tort.
Pour le monopole, c'est surtout que c'est compliqué, dans le monde du numérique, où les monopoles se font et se défont très vite par rapport à avant.
Après, c'est sûr que certaines positions de Google sont définitivement dominantes au sens où on l'entendait auparavant.
Les monopoles de Google sont pas si malsains non plus d'un point de vue économique, ils utilisent des standards ouverts et font participer des constructeurs et développeurs tiers. Donc ils partagent le gâteau d'une certaine façon.
Y'a aussi certains contenus (notamment culturels) qui n'ont aucune vocation à être mis en concurrence, donc je préfère un gros monopole de Netflix qu'avoir 12 abonnements similaires.
En fait je me corrige, il peut y avoir 400 clones de Netflix, ce qui devrait être interdit, c'est les exclus, ça va justement vers une concurrence plus pure. Ainsi tu peux t'abonner à n'importe quel plate forme, t'aura toujours le même contenu et ça se démarque sur les fonctionnalités (comme pour la musique)
En bonus la facilité de migrer d'une plate forme à une autre
Moi j'ai rien contre les monopoles dans mon principe perso. A partir du moment ou ils sont gérés par une autorité publique (un état), mondiale (l'ONU, une ONG) ou par une fondation à but non lucratif. La ça me va, ça leur évite de se casser la gueule quand le patron à décidé que "bon OK je vend le truc pour me faire ma retraite" (vous avez pensez à ce que le monopole de steam, que j’apprécie, présente comme risque de malade ... que je n'apprécie guère ) ou quand une bulle d'actionnaire explose.
Mais dans un systeme purement capitaliste faut pas déconner, le monopole est un risque affreux. Eux même le savent, pas pour rien qu'après la crise de 29 des garde-fou très solide et très puissant avaient été mis en place, tel que l'anti-trust américain ou les instances mondiales commerciales (FMI et OMC avait cette vocation à la base) . Force est de constater que ces garde fous ne sont plus que de grosses blague jouant même parfois contre leur propre camps ...
Du coups il est tout à fait logique que dans un système capitaliste libéral ou sont censé exister des garde fous très puissant, les entreprises qui constatent le monopole d'un de leur pair réagissent avec aigreur. C'est logique de leur point de vue. (ça ne fait pas d'eux des parangon de la vertu pour autant, à la place de google ils feraient surement la même, mais ça sert d'indicateur que quelque chose déconne un peu.)
De plus les monopoles ont pour risque infiniment plus pervers de faire subir à tous leur dérive idéologique sans que la masse ne s'en aperçoivent (algo de facebook modifié pour aller dans le sens du conservatisme US, algo de google idéologiquement orienté depuis 2017)
Si ça ne marche toujours pas... Prend un plus gros marteau !
Envoyé par Daedaal
Pour info la première loi anti trust c'est 1890 et ça concernait le pétrole, rien à voir avec la crise de 29 (financière).
Hein ?De plus les monopoles ont pour risque infiniment plus pervers de faire subir à tous leur dérive idéologique sans que la masse ne s'en aperçoivent (algo de facebook modifié pour aller dans le sens du conservatisme US, algo de google idéologiquement orienté depuis 2017)
Alors pour Facebook si tu fais allusion au fait de ne pas vouloir montrer des tétons, c'est plutôt une volonté de ne pas choquer 70 % de leurs utilisateurs.
Si tu fais référence au scandale Cambridge Analytica, tu te trompe également, ce qu'on reproche a Facebook est (en gros) d'avoir laissé trop de puissance aux annonceurs, et étrangement c'est a droite qu'ils ont été suffisamment malins pour comprendre qu'on pouvait s'en servir pour capter des données et s'en servir pour bien cibler des gens qui penchaient à droite sur le terrain.
s'ajoute a ça les fake news et les russes, qui sont des contenus viraux par essence et donc on été favorisés par la plate forme. parce qu'ils faisaient du clic, pas pour leur contenu
Enfin Zuck est démocrate et envisage de se présenter, à moins d'adhérer à la théorie du complot selon laquelle ils aurait voulu foutre la merde en favorisant Trump pour arriver en sauveur (trèèèès far fetched), on délire.
Enfin pour Google chacun y voit ce qu'il veut dans l'algorithme, perso Youtube est capable de me proposer du Soral comme du Usul donc je sais pas de quel côté il est orienté
C'est l'éternel débat dès qu'un contenu devient trop dense : il faut le classer. Google essaye de te proposer sur une même page ce que tu peux apprécier, avec une marge de manoeuvre pour la sérendipité.
Quand je vais a la Fnac, je ne me plains pas des livres sur les présentoirs, alors que c'est le même principe. Et quand je demande à un vendeur ce qui pourrait me plaire alors que je viens de lire un Chomsky, je m'attends a ce qu'il me propose des lectures de gauches.
En bref, je pense que les gens attendent trop de ces sites, on veut qu'ils soient à la fois neutres, personnalisés, ne collectent pas nos données, pertinents ... On peut pas tout avoir.
Si vous voulez un moteur de recherche plat, utilisez Qwant (même le maire qui a marié ma soeur en fait la promotion ), mais cassez pas les couilles des autres
Perso, je ne l'utilise que ponctuellement mais quand je vois ce qu'il me propose sur mon malinphone ( ), sa côte a très fortement augmenté dans le sens ou justement il est "neutre" idéologiquement (comprendre, il me propose des sites totalement et viscéralement anti-américains à des niveaux confinant à la xénophobie voire au racisme. Je me demande d'ou il arrive à trouver cela soit dit en passant. )
C'est probable que ça vienne de toi, après sur actualité par exemple tu peux dire "je ne veux plus voir d'articles a propos de ce sujet" "ou de cette source".
ça me permet d'éliminer les news venant de site people putaclic et les turpitudes quotidienne d'Hanouna