Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 2 sur 43 PremièrePremière 1234567891012 ... DernièreDernière
Affichage des résultats 31 à 60 sur 1288
  1. #31
    Citation Envoyé par Kinderpinguy Voir le message
    La vache! je suis un gros lurker du forum cpc , car mes troubles dys m'empêche d'intervenir sous peine d'être moqué sur la qualité de mon orthographe ou mon manque de clarté (et ceux même aprés moult re lecture et un grand nombre pénible, d'heures passé sur un correcteur) Mais la c'est plus fort que moi!

    C'était hyper intéressant (même si j'ai pas tout bien saisi surtout sur le pourquoi de l'ia marche pas sur star craft avec le fog of war) J'ai bien vu le message de Khan mais, je me permet quand même plussoyer "a donf" l'idée d'un topic ou d'un article dans cpc (enfin n'importe quoi mais j'en veux plus ! ) et de poser une question (pas super brillante certes mais bon) :

    Qu'est ce que la communauté scientifique travaillant concrètement dans l'ia pense des déclarations type Hawking et Gates ? C'est pas un peu trop joué a nostradmus que de dire qu'on fonce vers "la fin de l'humanité" alors que comme tu sembles le dire de ce que tu décris comme "la branche n°2" en est encore à ses balbutiement et que pas mal de chose reste a découvrir pour ne pas dire inventer?

    Encore Merci pour ce post et désolé de l'orthographe et de poussé au débordement mais j'ai vraiment pas pu résisté.
    Si je ne dis pas n'importe quoi, les paroles de Hawking parle de l'objectif final de l'IA que les scientifiques veulent développer, a savoir une forme de vie comme nous en grosses, très grosses lignes. SI ça arrive, là on est mal.

    Dans les 2 derniers CPC( à vérifier, je ne sais plus lequel), une news expliquait que la communauté scientifique voulait limité le développement IA et tentait de bloqué à un point sûr(un point où l'IA ne se retournerait pas contre nous) l'IA. Certains scientifiques en plus de Hawkings ont pris conscience de la chose.

  2. #32
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Wait But Why a fait un excellent post sur le sujet.
    Barba non facit philosophum.

  3. #33
    Je répond pour Hawking, comme c'est HS je met en spoiler 2, ça raccourcis :
    Spoiler Alert!
    Pour Hawking, on est beaucoup à penser que ce mec ne fais plus que ce faire mousser. Comme beaucoup de "Haut" scientifique moderne, il s'est fait happer par les fluteau de la com à outrance. (bouquins, émissions, j'en passe). L'IA n'est pas sont domaine et ses déclarations n'apportent rien. (Pas plus que le film Terminator, et bien moins qu'Asimov.) Je suis un poil méchant mais de notre point de vue, niveau réflexion sur les dangers de développements des IA le mec est complétement à la ramasse et surtout 70 ans en retard ...
    Dire que ces technologies sont potentiellement dangereuses, ça va on le sait, depuis, wouuuuu, perpet. Sur ce point, c'est comme si il venait faire un grand discours comme quoi les bombes atomiques sont dangereuses, ce serrait juste -> ... car ça n'apporte rien ... c'est un fait acquis. Hormis pour se faire mousser évidemment.

    En quelques mots je vais vous expliquer le non-sens de ses déclarations, et pourquoi elle nous font bien rires :

    Hawkings et les scientifiques qui ont suivis (dont 95% ne bosse pas du tout dans l'IA) ont proposés comme solution, comme tu dit, de limiter le développement des IA...
    Ok, bon d'abord sur la forme c'est pas très original hein, tout notre domaine est basé sur Asimov et tout chercheur en IA à les fameuses "3 lois" notées dans un coin de sa thèse, pour référence ^^. Donc la encore, ça n'apporte rien de proposer en fanfare cette solution.
    Surtout que ...... ce n'en est pas une, du tout. Asimov, toujours, a bien montré qu'en postulant des lois limitantes qui viendrais faire un carcan autour d'une IA on arrive a des dizaines de cas foireux. Et ces cas décris sont ... crédible du point de vue de la communauté scientifiques. Même si on pouvais limiter une IA, ce serais donc potentiellement foireux. Sans parler du fait que si cette IA dangereuse fantasmée a une certaines conscience d'elle même il n'en faut pas plus pour la braquer contre l'humanité .

    Donc jusqu'ici on vois déjà que c'est un poil idiot, comme ça, sans même rentrer dans le domaine "sérieux" de l'IA. Juste avec la réflexion déjà mené depuis 60 ans sur le sujet.
    Mais il y a pire, et c'est là qu'on rigole bien. Il n'y a actuellement aucun moyens de limiter une IA développementale et il n'y en aura probablement jamais.

    Je m'explique : une IA comme nous la concevons se développe en explorant, en faisant des erreurs et en testant. Évidemment vous pouvez limiter sa "puissance de calcul", son nombres de neurones ou tout autres de ses composantes. Mais même le cerveau d'un poisson teubé peut être dangereux si on lui donne les outils pour.
    Résultat : c'est surtout ce qu'on donne comme moyens d'agir à "l'IA" qui la rend dangereuse ou non... comme pour ... l'homme hein .

    Quant à la limiter par des "lois" ce n'est simplement pas possible. Ça ne marche juste pas comme ça. On ne peut pas, avec un réseau de neurone, définir une loi en dur "tu ne tuera point". Ce n'est simplement pas possible.
    Une IA très intelligente devra probablement être ... ben éduqué quoi... petit à petit en faisant comprendre, en punissant au besoin, comme un enfant. Mais qu'elle soit très intelligente ou non ne change rien à son potentiel de dangerosité. Limiter son intelligence n'a donc aucun sens. Et comme par construction même on ne peut pas limiter ses "choix" (On ne peut pas faire de lois à la Asimov donc) ben ... La brider de quelques manière que ce soit n'a donc vraiment, vraiment, aucun sens.

    Voila, je pense qu'avec ce blabla vous avez les outils pour comprendre pourquoi les déclarations de Hawkings sont ... complétement à coté de la plaque à la fois dans l'identification du problème. (Aucun apport par rapport aux 70 dernières années) et dans les solutions proposés (pas nouvelles, tout stagiaire dans le domaine se rendrais compte immédiatement que c'est à la fois dénué de sens et inapplicable).

    J'irais même au delà quant à l'identification du problème posé : Si on imagine une IA vraiment oufzor, disons, niveau humain très intelligent... quelles en sont les applications néfastes possible ? Ben globalement elle ne peut pas "pirater l'internet" façon skynet. C'est impossible (trop distribué, trop de "corps" différents, trop de protocole différent, une IA c'est gros et bien plus simple à "stopper" qu'un simple virus de quelques lignes qui vise un système précis etc...) et tout ce qui reste c'est le contrôle de robot militaire.
    Sauf que là il y a un super blabla d'un général français qui disais à juste titre que globalement lui ça ne l’intéresse pas car ... ben un humain sera toujours plus fiable et moins cher, pourquoi se faire chier, les drones ça marche bien... il préfère des IA de support que des IA de robots killer car elles seraient de toute manière, bah au niveau d'un homme. Peut être plus réactive etc... mais la "menace" n'est pas bien plus élevé que pour n'importe quelle armée standard... (surtout que les pays qui auront les moyens de se payer des robots de ouf, ben ce sont déjà des grandes puissances, alors bon).
    Résumé des opérations : il y a bien peu de moyens crédible de pondre une IA "intelligente", "malveillante" et qui en plus aurais accès à du matériel suffisant pour être véritablement une menace capable d'outrepasser un support humain. (faudrait que toute les usines soit contrôlé par la même IA ... , toute la chaine de support logistique etc... aucune chance que ça arrive un jour ... )

    Enfin, même dans un cas méga fantasmé où une IA deviendrais dieu, quelle est son intérêt à tuer l’être humain? si vous réfléchissez vous vous rendrez vite compte que la plupart des réponses à cette questions ne tienne pas debout. (la plupart des bouquins passent d'ailleurs sur le problème).

    Voila, je pense que ça achève, si besoin était, la crédibilité de l'intervention d'Hawking, qui à toute étape est complétement foireuse. C'est juste du Show à l’américaine, ne vous laissez pas avoir par ce genre de truc. Si il parle de quantique ou de physique théorique vous pouvez l'écouter, mais pour tout autre sujet c'est comme les frères Bogdanov qui écrivent un bouquin sur ... Dieu ... c'est ce qu'on appelle un "argumentum ad potentiam" ou "argument d'autorité", leur domaine n'étant pas la théologie ils n"ont pas une plus forte crédibilité dans ce qu'ils disent sur le bon dieu, contrairement à ce qu'ils vendent. Ben idem pour Hawking et l'IA.


    Bon sinon je veut bien un topic IA, mais je laisse le soin aux canards qui veulent en parler de le créer ^^.

  4. #34
    Citation Envoyé par Nilsou Voir le message

    [...] la crédibilité de l'intervention d'Hawking, qui à toute étape est complétement foireuse. [...] leur domaine n'étant pas la théologie ils n"ont pas une plus forte crédibilité dans ce qu'ils disent sur le bon dieu, contrairement à ce qu'ils vendent. Ben idem pour Hawking et l'IA.


    Bon sinon je veut bien un topic IA, mais je laisse le soin aux canards qui veulent en parler de le créer ^^.

    Merci beaucoup ! J'avoue que c'est exactement ce que j'attendais comme réponse, mais je suis content de pouvoire maintenant argumenter un peu plus ma réponse avec autre chose qu'un simple "mais c'est même pas son boulot! ". Je vais enfin pouvoir stoppé les discours des mecs en fin de soirée qui entre deux rot de bière déblatère un bout d'article sortie de l'express ou du point en nous racontant comment terminator c'est pour demain...

    Pour le topic j'espère que quelqu'un sans chargera, étant donné mes problèmes susdit avec l'orthographe et le fait que n'ayant que la curiosité et l'ignorance avec moi je me voie mal faire un topic qui se résumerai a posé question sur question a la manière d'un gosse qui découvre les joies du "Comment?" et "pourquoi???".
    D'ailleur a pars Nilsou y-a-t-il quelqu'un qui a de vraie connaissances dans le domaine sur le forum? Parce que si c'est pas le cas sa risque de ce finire en AlloDocteur avec lui comme seul intervenant... (perso cela n'entame pas ma curiosité mais j'imagine qu'il y a plus palpitant et que de répondre à des question type "Mais un ia super humaine sa risque pas de faire une espèce pinochio dépressif ? " Entre deux liens d'article de presse type: " L'équipe d'ia gagne face au champions du monde du pictionary" )

    Enfin bref j'ose espérer que quelques canards passionné et avide de connaissance s'occuperont de tout sa.

    Merci encore à toi Nilsou (et puis un peu à l'indulgence des modo qui ont toléré cette petite parenthèse) o/
    Dernière modification par Kinderpinguy ; 16/03/2016 à 10h36.

  5. #35
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Ouais, enfin dire que Hawking est moins pertinent sur le sujet que Asimov, c'est inexact et déplacé. J'aime beaucoup l'oeuvre d'Asimov, et j'ai beaucoup de respect pour l'homme qu'il était, mais c'était un docteur en chimie, et de son propre aveu pas très bon dans son domaine. De plus, il est mort bien avant les derniers développements dans le domaine et a toujours assumé une position humaniste en matière d'intelligence artificielle.

    Deux posts à lire en anglais ici et
    Dernière modification par Eradan ; 16/03/2016 à 14h42. Motif: Typo
    Barba non facit philosophum.

  6. #36
    Citation Envoyé par blutch2 Voir le message
    Si je ne dis pas n'importe quoi, les paroles de Hawking parle de l'objectif final de l'IA que les scientifiques veulent développer, a savoir une forme de vie comme nous en grosses, très grosses lignes. SI ça arrive, là on est mal.
    J'ai une question concernant l'IA: comment créer une IA proche de l'humain, sans avoir résolu clairement et définitivement les grandes questions philosophiques au sujet des humains, pour ensuite pouvoir "coder" ces réponses dans une IA ? Ou au moins, coder ces questions philosophiques dans une IA ? À moins qu'il s'agisse "d'espérer" à ce que l'IA en vienne à appréhender ces notions d'elle-même, suite à un mécanisme inconnu à ce jour ?

    En clair, quelle est la stratégie des informaticiens sur la philosophie ? Résoudre philosophiquement dans un premier temps (et ça fait des millénaires que ça dure), ou passer outre et coder directement en espérant que l'IA appréhende ou "vive" réellement d'elle-même ces notions ?

  7. #37
    Citation Envoyé par Big Bear Voir le message
    J'ai une question concernant l'IA: comment créer une IA proche de l'humain, sans avoir résolu clairement et définitivement les grandes questions philosophiques au sujet des humains, pour ensuite pouvoir "coder" ces réponses dans une IA ? Ou au moins, coder ces questions philosophiques dans une IA ? À moins qu'il s'agisse "d'espérer" à ce que l'IA en vienne à appréhender ces notions d'elle-même, suite à un mécanisme inconnu à ce jour ?

    En clair, quelle est la stratégie des informaticiens sur la philosophie ? Résoudre philosophiquement dans un premier temps (et ça fait des millénaires que ça dure), ou passer outre et coder directement en espérant que l'IA appréhende ou "vive" réellement d'elle-même ces notions ?
    La question est philosophique, mais porte plus sur l'intelligence que sur l'humain. Une IA ne sera pas humaine, quoi qu'il arrive.

  8. #38

  9. #39
    AoC powerhelper Avatar de Eradan
    Ville
    Dranactown/Poitain
    Citation Envoyé par Big Bear Voir le message
    J'ai une question concernant l'IA: comment créer une IA proche de l'humain, sans avoir résolu clairement et définitivement les grandes questions philosophiques au sujet des humains, pour ensuite pouvoir "coder" ces réponses dans une IA ? Ou au moins, coder ces questions philosophiques dans une IA ? À moins qu'il s'agisse "d'espérer" à ce que l'IA en vienne à appréhender ces notions d'elle-même, suite à un mécanisme inconnu à ce jour ?

    En clair, quelle est la stratégie des informaticiens sur la philosophie ? Résoudre philosophiquement dans un premier temps (et ça fait des millénaires que ça dure), ou passer outre et coder directement en espérant que l'IA appréhende ou "vive" réellement d'elle-même ces notions ?
    Une intelligence n'a pas obligatoirement à être humaine. On (dans le sens général, l'humanité) cherche à développer une intelligence similaire à celle de l'homme, donc capable essentiellement d'apprentissage, d'abstraction et d'adaptation. L'IA résultante ne sera sans doute pas développée par des humains, mais plutôt par des IA d'une génération précédente.
    Barba non facit philosophum.

  10. #40
    Concernant un eventuel renversement des IA sur l'Homme, vous avez vu la vidéo de Dirty Biology sur les enfers artificiels ?

    https://www.youtube.com/watch?v=JdxfhMbSwL0

    Vous en pensez quoi ?

  11. #41
    D'ailleur a pars Nilsou y-a-t-il quelqu'un qui a de vraie connaissances dans le domaine sur le forum? Parce que si c'est pas le cas sa risque de ce finire en AlloDocteur avec lui comme seul intervenant...
    Et c'pas forcément une bonne chose, quand tu vois toute la raeg qui ressort de l'excellente opération de Google.

  12. #42
    Y'a le film Her qui est bien concernant les IA. Au début on va utiliser les IA
    Spoiler Alert!
    pour se branler, puis quand elles assez intelligentes elles se barreront et nous laisserons avec notre misère sexuelle et affective.

  13. #43
    Citation Envoyé par Julizn Voir le message
    Y'a le film Her qui est bien concernant les IA. Au début on va utiliser les IA
    Spoiler Alert!
    pour se branler, puis quand elles assez intelligentes elles se barreront et nous laisserons avec notre misère sexuelle et affective.
    Bof. L'avenir de la branlette est bien plus dans la VR.

    L'IA ça sert surtout à augmenter la productivité du capital en diminuant la part du capital variable.
    En sens sens Google a historiquement raison (et évidemment, les préoccupations de la communauté scientifiques font fi du sens de l'Histoire.) Le Capital n'a pas besoin d'une vraie IA qui apprend et rêve (fantasme de geek inutile) mais de robots qui savent parfaitement reproduire les tâches d'un travailleur peu qualifié (magasinier, guichetier, etc.)

    D'ici trente ans la moitié des jobs auront disparu, et ça posera d'immenses problèmes sociétaux.

  14. #44
    Il faut diminuer la population mondiale.

  15. #45
    Je te rassure, l'ouvrier Bangladeshi qui fabrique tes t-shirts sera toujours moins cher qu'un robot.

    C'est plus ton job qui va être remplacé

  16. #46
    Une IA pour remplacer les fillettes ?
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  17. #47
    Citation Envoyé par Mdt Voir le message
    Je te rassure, l'ouvrier Bangladeshi qui fabrique tes t-shirts sera toujours moins cher qu'un robot.

    C'est plus ton job qui va être remplacé
    Vu ce que je fais ouais carrément. Sinon je pense faire prof de sport et si les gens cherchent un peu c'est déjà remplaçable.

  18. #48
    Carrément t'as le wii fit

  19. #49
    Citation Envoyé par Mdt Voir le message
    Bof. L'avenir de la branlette est bien plus dans la VR.
    M'en fous, Her c'est un chef d'oeuvre quand même. L'acteur principal c'est un végane avec une petite moustache, si c'est pas un argument ça...


    Signé : Le végane militant radical

  20. #50
    Bof. C'est oublié maintenant. T'as des applications pour sur smartphone.

  21. #51
    Citation Envoyé par Mdt Voir le message
    Bof. L'avenir de la branlette est bien plus dans la VR.

    L'IA ça sert surtout à augmenter la productivité du capital en diminuant la part du capital variable.
    En sens sens Google a historiquement raison (et évidemment, les préoccupations de la communauté scientifiques font fi du sens de l'Histoire.) Le Capital n'a pas besoin d'une vraie IA qui apprend et rêve (fantasme de geek inutile) mais de robots qui savent parfaitement reproduire les tâches d'un travailleur peu qualifié (magasinier, guichetier, etc.)

    D'ici trente ans la moitié des jobs auront disparu, et ça posera d'immenses problèmes sociétaux.
    Oui, dans notre société actuel où un travail est nécessaire pour vivre ce sera une catastrophe, si on vit dans un autre type de société qui ne n'a pas comme idée travail = vivre on se fiche que des robots bossent à la place d'humain, les humains peuvent vivre décemment.

    - - - Mise à jour - - -

    Citation Envoyé par Sharn Voir le message
    Bof. C'est oublié maintenant. T'as des applications pour sur smartphone.
    testeur?

  22. #52
    C'est d'ailleurs un des arguments fort concernant le salaire à vie.

  23. #53
    Citation Envoyé par ZenZ Voir le message
    C'est d'ailleurs un des arguments fort concernant le salaire à vie.
    Appelé salaire à rien branler.

  24. #54
    C'est marrant comme l'IA de google fait parler d'elle, alors que celle d'IBM un peu moins ( en tout cas dans le grand public ). Enfin faut dire qu'en marketing public ils sont nuls IBM.

    Pour info IBM a une IA, s'appelant Watson ( l'evolution de Deep Blue ). C'est celle qui avait battu les deux meilleurs champions de tous les temps au Jeopardy.
    Personnellement, sans avoir une connaissance technique dans le domaine, je trouve ca plus impressionant que de gagner au GO, qui n'est au final qu'un processus mathematique classique ( meme si tres pousse et impressionant ).
    L'IA Watson par contre est capable de lire des donnees desorganisees, de les interpreter, de les mettre en forme, de les analyser et de donner des hypotheses de travail etc ( lire un document comme un humain en informatique est extremement different ).
    Et plus grosse difference, elle est deja commercialisee et utilisee au sein de diverses entreprises. Par exemple le gros centre de recherche contre le cancer americain l'utilise ( et il me semble qu'il y a eu recemment quelques belles decouvertes potentielles ). Mais comme dit Mdt, l'IA ici, c'est pour le capital qui en profite plus que le pekin lambda.

    Nilsou, vu que tu as l'ai assez calle, tu as des infos dessus ? ( j'ai plein d'infos marketing, mais bon... niveau technique je sais pas trop :D )

  25. #55
    Citation Envoyé par Sharn Voir le message
    Appelé salaire à rien branler.


    Ce topic est génial en tout cas. Entre le bashage en règle des fameuses "intelligences" artificielles et celui d'hawking qui raconte de la merde (même pour Higgs il s'était oublié), c'est .

  26. #56
    Citation Envoyé par blutch2 Voir le message
    Oui, dans notre société actuel où un travail est nécessaire pour vivre ce sera une catastrophe, si on vit dans un autre type de société qui ne n'a pas comme idée travail = vivre on se fiche que des robots bossent à la place d'humain, les humains peuvent vivre décemment.
    La Culture .

  27. #57
    [HS rapide]

    Citation Envoyé par ZenZ Voir le message
    C'est d'ailleurs un des arguments fort concernant le salaire à vie.
    Ou revenu inconditionnel, qui correspond plus à l'idée Salaire à vie, en gros ça peut vouloir dire que tu vas bosser jusqu'à la fin de tes jours

    Citation Envoyé par Sharn Voir le message
    Appelé salaire à rien branler.
    Ouais, ou plutôt : ton droit à la vie dépendra pas de ta capacité à produire. Si sans incitation financière tu branles rien, tant pis pour toi

    [/HS rapide]

    Pas moins sérieusement mais plus dans le sujet (quoique la question de "qu'est-ce qu'on va bien pouvoir leur faire faire à ces IA" pose forcément celle du travail), j'avais vu il y a quelques des articles concernant l'IA dans le JV mais je sais plus du tout d'où ça venait, ni même si c'était en français Il me semble que c'était des devs qui discutaient du comment et surtout du pourquoi faire une IA capable de certaines choses, incapable d'autres, pour garder le jeu intéressant sans décourager le joueur...

    En tous cas ça m'intéresse si ça parle à quelqu'un, merci d'avance

  28. #58
    Citation Envoyé par Ruvon Voir le message
    Ouais, ou plutôt : ton droit à la vie dépendra pas de ta capacité à produire. Si sans incitation financière tu branles rien, tant pis pour toi
    En quoi tant pis? Tu pourras toujours bouffer, niquer et sortir. Je vois pas le soucis.

  29. #59
    Citation Envoyé par Naiaphykit Voir le message
    C'est marrant comme l'IA de google fait parler d'elle, alors que celle d'IBM un peu moins ( en tout cas dans le grand public ). Enfin faut dire qu'en marketing public ils sont nuls IBM.

    Pour info IBM a une IA, s'appelant Watson ( l'evolution de Deep Blue ). C'est celle qui avait battu les deux meilleurs champions de tous les temps au Jeopardy.
    Personnellement, sans avoir une connaissance technique dans le domaine, je trouve ca plus impressionant que de gagner au GO, qui n'est au final qu'un processus mathematique classique ( meme si tres pousse et impressionant ).
    L'IA Watson par contre est capable de lire des donnees desorganisees, de les interpreter, de les mettre en forme, de les analyser et de donner des hypotheses de travail etc ( lire un document comme un humain en informatique est extremement different ).
    Et plus grosse difference, elle est deja commercialisee et utilisee au sein de diverses entreprises. Par exemple le gros centre de recherche contre le cancer americain l'utilise ( et il me semble qu'il y a eu recemment quelques belles decouvertes potentielles ). Mais comme dit Mdt, l'IA ici, c'est pour le capital qui en profite plus que le pekin lambda.

    Nilsou, vu que tu as l'ai assez calle, tu as des infos dessus ? ( j'ai plein d'infos marketing, mais bon... niveau technique je sais pas trop :D )
    Watson a été développé dès le départ en visant une application médicale (surtout centrée sur le diagnostique) en partant des 2 principes :
    • une IA est bien plus à même qu'un humain de mettre en relation des millions de données (historique du patient, dossier médical, détails des médoc, interactions des molécules entre elles, etc) et d'observer des pattern (grand force pourtant du cerveau humain) sans relation logique directe ;
    • elle peut surtout se mettre à jour constamment et profiter des résultats de tous les autres Watson tournant dans le monde (ce qui est bien plus compliqué à l'échelle humaine).

    Le coup de Jeopardy, bien que très impressionnant, n'était qu'un "simple" test.
    Dernière modification par Orhin ; 18/03/2016 à 11h22.

  30. #60
    Citation Envoyé par Nilsou Voir le message
    Je répond pour Hawking, comme c'est HS je met en spoiler 2, ça raccourcis :
    Spoiler Alert!
    Pour Hawking, on est beaucoup à penser que ce mec ne fais plus que ce faire mousser. Comme beaucoup de "Haut" scientifique moderne, il s'est fait happer par les fluteau de la com à outrance. (bouquins, émissions, j'en passe). L'IA n'est pas sont domaine et ses déclarations n'apportent rien. (Pas plus que le film Terminator, et bien moins qu'Asimov.) Je suis un poil méchant mais de notre point de vue, niveau réflexion sur les dangers de développements des IA le mec est complétement à la ramasse et surtout 70 ans en retard ...
    Dire que ces technologies sont potentiellement dangereuses, ça va on le sait, depuis, wouuuuu, perpet. Sur ce point, c'est comme si il venait faire un grand discours comme quoi les bombes atomiques sont dangereuses, ce serrait juste -> ... car ça n'apporte rien ... c'est un fait acquis. Hormis pour se faire mousser évidemment.

    En quelques mots je vais vous expliquer le non-sens de ses déclarations, et pourquoi elle nous font bien rires :

    Hawkings et les scientifiques qui ont suivis (dont 95% ne bosse pas du tout dans l'IA) ont proposés comme solution, comme tu dit, de limiter le développement des IA...
    Ok, bon d'abord sur la forme c'est pas très original hein, tout notre domaine est basé sur Asimov et tout chercheur en IA à les fameuses "3 lois" notées dans un coin de sa thèse, pour référence ^^. Donc la encore, ça n'apporte rien de proposer en fanfare cette solution.
    Surtout que ...... ce n'en est pas une, du tout. Asimov, toujours, a bien montré qu'en postulant des lois limitantes qui viendrais faire un carcan autour d'une IA on arrive a des dizaines de cas foireux. Et ces cas décris sont ... crédible du point de vue de la communauté scientifiques. Même si on pouvais limiter une IA, ce serais donc potentiellement foireux. Sans parler du fait que si cette IA dangereuse fantasmée a une certaines conscience d'elle même il n'en faut pas plus pour la braquer contre l'humanité .

    Donc jusqu'ici on vois déjà que c'est un poil idiot, comme ça, sans même rentrer dans le domaine "sérieux" de l'IA. Juste avec la réflexion déjà mené depuis 60 ans sur le sujet.
    Mais il y a pire, et c'est là qu'on rigole bien. Il n'y a actuellement aucun moyens de limiter une IA développementale et il n'y en aura probablement jamais.

    Je m'explique : une IA comme nous la concevons se développe en explorant, en faisant des erreurs et en testant. Évidemment vous pouvez limiter sa "puissance de calcul", son nombres de neurones ou tout autres de ses composantes. Mais même le cerveau d'un poisson teubé peut être dangereux si on lui donne les outils pour.
    Résultat : c'est surtout ce qu'on donne comme moyens d'agir à "l'IA" qui la rend dangereuse ou non... comme pour ... l'homme hein .

    Quant à la limiter par des "lois" ce n'est simplement pas possible. Ça ne marche juste pas comme ça. On ne peut pas, avec un réseau de neurone, définir une loi en dur "tu ne tuera point". Ce n'est simplement pas possible.
    Une IA très intelligente devra probablement être ... ben éduqué quoi... petit à petit en faisant comprendre, en punissant au besoin, comme un enfant. Mais qu'elle soit très intelligente ou non ne change rien à son potentiel de dangerosité. Limiter son intelligence n'a donc aucun sens. Et comme par construction même on ne peut pas limiter ses "choix" (On ne peut pas faire de lois à la Asimov donc) ben ... La brider de quelques manière que ce soit n'a donc vraiment, vraiment, aucun sens.

    Voila, je pense qu'avec ce blabla vous avez les outils pour comprendre pourquoi les déclarations de Hawkings sont ... complétement à coté de la plaque à la fois dans l'identification du problème. (Aucun apport par rapport aux 70 dernières années) et dans les solutions proposés (pas nouvelles, tout stagiaire dans le domaine se rendrais compte immédiatement que c'est à la fois dénué de sens et inapplicable).

    J'irais même au delà quant à l'identification du problème posé : Si on imagine une IA vraiment oufzor, disons, niveau humain très intelligent... quelles en sont les applications néfastes possible ? Ben globalement elle ne peut pas "pirater l'internet" façon skynet. C'est impossible (trop distribué, trop de "corps" différents, trop de protocole différent, une IA c'est gros et bien plus simple à "stopper" qu'un simple virus de quelques lignes qui vise un système précis etc...) et tout ce qui reste c'est le contrôle de robot militaire.
    Sauf que là il y a un super blabla d'un général français qui disais à juste titre que globalement lui ça ne l’intéresse pas car ... ben un humain sera toujours plus fiable et moins cher, pourquoi se faire chier, les drones ça marche bien... il préfère des IA de support que des IA de robots killer car elles seraient de toute manière, bah au niveau d'un homme. Peut être plus réactive etc... mais la "menace" n'est pas bien plus élevé que pour n'importe quelle armée standard... (surtout que les pays qui auront les moyens de se payer des robots de ouf, ben ce sont déjà des grandes puissances, alors bon).
    Résumé des opérations : il y a bien peu de moyens crédible de pondre une IA "intelligente", "malveillante" et qui en plus aurais accès à du matériel suffisant pour être véritablement une menace capable d'outrepasser un support humain. (faudrait que toute les usines soit contrôlé par la même IA ... , toute la chaine de support logistique etc... aucune chance que ça arrive un jour ... )

    Enfin, même dans un cas méga fantasmé où une IA deviendrais dieu, quelle est son intérêt à tuer l’être humain? si vous réfléchissez vous vous rendrez vite compte que la plupart des réponses à cette questions ne tienne pas debout. (la plupart des bouquins passent d'ailleurs sur le problème).

    Voila, je pense que ça achève, si besoin était, la crédibilité de l'intervention d'Hawking, qui à toute étape est complétement foireuse. C'est juste du Show à l’américaine, ne vous laissez pas avoir par ce genre de truc. Si il parle de quantique ou de physique théorique vous pouvez l'écouter, mais pour tout autre sujet c'est comme les frères Bogdanov qui écrivent un bouquin sur ... Dieu ... c'est ce qu'on appelle un "argumentum ad potentiam" ou "argument d'autorité", leur domaine n'étant pas la théologie ils n"ont pas une plus forte crédibilité dans ce qu'ils disent sur le bon dieu, contrairement à ce qu'ils vendent. Ben idem pour Hawking et l'IA.


    Bon sinon je veut bien un topic IA, mais je laisse le soin aux canards qui veulent en parler de le créer ^^.
    Les lois deviendront obligatoires quand l'IA pourra intervenir dans le monde physique (via des drones par exemple) : Disons que par exemple, tu soumets à une IA le problème de résoudre la fin dans le monde, qu'est-ce qui te garantie que sa réponse ne sera pas de tuer l'ensemble des pauvres ?

    Il y'a quelques mois, il y'a eu des achats/reventes d'action suite à la publication d'un tweet (de mémoire, une boite qui en rachetait une autre). Le problème, c'est que ça s'est passé en moins de 10 secondes après la publication du message. C'était forcément une IA derrière qui a traité la demande, créant un désavantage énorme par rapport aux concurrents, et à la libre concurrence sur les marchés boursiers (finalement, celui qui a la meilleur IA va s'enrichir). Et déjà que les traders ne sont pas des modèles de vertu, que va t'il se passer quand l'ensemble des transactions sur les denrées alimentaires seront gérées par des IA ? Déjà que l'on a essuyé plusieurs crises alimentaires graves parce que des boursicoteurs se sont amusés à jouer sur le cours du blé/riz, whatever, si une IA qui n'a aucune sorte de conscience "humaine" s'y met, que va t'il se passer ?

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •