Pour Hawking, on est beaucoup à penser que ce mec ne fais plus que ce faire mousser. Comme beaucoup de "Haut" scientifique moderne, il s'est fait happer par les fluteau de la com à outrance. (bouquins, émissions, j'en passe). L'IA n'est pas sont domaine et ses déclarations n'apportent rien. (Pas plus que le film Terminator, et bien moins qu'Asimov.) Je suis un poil méchant mais de notre point de vue, niveau réflexion sur les dangers de développements des IA le mec est complétement à la ramasse et surtout 70 ans en retard ...
Dire que ces technologies sont potentiellement dangereuses, ça va on le sait, depuis, wouuuuu, perpet. Sur ce point, c'est comme si il venait faire un grand discours comme quoi les bombes atomiques sont dangereuses, ce serrait juste ->
... car ça n'apporte rien ... c'est un fait acquis. Hormis pour se faire mousser évidemment.
En quelques mots je vais vous expliquer le non-sens de ses déclarations, et pourquoi elle nous font bien rires :
Hawkings et les scientifiques qui ont suivis (dont 95% ne bosse pas du tout dans l'IA) ont proposés comme solution, comme tu dit, de limiter le développement des IA...
Ok, bon d'abord sur la forme c'est pas très original hein, tout notre domaine est basé sur Asimov et tout chercheur en IA à les fameuses "3 lois" notées dans un coin de sa thèse, pour référence ^^. Donc la encore, ça n'apporte rien de proposer en fanfare cette solution.
Surtout que ...... ce n'en est pas une, du tout. Asimov, toujours, a bien montré qu'en postulant des lois limitantes qui viendrais faire un carcan autour d'une IA on arrive a des dizaines de cas foireux. Et ces cas décris sont ... crédible du point de vue de la communauté scientifiques. Même si on pouvais limiter une IA, ce serais donc potentiellement foireux. Sans parler du fait que si cette IA dangereuse fantasmée a une certaines conscience d'elle même il n'en faut pas plus pour la braquer contre l'humanité
.
Donc jusqu'ici on vois déjà que c'est un poil idiot, comme ça, sans même rentrer dans le domaine "sérieux" de l'IA. Juste avec la réflexion déjà mené depuis 60 ans sur le sujet.
Mais il y a pire, et c'est là qu'on rigole bien.
Il n'y a actuellement aucun moyens de limiter une IA développementale et il n'y en aura probablement jamais.
Je m'explique : une IA comme nous la concevons se développe en explorant, en faisant des erreurs et en testant. Évidemment vous pouvez limiter sa "puissance de calcul", son nombres de neurones ou tout autres de ses composantes. Mais même le cerveau d'un poisson teubé peut être dangereux si on lui donne les outils pour.
Résultat : c'est surtout ce qu'on donne comme moyens d'agir à "l'IA" qui la rend dangereuse ou non... comme pour ... l'homme hein
.
Quant à la limiter par des "lois" ce n'est simplement pas possible. Ça ne marche juste pas comme ça. On ne peut pas, avec un réseau de neurone, définir une loi en dur "tu ne tuera point". Ce n'est simplement pas possible.
Une IA très intelligente devra probablement être ... ben éduqué quoi... petit à petit en faisant comprendre, en punissant au besoin, comme un enfant. Mais qu'elle soit très intelligente ou non ne change rien à son potentiel de dangerosité. Limiter son intelligence n'a donc aucun sens. Et comme par construction même on ne peut pas limiter ses "choix" (On ne peut pas faire de lois à la Asimov donc) ben ... La brider de quelques manière que ce soit n'a donc vraiment, vraiment, aucun sens.
Voila, je pense qu'avec ce blabla vous avez les outils pour comprendre pourquoi les déclarations de Hawkings sont ... complétement à coté de la plaque à la fois dans l'identification du problème. (Aucun apport par rapport aux 70 dernières années) et dans les solutions proposés (pas nouvelles, tout stagiaire dans le domaine se rendrais compte immédiatement que c'est à la fois dénué de sens et inapplicable).
J'irais même au delà quant à l'identification du problème posé : Si on imagine une IA vraiment oufzor, disons, niveau humain très intelligent... quelles en sont les applications néfastes possible ? Ben globalement elle ne peut pas "pirater l'internet" façon skynet. C'est impossible (trop distribué, trop de "corps" différents, trop de protocole différent, une IA c'est gros et bien plus simple à "stopper" qu'un simple virus de quelques lignes qui vise un système précis etc...) et tout ce qui reste c'est le contrôle de robot militaire.
Sauf que là il y a un super blabla d'un général français qui disais à juste titre que globalement lui ça ne l’intéresse pas car ... ben un humain sera toujours plus fiable et moins cher, pourquoi se faire chier, les drones ça marche bien... il préfère des IA de support que des IA de robots killer car elles seraient de toute manière, bah au niveau d'un homme. Peut être plus réactive etc... mais la "menace" n'est pas bien plus élevé que pour n'importe quelle armée standard... (surtout que les pays qui auront les moyens de se payer des robots de ouf, ben ce sont déjà des grandes puissances, alors bon).
Résumé des opérations : il y a bien peu de moyens crédible de pondre une IA "intelligente", "malveillante" et qui en plus aurais accès à du matériel suffisant pour être véritablement une menace capable d'outrepasser un support humain. (faudrait que toute les usines soit contrôlé par la même IA ...
, toute la chaine de support logistique etc... aucune chance que ça arrive un jour ...
)
Enfin, même dans un cas méga fantasmé où une IA deviendrais dieu, quelle est son intérêt à tuer l’être humain? si vous réfléchissez vous vous rendrez vite compte que la plupart des réponses à cette questions ne tienne pas debout. (la plupart des bouquins passent d'ailleurs sur le problème).
Voila, je pense que ça achève, si besoin était, la crédibilité de l'intervention d'Hawking, qui à toute étape est complétement foireuse. C'est juste du Show à l’américaine, ne vous laissez pas avoir par ce genre de truc. Si il parle de quantique ou de physique théorique vous pouvez l'écouter, mais pour tout autre sujet c'est comme les frères Bogdanov qui écrivent un bouquin sur ... Dieu ... c'est ce qu'on appelle un "argumentum ad potentiam" ou "argument d'autorité", leur domaine n'étant pas la théologie ils n"ont pas une plus forte crédibilité dans ce qu'ils disent sur le bon dieu, contrairement à ce qu'ils vendent. Ben idem pour Hawking et l'IA.