J'trouve la vidéo vraiment médiocre, ça mélange philosophie et AI un peu n'importe comment, c'est bien trop long pour ce que ça présente. Il ne comprend pas les commentaires de Yann LeCun et les balaye d'un revers de la main alors qu'il travaille sur le sujet depuis 30 ans.
C'est dingue de faire 40 minutes de vidéo sur un sujet qui a une réponse assez claire, si tu veux comprendre n'importe quelle réponse donnée par l'AI dans son entièreté, c'est possible. Il est simple (plus coûteux en terme de perf) de faire un réseau de neurone entièrement observable, quelque soit le réseau, donc toute réponse donnée par ChatGPT pourrait être expliquée de bout en bout si c'était designé de cette manière. C'est déjà fait mainte fois sur des systèmes moins larges et on le comprend bien, pourquoi ça changerait à une échelle plus large, c'est un peu fantaisiste ou disons spéculatif mais pourquoi pas.
Cependant pourquoi spéculer pendant 40 min, quand il y a une possibilité de réponse sans ambiguïté c'est ridicule, montre un manque de culture quant aux réseaux de neurone.
Par opposition il est évident que le cerveau est difficilement observable, ça n'a rien à voir.
Ensuite y'a le fait que c'est comme ça que sont design les réseaux de neurone en premier lieu, le choix des fonctions d'activation, la taille du réseau, l’entraînement, le corpus etc. c'est, pour simplifier, afin de converger plus ou moins rapidement, ou pour avoir une meilleure précision, etc. Avec les théorèmes d'approximation universelle on sait très bien qu'on peut émuler n'importe quelle fonction avec un réseau. Ce qui est produit par les réseaux de neurone que ce soit ChatGPT ou autre est totalement en ligne avec les résultats escomptés, y'a pas de réponse émergente hors norme qui dépasse l'entendement, c'est construit comme ça en premier lieu, donc il fait l'amalgame entre son émerveillement personnel, via des exemples très superficiels, pour une techno qu'il comprend manifestement mal et la nature de ChatGPT, c'est n'importe quoi.
En plus c'est ouf d'avoir un tel manque de rigueur quoi, quand blablate pendant 40 minutes de manière aussi informelle, l'exemple à la fin avec le mouton est tellement pas pertinent, c'est un délire. Déjà y'a un milliard de contre exemples, on en avait posté un sur le topic avec les 3 engrenages dans le plan, mais en plus le processus de correction pour avoir la bonne réponse est fondamentalement opposé à la notion de compréhension puisque bien évidemment tu peux converger vers la bonne réponse sans comprendre puisque t'apportes la correction.
Tout ça pour finir par "je veux pas être alarmiste, mais ne pas reconnaître la vague de l'IA, bla bla bla", espèce de psychologie inversée à 2 balles, sans jamais évoquer le fait le plus simple et évident et bien connu, qui est le coût algorithmique de cette compréhension (sans rentrer dans la discussion sur la notion de compréhension, on sait bien que les réseaux de neurones sont efficaces quant il s'agit d'analyser certains systèmes complexes avec beaucoup de variables, AlphaFold etc.), qui est une limite pratique
Donc au final on a vraiment la présentation classique de l'étudiant paresseux, on parle d'un côté de concepts de philos bien connus, pertinent dans l'absolu mais on fait un lien douteux avec l'AI sans aucune rigueur, et on valide tout ça via des anecdotes très superficielles. Le tout avec la couche Youtubeur qui rend la vidéo imbuvable. Vraiment le schéma type d'un mec qui baratine un truc qu'il a mal révisé quand on lui dit d'aller au tableau