- Dans dossier console p 46 : ça parle du fait que la montée en puissance permettrait aux devs d'offrir de meilleures IAs. Dans l'article c'est anecdotique, mais ce n'est pas la première fois que je rencontre l'affirmation dans CPC. En tant que docteur en IA passionné d'IA dans le JV je pense pouvoir dire qu'a priori il s'agit d'une prédiction qui sera fausse. À ma connaissance, l'IA dans le JV n'a jamais eu de problème de puissance, sauf dans des cas très très spécifiques (pathfinding de milliers d'unités dans les STR). Mais ce n'est pas un problème de puissance qui donne des IA débiles dans le JV, mais bien un problème de fond, qui ne touche pas que le JV, mais aussi tout le monde de la recherche, avec beaucoup d'avancées dans les IA de traitement (agrandissement, débruitage, etc etc...), dans les big data, mais très peu dans les IA comportementales (celles qui intéressent le JV sans le fond).
Une plus grande puissance dispo ne changera donc rien au problème de fond.
-Dans « le contact tracing » p 48 : En première lecture comme ça je n'ai pas vu ce qui empêcherait le serveur du modèle « décentralisé » de récupérer l'identifiant du portable communicant avec lui. Je ne suis pas compétent dans cette branche, mais il doit bien y avoir une IP, une adresse mac, ce genre de truc. Qu'est-ce qui empêche le serveur de les récupérer a priori sauf un pari sur sa bonne foi ? Et dans ce cas, en quoi ce n'est alors pas du même acabit que la solution centralisée ?
Par ailleurs, votre commentaire semble à géométrie variable. Vous déployez une saine méfiance sur le fait que code-source != application et que finalement on ne sait pas ce qui sera ou pas dans l'application centralisée, mais sans déployer la même chose du côté de l'application décentralisée (qu'est-ce qui vous assure que les ID stockés en local ne sont véritablement pas communiqués au serveur ? )
- Dans « La petite histoire du MP3 » : il y a pas mal de chose qui me paraissent abusive dans la conclusion page 58. Quand vous faites le point de « ou on en est maintenant » vous mettez aux oubliettes tous les autres codecs. Ce qui était peut-être vrai dans les années 2000, mais ce qui ne l'est plus du tout. Dans le streaming, comme vous le rappelez pourtant très bien dans l'article sur les radios, c'est le format AAC qui est souvent choisi. De façon plus large, dans toutes les vidéos « rippés », qui sont le pendant vidéo aux musiques « mp3» sur le net, c'est, en très large majorité du AAC, et quand ce n'en est pas c'est du OGG du Flac, et plus récemment, de plus en plus, de l'Opus. C'est donc tout un énorme pan de la compression audio que le MP3 ne domine pas ou plus. C'est dommage de ne pas avoir ouvert le sujet sur ce genre de chose en conclusion.
De façon plus anecdotique, il aurait été intéressant de parler de la conséquence de la généralisation des liaisons haut débit qui donne lieu à de nombreux, et de plus en plus, partage passant par le format sans perte FLAC. Au final ce codec pourtant très en vogue dans les partages d'albums chez les fans de musiques se retrouve relayé à une petite blagounette p58... un peu réducteur je trouve.
- Dans « Radio numérique terrestre » : j'aurais aimé que le sujet de l'abandon des grandes ondes soit mieux traité. Vous présentez de façon pertinente la raison de l'existence des grandes ondes, l’accès à la radio même dans les coins paumé, pour balayer ceci d'un revers de la main par la phrase « des déserts radiophoniques auquel le DAB+ veut justement apporter une solution en permettant à de nouvelles radios d'avoir accès aux ondes ».
Je peine à comprendre cette argumentation très étrange : en quoi des zones qui n'intéressaient personne, au point de ne pas construire d'antenne d'émission, seraient impactées par le déploiement d'un système qui permet principalement de multiplier les radios dans les zones déjà engorgées et donc intéressantes.
De fait, par la suite vous montrez bien que le DAB+ sera en plus : cher à mettre en œuvre, et que l'axe Paris/Marseille/Lyon est celui qui centralise les convoitises.
C'est dommage de mettre sous le tapis ce qui était une vraie problématique intéressante : l’accès de tous à l'information.
De même, le fait que ce qui était l'un des récepteurs les plus simples à fabriquer, symbole du partage de l'information pour tous : le récepteur radio, devienne peu à peu un système qui ne sera plus lisible sans puces spécifiques dédiées et qui semble couter cher d'après ce que vous présentez, ne provoque aucun rebondissement de votre part, alors que là encore, c'était un sujet, je pense, central. La radio, en tant que rang le plus bas technologiquement, le moins cher et l'un des plus rustiques moyens de partage technologique de communication, occupe une place à part qui rends le traitement du sujet un peu différent de celui de la télévision et de la TNT.
- Sur le RTX Voice : toujours ma déformation professionnelle en tant que personne bossant en IA, mais je trouve qu'il aurait été intéressant de rappeler qu'il s'agit d'une technologie somme toute anodine, qui existe depuis très longtemps (l'une des premières à être appliqué en IA il y a quelques dizaines d'années de cela et appliqué dans de nombreux produits « pro »). Ce type de présentation véhicule un peu l'impression que Nvidia a diffusé une techno nouvelle de son cru, alors qu'il serait plus juste de parler d'une implémentation de technologies assez ancienne qui cherche à rentabiliser l'espace de puissance laisser libre par ses « tensors cores ». Une sorte de justification a posteriori de leurs choix technologiques en somme (et on le voit bien avec leur limitation arbitraire même quand la technologie ne profite pas vraiment (encore?) des tensors cores dans son implémentation actuelle).
Une approche plus « état de l'art » aurait ainsi soulevé d'autres angles d'interrogation que je pense plus intéressante. Par exemple le fait que la technologie utilise 10% de puissance d'un GPU semble surprenant pour ce type de tech au premier abord. De même, si on approche la conception très rapide de ces technologies comme un moyen de justifier des tensors cores, la conclusion changerait légèrement. Il serait ainsi plus probable de voir Nvidia proposer des mises à jour de perf utilisant ses tensors cores mais restreignant l'usage de la technologie (ce qui fait de la pub pour ses RTX), plutôt que de voir ouvrir la technologie. Enfin je trouve... (sauf que ça laisse librement les autres pondre des variantes libre de la tech, ce qui ne sera pas bien difficile, les algos existant déja).
Pour finir, ce genre de techo existe depuis longtemps et je pense qu'il y a une raison au fait qu'elles ne se sont diffusé que chez quelques professionnels, dans l'industrie etc mais finalement peu chez le grand public. Amha c'est simplement que ce l'apport de la technologie par rapport à la puissance qu'elle demande la restreint automatiquement et favorise des techs plus légères (celles qu'on retrouve dans n'importe quelle carte son digne de ce nom).
Je pense qu'une interrogation sur l'utilité fondamentale de la chose au regarde de sa puissance serait intéressante dans ce cadre.