Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Affichage des résultats 1 à 24 sur 24
  1. #1
    Salut à tous,

    J'ai une ptite habitude pour lire mon CPC-Hardware, c'est d'entrecouper mon boulot de petits articles CPCH pour me détendre quand celui-ci est paru. Et puis je suis tombé sur "Le jour où internet a failli exploser" de Oni, et j'ai été un peu déçu.D'habitude, quand j'ai un doute sur la véracité des propos, je me dis que je vais prendre ce qui est dit avec des pincettes. Mais ce coup-ci, voila t'il pas que je connais bien le sujet, et que la personne qui a écrit, pas autant qu'elle le devrait?


    L'article s'est divisé en deux parties, une négation de la saturation possible du réseau et un réquisitoire pour la neutralité du net.
    Pour la seconde partie, je suis globalement d'accord, il est souvent difficile de revenir en arrière une fois les choses en place, et c'est un dérive qu'il faut dénoncer.
    Mon soucis se situe sur la première partie et la tentative d'explication de comment fonctionne internet, justifiant le fait que internet n'a jamais été en danger de saturation. Cela traduit d'un manque évident de connaissances de l'auteur et du manque de sources, et je vais expliquer ici pourquoi, avec des sources.


    En France, chaque fournisseur d’accès internet (FAI) est responsable d’apporter à ses clientsinternet de bout en bout sur le territoire français. Pour ce faire, les FAI ont adoptéune stratégie similaire: mettre en place une boucle faisant le tour de la France, avec desbourgeon-boucles locales de raccordements clients (par ville en général), avec un coeur deréseau en étoile sur la capitale en charge de switcher toutes les requêtes. Ainsi, lorsqu’unerequête est faite sur le territoire, elle est rapatriée sur la capitale et le plus court chemin deboucle à la ressource est calculé puis attribué.Quand les ressources sont localisées en France, la charge est relativement supportable, carla requête ne parcourt qu’un chemin relativement court. Quand ce n’est pas le cas, commepour Disney+ par exemple, la requête part à l’étranger et aucune optimisation n’est possible. Ce quecraignent les opérateurs, c’est un afflux massifs de requêtes pour du contenu étranger, quisaturerait toute la boucle internet. Une solution qui a été mise en place par Netflix est deraccorder des serveurs "cache" à la boucle française pour soulager la charge.
    Tout cela, je ne le sors pas de mon chapeau, hein (wikipédia, entre autre).


    Le risque de saturation était une crainte raisonnable et les mesures prises était de la prévention raisonnée, comme peut le dire Stéphane Richard (PDG Orange).
    Ce ne sont pas juste les serveurs côtés entreprises qui étaient saturés comme semble expliquer unilatéralement l'auteur dans cet article de CPCH.


    Egalement, concernant la baisse de qualité sur des services comme Netflix ou Youtube, c'est bel et bien une demande de Bruxelle pour soulager l'architecture en étoile de la plupart des pays, et non pour atteindre gratuitement la neutralité du web comme implicité ici. D'ailleurs, avec la levée du confinement, les services sont revenus à la normale.


    En conclusion, je suis très deçu qu'un article comme celui là ait pu partir en prod sans avoir été relu (j'espère qu'il a pas été relu à ce stade) car il souffre d'un manque de journalisme pur avec des symptomes de Net Neutrality Warrior aveugle. Internet n'a jamais existé que pour le business et en est complètement dépendant. Moi aussi j'espère à une équité universelle mais comme le transpire l'ensemble de ces décisions gouvernementales, on met le business en priorité dans des situations à risque. Je n'ai aucun problème à dénoncer cela, mais il faut le faire correctement. Je n'ai pas de problème avec le fond mais la forme.
    Merci de m'avoir lu, en espérant avoir pu faire avancer les choses


    PS: si jamais vous êtes intéressés sur le sujet, j'ai pu écrire un article en collaboration à ce sujet (http://cpc.cx/rS8).

  2. #2
    Citation Envoyé par SnathanP Voir le message
    En France, chaque fournisseur d’accès internet (FAI) est responsable d’apporter à ses clientsinternet de bout en bout sur le territoire français. Pour ce faire, les FAI ont adoptéune stratégie similaire: mettre en place une boucle faisant le tour de la France, avec desbourgeon-boucles locales de raccordements clients (par ville en général), avec un coeur deréseau en étoile sur la capitale en charge de switcher toutes les requêtes. Ainsi, lorsqu’unerequête est faite sur le territoire, elle est rapatriée sur la capitale et le plus court chemin deboucle à la ressource est calculé puis attribué.Quand les ressources sont localisées en France, la charge est relativement supportable, carla requête ne parcourt qu’un chemin relativement court. Quand ce n’est pas le cas, commepour Disney+ par exemple, la requête part à l’étranger et aucune optimisation n’est possible. Ce quecraignent les opérateurs, c’est un afflux massifs de requêtes pour du contenu étranger, quisaturerait toute la boucle internet. Une solution qui a été mise en place par Netflix est deraccorder des serveurs "cache" à la boucle française pour soulager la charge.
    Tout cela, je ne le sors pas de mon chapeau, hein (wikipédia, entre autre).
    J'ai du mal à voir le lien entre longueur du chemin / optimisation / saturation.
    Si comme tu le dis tout passe par la capitale, qu'on veuille se connecter à Grenoble ou à San Francisco, on ira de toute façon faire un crochet par Paris, le risque de saturation sera le même.

    Sans vouloir te froisser, ton "article" apporte pas beaucoup d'eau au moulin.

  3. #3
    Citation Envoyé par SnathanP Voir le message
    Quand ce n’est pas le cas, commepour Disney+ par exemple, la requête part à l’étranger et aucune optimisation n’est possible. Ce quecraignent les opérateurs, c’est un afflux massifs de requêtes pour du contenu étranger, quisaturerait toute la boucle internet. Une solution qui a été mise en place par Netflix est deraccorder des serveurs "cache" à la boucle française pour soulager la charge.
    Et Disney+ va faire exactement la même chose que Netflix une fois que le service sera mieux établi et aura augmenté sa base de clients. Tu as ici un article qui parle de ce que le trafic de Disney+ pourrait rapporter aux CDN d'ici quelques années. Qu'est-ce qui te faisait penser que ça n'arriverait pas ?
    [youtube]<id_video>?start=<nombre_secondes>[/youtube]

  4. #4
    Citation Envoyé par SnathanP Voir le message
    Salut à tous,


    Egalement, concernant la baisse de qualité sur des services comme Netflix ou Youtube, c'est bel et bien une demande de Bruxelle pour soulager l'architecture en étoile de la plupart des pays, et non pour atteindre gratuitement la neutralité du web comme implicité ici. D'ailleurs, avec la levée du confinement, l[URL="https://selectra.info/telecom/actualites/acteurs/deconfinement-la-qualite-des-videos-netflix-enfin-restauree"]es services sont revenus à la normale[/URL].
    C'est totalement faux. Source : des milliers d'utilisateurs qui se plaignent quotidiennement auprès des CM Netflix sur Twitter avec comme réponse, "on vous informe bientôt..." Enfin il a fallu qu'une "personnalité" les interpelle pour qu'ils daignent répondre et ce que je constate personnellement en tant qu'abonné Netflix. Donc permets-moi de douter de ton argumentaire

    https://twitter.com/ppgarcia75/statu...75920132661250

  5. #5
    Citation Envoyé par zifox Voir le message
    J'ai du mal à voir le lien entre longueur du chemin / optimisation / saturation.
    Si comme tu le dis tout passe par la capitale, qu'on veuille se connecter à Grenoble ou à San Francisco, on ira de toute façon faire un crochet par Paris, le risque de saturation sera le même.
    Ce n'est pas un simple boucle, c'est une vraie maille, donnant beaucoup/des millions de parcours possible. Ce schéma te permettra de visualiser mieux.
    Par contre, des cables sub-atlantique, il n'y en pas pas autant, 243 et peut-être pas tous pour de l'internet grand public.
    Les points de mutualisation de ces cables sont donc à risque pour la saturation, d'où mon affirmation.

  6. #6
    Citation Envoyé par gnak Voir le message
    C'est totalement faux. Source : des milliers d'utilisateurs qui se plaignent quotidiennement auprès des CM Netflix sur Twitter avec comme réponse, "on vous informe bientôt..." Enfin il a fallu qu'une "personnalité" les interpelle pour qu'ils daignent répondre et ce que je constate personnellement en tant qu'abonné Netflix. Donc permets-moi de douter de ton argumentaire

    https://twitter.com/ppgarcia75/statu...75920132661250
    En effet, j'ai peut-être généralisé un peu vite sur le retour de service. Néanmoins, la lenteur de récupération pour certains utilisateurs semble plus disséminée qu'un problème national comme tu le sous-entends.
    Comme les gens ont tendance à se plaindre pour tout et n'importe quoi, je suis allé regarder vite fait les statistiques Google de fréquence de recherche, il est vrai qu'il y a eu un pic pendant le confinement mais les gens semblent avoir été plus inquiétés à Noël qu'actuellement de la qualité sur Netflix.
    Le gouvernement a clairement indiqué la levée des restrictions. Dire que c'est totalement faux et que ca remet en doute mon argumentaire est un peu rapide, je trouve.

  7. #7
    Citation Envoyé par SnathanP Voir le message
    Ce n'est pas un simple boucle, c'est une vraie maille, donnant beaucoup/des millions de parcours possible. Ce schéma te permettra de visualiser mieux.
    Par contre, des cables sub-atlantique, il n'y en pas pas autant, 243 et peut-être pas tous pour de l'internet grand public.
    Les points de mutualisation de ces cables sont donc à risque pour la saturation, d'où mon affirmation.
    Ben non, ton affirmation comme quoi la distance avait un impact n'a toujours pas de justification. Et ton image montre bien qu'il n'y a pas de goulot d'étranglement au niveau national.
    Si subitement un besoin énorme pour un service arrivait (genre VOD/Streaming), il saturerait en premier les serveurs de ce service, avant qu'on arrive à saturation des fibres (qu'elles soient dans l'atlantique ou le pacifique).
    Ce qui est important c'est pas le nombre de cable, c'est leur débit total.

  8. #8
    Citation Envoyé par SnathanP Voir le message
    En conclusion, je suis très deçu qu'un article comme celui là ait pu partir en prod sans avoir été relu (j'espère qu'il a pas été relu à ce stade) car il souffre d'un manque de journalisme pur avec des symptomes de Net Neutrality Warrior aveugle. Internet n'a jamais existé que pour le business et en est complètement dépendant. Moi aussi j'espère à une équité universelle mais comme le transpire l'ensemble de ces décisions gouvernementales, on met le business en priorité dans des situations à risque. Je n'ai aucun problème à dénoncer cela, mais il faut le faire correctement. Je n'ai pas de problème avec le fond mais la forme.
    Merci de m'avoir lu, en espérant avoir pu faire avancer les choses
    PS: si jamais vous êtes intéressés sur le sujet, j'ai pu écrire un article en collaboration à ce sujet (http://cpc.cx/rS8).
    Je te rejoins complètement, j'ai eu le même sentiment.
    Après, Élucubration, définition : Production déraisonnable, absurde, issue de recherches laborieuses ; divagation, extravagance : On ne peut pas prendre au sérieux ses élucubrations. (Larousse)

  9. #9
    Comment se procurer le dernier HS Canard Hardware svp?
    Tremblez pas comme ça!!Ça fait de la mousse!

  10. #10
    Pour le moment, en kiosque.

    Il revient dans la boutique à la fin de lété, on va récupérer les invendus. Ensuite, plus tard en PDF.

  11. #11
    Dac merci!
    Tremblez pas comme ça!!Ça fait de la mousse!

  12. #12
    Citation Envoyé par SnathanP Voir le message
    ....
    Venant de lire l'article de CPC Hardware, J'allais mettre un commentaire sur le forum pour ... dire finalement exactement la même chose que toi (avec bien moins de talent).
    Donc je ne peux que plussoyer très fort tout ce que tu as dit.

    Néanmoins quitte à ne pas ouvrir 20000 sujets je met le reste de mes commentaires ici sur les autres articles qui m'ont paru un brin hasardeux ou qui manquaient un peu de précision dans ce numéro :

    Spoiler Alert!

    - Dans dossier console p 46 : ça parle du fait que la montée en puissance permettrait aux devs d'offrir de meilleures IAs. Dans l'article c'est anecdotique, mais ce n'est pas la première fois que je rencontre l'affirmation dans CPC. En tant que docteur en IA passionné d'IA dans le JV je pense pouvoir dire qu'a priori il s'agit d'une prédiction qui sera fausse. À ma connaissance, l'IA dans le JV n'a jamais eu de problème de puissance, sauf dans des cas très très spécifiques (pathfinding de milliers d'unités dans les STR). Mais ce n'est pas un problème de puissance qui donne des IA débiles dans le JV, mais bien un problème de fond, qui ne touche pas que le JV, mais aussi tout le monde de la recherche, avec beaucoup d'avancées dans les IA de traitement (agrandissement, débruitage, etc etc...), dans les big data, mais très peu dans les IA comportementales (celles qui intéressent le JV sans le fond).
    Une plus grande puissance dispo ne changera donc rien au problème de fond.

    -Dans « le contact tracing » p 48 :
    En première lecture comme ça je n'ai pas vu ce qui empêcherait le serveur du modèle « décentralisé » de récupérer l'identifiant du portable communicant avec lui. Je ne suis pas compétent dans cette branche, mais il doit bien y avoir une IP, une adresse mac, ce genre de truc. Qu'est-ce qui empêche le serveur de les récupérer a priori sauf un pari sur sa bonne foi ? Et dans ce cas, en quoi ce n'est alors pas du même acabit que la solution centralisée ?
    Par ailleurs, votre commentaire semble à géométrie variable. Vous déployez une saine méfiance sur le fait que code-source != application et que finalement on ne sait pas ce qui sera ou pas dans l'application centralisée, mais sans déployer la même chose du côté de l'application décentralisée (qu'est-ce qui vous assure que les ID stockés en local ne sont véritablement pas communiqués au serveur ? )

    - Dans « La petite histoire du MP3 » :
    il y a pas mal de chose qui me paraissent abusive dans la conclusion page 58. Quand vous faites le point de « ou on en est maintenant » vous mettez aux oubliettes tous les autres codecs. Ce qui était peut-être vrai dans les années 2000, mais ce qui ne l'est plus du tout. Dans le streaming, comme vous le rappelez pourtant très bien dans l'article sur les radios, c'est le format AAC qui est souvent choisi. De façon plus large, dans toutes les vidéos « rippés », qui sont le pendant vidéo aux musiques « mp3» sur le net, c'est, en très large majorité du AAC, et quand ce n'en est pas c'est du OGG du Flac, et plus récemment, de plus en plus, de l'Opus. C'est donc tout un énorme pan de la compression audio que le MP3 ne domine pas ou plus. C'est dommage de ne pas avoir ouvert le sujet sur ce genre de chose en conclusion.
    De façon plus anecdotique, il aurait été intéressant de parler de la conséquence de la généralisation des liaisons haut débit qui donne lieu à de nombreux, et de plus en plus, partage passant par le format sans perte FLAC. Au final ce codec pourtant très en vogue dans les partages d'albums chez les fans de musiques se retrouve relayé à une petite blagounette p58... un peu réducteur je trouve.

    - Dans « Radio numérique terrestre » : j'aurais aimé que le sujet de l'abandon des grandes ondes soit mieux traité. Vous présentez de façon pertinente la raison de l'existence des grandes ondes, l’accès à la radio même dans les coins paumé, pour balayer ceci d'un revers de la main par la phrase « des déserts radiophoniques auquel le DAB+ veut justement apporter une solution en permettant à de nouvelles radios d'avoir accès aux ondes ».
    Je peine à comprendre cette argumentation très étrange : en quoi des zones qui n'intéressaient personne, au point de ne pas construire d'antenne d'émission, seraient impactées par le déploiement d'un système qui permet principalement de multiplier les radios dans les zones déjà engorgées et donc intéressantes.
    De fait, par la suite vous montrez bien que le DAB+ sera en plus : cher à mettre en œuvre, et que l'axe Paris/Marseille/Lyon est celui qui centralise les convoitises.
    C'est dommage de mettre sous le tapis ce qui était une vraie problématique intéressante : l’accès de tous à l'information.

    De même, le fait que ce qui était l'un des récepteurs les plus simples à fabriquer, symbole du partage de l'information pour tous : le récepteur radio, devienne peu à peu un système qui ne sera plus lisible sans puces spécifiques dédiées et qui semble couter cher d'après ce que vous présentez, ne provoque aucun rebondissement de votre part, alors que là encore, c'était un sujet, je pense, central. La radio, en tant que rang le plus bas technologiquement, le moins cher et l'un des plus rustiques moyens de partage technologique de communication, occupe une place à part qui rends le traitement du sujet un peu différent de celui de la télévision et de la TNT.

    - Sur le RTX Voice : toujours ma déformation professionnelle en tant que personne bossant en IA, mais je trouve qu'il aurait été intéressant de rappeler qu'il s'agit d'une technologie somme toute anodine, qui existe depuis très longtemps (l'une des premières à être appliqué en IA il y a quelques dizaines d'années de cela et appliqué dans de nombreux produits « pro »). Ce type de présentation véhicule un peu l'impression que Nvidia a diffusé une techno nouvelle de son cru, alors qu'il serait plus juste de parler d'une implémentation de technologies assez ancienne qui cherche à rentabiliser l'espace de puissance laisser libre par ses « tensors cores ». Une sorte de justification a posteriori de leurs choix technologiques en somme (et on le voit bien avec leur limitation arbitraire même quand la technologie ne profite pas vraiment (encore?) des tensors cores dans son implémentation actuelle).
    Une approche plus « état de l'art » aurait ainsi soulevé d'autres angles d'interrogation que je pense plus intéressante. Par exemple le fait que la technologie utilise 10% de puissance d'un GPU semble surprenant pour ce type de tech au premier abord. De même, si on approche la conception très rapide de ces technologies comme un moyen de justifier des tensors cores, la conclusion changerait légèrement. Il serait ainsi plus probable de voir Nvidia proposer des mises à jour de perf utilisant ses tensors cores mais restreignant l'usage de la technologie (ce qui fait de la pub pour ses RTX), plutôt que de voir ouvrir la technologie. Enfin je trouve... (sauf que ça laisse librement les autres pondre des variantes libre de la tech, ce qui ne sera pas bien difficile, les algos existant déja).
    Pour finir, ce genre de techo existe depuis longtemps et je pense qu'il y a une raison au fait qu'elles ne se sont diffusé que chez quelques professionnels, dans l'industrie etc mais finalement peu chez le grand public. Amha c'est simplement que ce l'apport de la technologie par rapport à la puissance qu'elle demande la restreint automatiquement et favorise des techs plus légères (celles qu'on retrouve dans n'importe quelle carte son digne de ce nom).
    Je pense qu'une interrogation sur l'utilité fondamentale de la chose au regarde de sa puissance serait intéressante dans ce cadre.

    Dernière modification par Nilsou ; 17/07/2020 à 01h41.

  13. #13
    Citation Envoyé par Nilsou Voir le message

    - Dans dossier console p 46 : ça parle du fait que la montée en puissance permettrait aux devs d'offrir de meilleures IAs. Dans l'article c'est anecdotique, mais ce n'est pas la première fois que je rencontre l'affirmation dans CPC. En tant que docteur en IA passionné d'IA dans le JV je pense pouvoir dire qu'a priori il s'agit d'une prédiction qui sera fausse. À ma connaissance, l'IA dans le JV n'a jamais eu de problème de puissance, sauf dans des cas très très spécifiques (pathfinding de milliers d'unités dans les STR). Mais ce n'est pas un problème de puissance qui donne des IA débiles dans le JV, mais bien un problème de fond, qui ne touche pas que le JV, mais aussi tout le monde de la recherche, avec beaucoup d'avancées dans les IA de traitement (agrandissement, débruitage, etc etc...), dans les big data, mais très peu dans les IA comportementales (celles qui intéressent le JV sans le fond).
    Une plus grande puissance dispo ne changera donc rien au problème de fond.
    T'as raison, sauf sur un truc : les cas spécifiques. Y a pleins de trucs, notamment - de fait - les STR qui sont absents des consoles en partie parce que le genre nécessite une puissance de calcul absente. Mais du coup, c'est un peu l'oeuf ou la poule, dans le sens ou le genre est rare parce que les trucs dispos sont mauvais en partie à cause de ça. Après, de ce que j'ai pu discuter avec des devs, y a des choses basiques qu'ils peuvent pas faire sur PS4/Xbox à cause du CPU, parce qu'il est occupé à autre chose.

    On n'a pas et on n'aura pas une "vraie" intelligence, mais le CPU limite clairement tout de même actuellement. Puis honnêtement, je ne sais pas si on veut vraiment un truc intelligent qui lutte efficacement contre nous

    Citation Envoyé par Nilsou Voir le message

    -Dans « le contact tracing » p 48 :
    En première lecture comme ça je n'ai pas vu ce qui empêcherait le serveur du modèle « décentralisé » de récupérer l'identifiant du portable communicant avec lui. Je ne suis pas compétent dans cette branche, mais il doit bien y avoir une IP, une adresse mac, ce genre de truc. Qu'est-ce qui empêche le serveur de les récupérer a priori sauf un pari sur sa bonne foi ? Et dans ce cas, en quoi ce n'est alors pas du même acabit que la solution centralisée ?
    Par ailleurs, votre commentaire semble à géométrie variable. Vous déployez une saine méfiance sur le fait que code-source != application et que finalement on ne sait pas ce qui sera ou pas dans l'application centralisée, mais sans déployer la même chose du côté de l'application décentralisée (qu'est-ce qui vous assure que les ID stockés en local ne sont véritablement pas communiqués au serveur ? )
    Alors, y a pas d'adresse MAC ou d'IP accessibles, déjà. Les réseaux mobiles utilisent la même IP pour pleins de gens et les softs peuvent pas récupérer l'adresse MAC réelle dans la majorité des cas. Après, évidemment, on reste dans la bonne foi : les protocoles utilisés ne doivent pas envoyer les données, les API ne le permettent pas, les sources montrent qu'elles le font pas. Et le trafic, il peut être analysé, et les gens s'en privent pas.

    Il y a beaucoup de barrière dans les applis décentralisées, plus le fait que les données sont rendues anonymes, mais de fait, on doit croire l'API/les sources. Dans le modèle centralisé français (qui est un flop, comme prévu), y a pas de question à se poser : le serveur a les données. Y a pas de question à se poser.

    Citation Envoyé par Nilsou Voir le message

    - Dans « La petite histoire du MP3 » :
    il y a pas mal de chose qui me paraissent abusive dans la conclusion page 58. Quand vous faites le point de « ou on en est maintenant » vous mettez aux oubliettes tous les autres codecs. Ce qui était peut-être vrai dans les années 2000, mais ce qui ne l'est plus du tout. Dans le streaming, comme vous le rappelez pourtant très bien dans l'article sur les radios, c'est le format AAC qui est souvent choisi. De façon plus large, dans toutes les vidéos « rippés », qui sont le pendant vidéo aux musiques « mp3» sur le net, c'est, en très large majorité du AAC, et quand ce n'en est pas c'est du OGG du Flac, et plus récemment, de plus en plus, de l'Opus. C'est donc tout un énorme pan de la compression audio que le MP3 ne domine pas ou plus. C'est dommage de ne pas avoir ouvert le sujet sur ce genre de chose en conclusion.
    De façon plus anecdotique, il aurait été intéressant de parler de la conséquence de la généralisation des liaisons haut débit qui donne lieu à de nombreux, et de plus en plus, partage passant par le format sans perte FLAC. Au final ce codec pourtant très en vogue dans les partages d'albums chez les fans de musiques se retrouve relayé à une petite blagounette p58... un peu réducteur je trouve.
    Ben c'est l'histoire du MP3, pas des autres. Y a des contraintes de place.

    Après, pour les vidéos, c'est AAC maintenant, ça a été longtemps le MP3. Et l'Opus, ça reste assez rare, et y a une bonne raison : s'il est meilleur dans les bas débits (et vraiment meilleurs), pour une qualité correcte de son, on est quand même obligé de passer sur des débits de l'ordre de 128/256 kb/s. Et là, ben c'est assez transparent à l'usage dans tous les cas, donc y a pas de demande forte pour remplacer les autres.

    Et pour le FLAC, en dehors des pirates et de quelques services assez confidentiels (genre Qobuz), ça reste quand même minoritaire.

    Citation Envoyé par Nilsou Voir le message
    - Dans « Radio numérique terrestre » : j'aurais aimé que le sujet de l'abandon des grandes ondes soit mieux traité. Vous présentez de façon pertinente la raison de l'existence des grandes ondes, l’accès à la radio même dans les coins paumé, pour balayer ceci d'un revers de la main par la phrase « des déserts radiophoniques auquel le DAB+ veut justement apporter une solution en permettant à de nouvelles radios d'avoir accès aux ondes ».
    Je peine à comprendre cette argumentation très étrange : en quoi des zones qui n'intéressaient personne, au point de ne pas construire d'antenne d'émission, seraient impactées par le déploiement d'un système qui permet principalement de multiplier les radios dans les zones déjà engorgées et donc intéressantes.
    De fait, par la suite vous montrez bien que le DAB+ sera en plus : cher à mettre en œuvre, et que l'axe Paris/Marseille/Lyon est celui qui centralise les convoitises.
    C'est dommage de mettre sous le tapis ce qui était une vraie problématique intéressante : l’accès de tous à l'information.

    De même, le fait que ce qui était l'un des récepteurs les plus simples à fabriquer, symbole du partage de l'information pour tous : le récepteur radio, devienne peu à peu un système qui ne sera plus lisible sans puces spécifiques dédiées et qui semble couter cher d'après ce que vous présentez, ne provoque aucun rebondissement de votre part, alors que là encore, c'était un sujet, je pense, central. La radio, en tant que rang le plus bas technologiquement, le moins cher et l'un des plus rustiques moyens de partage technologique de communication, occupe une place à part qui rends le traitement du sujet un peu différent de celui de la télévision et de la TNT.
    Alors, c'est pas la rédaction qui l'a écrit, c'est une personne qui travaille justement dans la radio. Le cas des grandes ondes est un peu particulier : c'est extrêmement cher à maintenir. Le coût de base est moins grand, vu qu'il y a qu'une antenne pour un pay entier, mais ça consomme énormément pour pas grand chose finalement, et c'est la raison de l'abandon par les grandes radio, privées ou publiques. Et by the way, l'accès de tous à l'information avec les grandes ondes, faut pas rire : essaye de trouver quelqu'un qui utilise encore ça (ou même qui a un appareil compatible), sans même prendre en compte que de toute façon, c'est que du privé depuis quelques années, donc bon.

    Les radios DAB valent ~50 € pour un truc correct, un poste de radio FM correct est pas tellement moins cher. Alors, oui, on peut en fabriquer un si on est motivé, mais bon.

    Sur le coup, je suis d'ailleurs absolument pas d'accord : la télévision touche bien plus de gens et posent bien plus de soucis d'accès à l'information que la radio et les changements liés à la TNT sont beaucoup plus problématiques. Les changements brutaux avec avec obligation de changer de téléviseur ou d'installer un récepteur dédié touchent bien plus les gens (dans tous les sens du terme) que l'abandon des grandes ondes ou l'ajout d'une technologie (vu que la FM disparaît pas). Le passage en HD de la TNT, c'était écran noir pour un nombre significatif de gens. Les grandes ondes, l'arrêt touche vraiment peu de gens : dans une énorme majorité des cas, y a d'autres technologies disponibles.

    Citation Envoyé par Nilsou Voir le message
    - Sur le RTX Voice : toujours ma déformation professionnelle en tant que personne bossant en IA, mais je trouve qu'il aurait été intéressant de rappeler qu'il s'agit d'une technologie somme toute anodine, qui existe depuis très longtemps (l'une des premières à être appliqué en IA il y a quelques dizaines d'années de cela et appliqué dans de nombreux produits « pro »). Ce type de présentation véhicule un peu l'impression que Nvidia a diffusé une techno nouvelle de son cru, alors qu'il serait plus juste de parler d'une implémentation de technologies assez ancienne qui cherche à rentabiliser l'espace de puissance laisser libre par ses « tensors cores ». Une sorte de justification a posteriori de leurs choix technologiques en somme (et on le voit bien avec leur limitation arbitraire même quand la technologie ne profite pas vraiment (encore?) des tensors cores dans son implémentation actuelle).
    Une approche plus « état de l'art » aurait ainsi soulevé d'autres angles d'interrogation que je pense plus intéressante. Par exemple le fait que la technologie utilise 10% de puissance d'un GPU semble surprenant pour ce type de tech au premier abord. De même, si on approche la conception très rapide de ces technologies comme un moyen de justifier des tensors cores, la conclusion changerait légèrement. Il serait ainsi plus probable de voir Nvidia proposer des mises à jour de perf utilisant ses tensors cores mais restreignant l'usage de la technologie (ce qui fait de la pub pour ses RTX), plutôt que de voir ouvrir la technologie. Enfin je trouve... (sauf que ça laisse librement les autres pondre des variantes libre de la tech, ce qui ne sera pas bien difficile, les algos existant déja).
    Pour finir, ce genre de techo existe depuis longtemps et je pense qu'il y a une raison au fait qu'elles ne se sont diffusé que chez quelques professionnels, dans l'industrie etc mais finalement peu chez le grand public. Amha c'est simplement que ce l'apport de la technologie par rapport à la puissance qu'elle demande la restreint automatiquement et favorise des techs plus légères (celles qu'on retrouve dans n'importe quelle carte son digne de ce nom).
    Je pense qu'une interrogation sur l'utilité fondamentale de la chose au regarde de sa puissance serait intéressante dans ce cadre.
    Sur le coup, tu sembles quand même oublier un truc : c'est en gros la première implémentation grand public un peu large. Que ça existe depuis longtemps ou pas, c'est un détail, dans le sens ou c'était pas vraiment accessible. Parce que le public, il a bien trouvé l'utilité de la chose, c'est une évidence.

  14. #14
    Citation Envoyé par Dandu Voir le message
    T'as raison, sauf sur un truc : les cas spécifiques. Y a pleins de trucs, notamment - de fait - les STR qui sont absents des consoles en partie parce que le genre nécessite une puissance de calcul absente. Mais du coup, c'est un peu l'oeuf ou la poule, dans le sens ou le genre est rare parce que les trucs dispos sont mauvais en partie à cause de ça.
    Ouais enfin bon, les STR ont disparut ou presque, même sur PC, pour d'autres raison que l'IA je pense

    Citation Envoyé par Dandu Voir le message
    On n'a pas et on n'aura pas une "vraie" intelligence, mais le CPU limite clairement tout de même actuellement. Puis honnêtement, je ne sais pas si on veut vraiment un truc intelligent qui lutte efficacement contre nous
    Amha on peut tout à fait avoir des trucs qui sont très intelligents. Pas dans le sens « capable de nous battre à tout les coups » mais dans le sens : « réagit comme un humain ou un animal » . C'est simplement que cette branche de l'IA est en retrait parmis les autres et que les concepteurs de jeux ne sont absolument pas formé dans cette branche.

    Citation Envoyé par Dandu Voir le message
    Alors, y a pas d'adresse MAC ou d'IP accessibles, déjà. Les réseaux mobiles utilisent la même IP pour pleins de gens et les softs peuvent pas récupérer l'adresse MAC réelle dans la majorité des cas. Après, évidemment, on reste dans la bonne foi : les protocoles utilisés ne doivent pas envoyer les données, les API ne le permettent pas, les sources montrent qu'elles le font pas. Et le trafic, il peut être analysé, et les gens s'en privent pas.
    Il y a beaucoup de barrière dans les applis décentralisées, plus le fait que les données sont rendues anonymes, mais de fait, on doit croire l'API/les sources. Dans le modèle centralisé français (qui est un flop, comme prévu), y a pas de question à se poser : le serveur a les données. Y a pas de question à se poser.
    Ok c'est compris. Ceci dit je ne pense pas que le flop soit dut au modèle centralisé ou décentralisé pour le coups


    Citation Envoyé par Dandu Voir le message
    Et pour le FLAC, en dehors des pirates et de quelques services assez confidentiels (genre Qobuz), ça reste quand même minoritaire.
    Ouais enfin, quand vous retracez l'histoire du MP3 vous retracez l'histoire du piratage pour expliquer le succès de ce format, tu ne peut pas contre-argumenter sur le FLAC en disant que c'est des pirates donc que c'est pas très important alors que tout le truc autour du l'usage du MP3 s'est bâti sur le piratage

    Citation Envoyé par Dandu Voir le message
    Sur le coup, tu sembles quand même oublier un truc : c'est en gros la première implémentation grand public un peu large. Que ça existe depuis longtemps ou pas, c'est un détail, dans le sens ou c'était pas vraiment accessible. Parce que le public, il a bien trouvé l'utilité de la chose, c'est une évidence.
    Sauf qu'Amha la raison initiale qui fait que ça n'a jamais atteint le grand public c'est que c'est finalement peu utile, un peu gadget et que ça consomme trop par rapport au service rendu. Des points qui n'ont pas évolué avec l'implémentation de Nvidia.
    De nombreuses boites proposent des services pour virer le bruit plus ou moins efficacement à divers clients (industrie, pro etc.) ou l’intègre tout naturellement dans leur chaine. Mais j'ai l'impression que la raison initiale qui fait que ça a peu percé dans le grand public c'est que ça reste une petite optimisation de rien du tout, qui ne change fondamentalement pas grand chose et pour une minorité de cas. (les cas ou l'on enregistre dans des conditions de merde sont quand même rare en dehors de .. pro justement (journaliste et autre)).
    Amha, une fois le vent de hype passé, ça va vite tomber aux oubliettes. Enfin c'est mon impression.

  15. #15
    Citation Envoyé par Nilsou Voir le message

    Sauf qu'Amha la raison initiale qui fait que ça n'a jamais atteint le grand public c'est que c'est finalement peu utile, un peu gadget et que ça consomme trop par rapport au service rendu. Des points qui n'ont pas évolué avec l'implémentation de Nvidia.
    De nombreuses boites proposent des services pour virer le bruit plus ou moins efficacement à divers clients (industrie, pro etc.) ou l’intègre tout naturellement dans leur chaine. Mais j'ai l'impression que la raison initiale qui fait que ça a peu percé dans le grand public c'est que ça reste une petite optimisation de rien du tout, qui ne change fondamentalement pas grand chose et pour une minorité de cas. (les cas ou l'on enregistre dans des conditions de merde sont quand même rare en dehors de .. pro justement (journaliste et autre)).
    Amha, une fois le vent de hype passé, ça va vite tomber aux oubliettes. Enfin c'est mon impression.
    Je ne pense pas. Perso pouvoir supprimer le son de mon clavier mécanique pour les personnes avec qui j’intéragis, c’est loin d’être un luxe.

  16. #16
    Sur le dernier point, je doute, ou alors t'as raté le fait que vraiment (beaucoup) de gens streament sur Twitch and co, et que dans ce cas là, ça aide pas mal.

  17. #17
    Hum OK, perso j'ai comme un doute que ça vaille le prix calculatoire de la tech et que ça suffise à l'imposer.
    Et ça me parait quand même bien un luxe qui peut tomber vite dans l'oublie, mais on verra bien.

    Quant à la technologie elle même : Si il ne s'agit que du bruit de clavier mécanique par exemple, amha de simples filtres fréquentielles peu couteux calculatoirement doivent donner un très bon résultat. Inutile de faire tourner un réseau ultra-couteux calculatoirement.
    À vrai dire, même en réseau de neurone, un simple réseau de neurone filtrant sur une décomposition fréquentielle, extrêmement peu couteux (même en CPU) donne déjà un résultat bien suffisant pour virer ce genre de bruit très simple. La consommation du réseau de Nvidia me parait ahurissante pour ce qu'il fait...

    Note que si vous avez raison et que ça accroche dans l'usage, le résultat de tout ça, amha, c'est que les fabricants de carte son, entres autres, vont très vite proposer leurs alternatives perso, tant ces algos sont très banals...

  18. #18
    Ben non, parce que personne a de carte son.

    Faut pas oublier que la majorité des ventes, c'est des PC portables, et que dans les desktop, les ventes de carte dédiée, c'est peanuts. Vu la puissance limitée des codecs realtek classiques, je doute que ça arrive dans la puce elle-même, et si c'est une implémentation sur le CPU, ça a pas tellement d'intérêt.

    Et de toute façon, ça filtre pas uniquement le clavier, c'est efficace sur vraiment pleins de cas, même si ça donne parfois un petit effet salle de bain. Les gens qui savent filtrer correctement au départ et s'équiper pour éviter les bruits parasites, c'est pas la cible. Ici, c'est vraiment pour le joueur lambda, qui va installer ça et va avoir un résultat propre et rapide sans trop de contraintes. Parce que même si les chiffres paraissent élevés sur l'usage GPU, faut pas oublier qu'avec une RTX, t'es largement au-delà de la puissance nécessaire pour jouer à 60 fps dans la majorité des cas (en gros, ce qu'on a besoin), donc la perte est même pas réellement visible.

  19. #19
    J'avais lu ce fil twitter d'un opérateur.
    Il y avait également eu ce message sur framablog.

    Et j'ajoute que, comme dit par gnak, heureusement que l'on passe pas tous par Paris pour accéder à Internet. Il y a d'autres points d'échanges même si il est vrai que les plus important sont à Paris.
    Pour moi, si il y a eu saturation, ce sont plus les serveurs et non les tuyaux qui sont en cause.

    L'article en soi ne m'avait donc pas choqué et même plutôt conforté dans mon opinion.

    Et à titre personnel, dans l'entreprise où je travaille, tous les collaborateurs ont été en télétravail (VPN) et notre ligne Internet n'a pas vraiment plus consommé de bande passante. Ce qui a été utilisé pour l'accès aux ressources internes au réseau de l'entreprise a été libéré par la bande passante prise habituellement pour le Internet (outils cloud) depuis le réseau d'entreprise. Par contre, je te confirme que les employés avec des lignes Internet merdiques l'ont sentis passer. De même que ceux en ADSL avec l'upload limité à 1Mb/s par rapport au 200Mb/s de l'entreprise. Vive la fibre !

  20. #20
    Citation Envoyé par Dandu Voir le message
    Et de toute façon, ça filtre pas uniquement le clavier, c'est efficace sur vraiment pleins de cas, même si ça donne parfois un petit effet salle de bain. Les gens qui savent filtrer correctement au départ et s'équiper pour éviter les bruits parasites, c'est pas la cible. Ici, c'est vraiment pour le joueur lambda, qui va installer ça et va avoir un résultat propre et rapide sans trop de contraintes. Parce que même si les chiffres paraissent élevés sur l'usage GPU, faut pas oublier qu'avec une RTX, t'es largement au-delà de la puissance nécessaire pour jouer à 60 fps dans la majorité des cas (en gros, ce qu'on a besoin), donc la perte est même pas réellement visible.
    Le cœur de cible est un peu restreint du coups : les joueurs, très bien équipés (parce que RTX et puissance nécessaire), mais pas trop (sinon ils auraient du bon matos d'enregistrement et une carte son) et qui stream.
    Je reconnais que ça fait une population, mais ça me parait quand même très niche tout ça.

  21. #21
    Bah non, justement. Il parle de tous les joueurs qui veulent virer des bruits parasites sans trop perdre de perf et s'installer une table de filtrage ou une carte son.

  22. #22
    Les gens qui font du streaming précise t-il. Franchement la qualité audio pour ta communication dans un jeux multi c'est pas vraiment le truc prioritaire pour la majorité des joueurs.
    Donc il te reste, les mecs pointilleux qui communique beaucoup sur les jeux multi et les gens qui font du streaming MAIS qui ont un très bon matos (mais pas suffisamment bon sur la partie sonore pour disposer de filtres pré-existant efficace, de carte son dédiées etc.).

    Là tout de suite, ça fait une petite population, mais ça reste un truc de niche quand même par rapport à la majorité des joueurs, amha...

  23. #23
    Citation Envoyé par Nilsou Voir le message
    Néanmoins quitte à ne pas ouvrir 20000 sujets je met le reste de mes commentaires ici sur les autres articles qui m'ont paru un brin hasardeux ou qui manquaient un peu de précision dans ce numéro :
    +1, c'est le côté hasardeux qui me gêne ces derniers temps sur CPCHW.

    Par exemple, je suis resté sur ma faim sur le cloud gaming : ça me dit le "quoi", pas pas le "comment".
    Il n'y a plus les explications d'auparavant : après un tel article, je ne peux que répéter bêtement un truc sans jamais le comprendre vraiment, on se cultive certes mais on n'apprend plus, alors que le début des explications sur les macro blocs etc. donnait envie d'aller vraiment plus loin : je ne vous blâme pas, sans doute faut-il s'adresser à un public suffisamment large, mais je crois que si l'on vous aime c'est justement parce que vous nous rendez plus intelligent

    Pour l'article sur Internet, ça m'a fait mal car je connais un peu le sujet.
    Et ce sujet est ultra complexe et de le résumer ainsi, c'est juste (au moins) pas cool pour celles et ceux qui ont travaillé dur pour que le réseau en France garde la même QoS en période de confinement qu'en période "normale", cela ne se fait pas / ne s'est pas fait tout seul et on est loin des problématiques basiques de serveurs qui seraient à genoux sous le coup de requêtes HTTP, m'enfin.

    Sinon j'ai un doute, page 62 :
    "Quel que soit le service ou le titre, la réactivité n'équivalera pas le jeu en "local"" => équivalera... ça se dit ?

  24. #24
    Oui, enfin pour l'élucubration, faut être honnête : l'arrivé de Disney+ allait pas (et a pas quand c'est arrivé) posé de soucis.

    La raison, c'est quand même un gros lobying d'Orange (notamment) pas content que Disney travaille avec Canal+ en OTT uniquement, et c'était un essai pour tenter un coup de force avec Disney.

    Et c'est une élucubration, un avis personnel, pas présenté comme un article, avec un avis.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •