Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 11 sur 16 PremièrePremière ... 345678910111213141516 DernièreDernière
Affichage des résultats 301 à 330 sur 467
  1. #301
    Ca c'est bien les ingés qui parlent beaucoup avec de grands mots et des stats a tout va sans vraiment tester pour voir si ca explose. Allez, laissez un peu la place aux techos.

    Actuellement il y a beaucoup de logiciels de Super Resolution qui se tapent dessus pour dire c'est nous les meilleurs, si vous avez vu mon message en page 9 il y a par exemple waifu2x. Mais bon ca date d'il y a un an et franchement il y a eu du progrès de mon côté et du côté technique.
    Pour faire un rapide tour d'horizon par ordre croissant de qualité:

    * - waifu2x (2015) : c'est vieux, le model n'a pas été mis jours depuis. Bon pour les visages d'anime, mais mauvais pour le reste. a tendance a étaler les pixels mal gré son filtre sharp et denoise qui ne sont pas si mauvais que ca. Je ne le recommande plus du tout.
    * - video2x (2019) : basé sur waifu2x avec ses avantages et désavantages, mais propose un gui à la place du CLI avec le support de vulkan et ncnn (GPU AMD supportés). C'est le mieux que vous pourrez trouver avec w2x.
    - - NNEDI3CL (2017) : filtre pour vapoursynth. Le plus rapide de tous avec la pire qualité, mais si tu rajoutes quelques autres filtres tu peux te retrouver avec un résultat convenable très rapidement.
    - - Anime4K (2019) : shader opengl, pas la meilleure qualité mais c'est du temps réel.
    * - ESRGAN (2018) : upscale correctement a peu près tout en x4.
    * - USRNET (2020) : - trop récent pas encore testé par la communauté d'upscale -
    - - Gigapixel AI (2020) : gère mal les animes, pour ce qui est image réelle et vidéo les résultats sont bons.
    * - ESRGAN custom model (2020) : manque plus que la vidéo mais gère tout bien en x4. le top du top actuellement
    - - MMEDIT (2020) : par la même équipe que ESRGAN, gère image et vidéo, supporte inpainting, matting, super-resolution et generation, tout les avantages de esrgan mais en mieux. a l'heure de ce message il est encore en importation sur github. - trop récent pas encore testé par la communauté d'upscale -

    * = ne garde pas en mémoire la temporalité des frames. effet de clignotement sur les vidéos. non recommandé pour de la vidéo mais on fait avec.
    j'ai du en louper et les dates fournies sont celles des models ou des logiciels. a prendre à la louche.


    bref qu'est-ce que ca donne au final. Prenons justement waifu2x et ESRGAN:

    Turii ~Panta Rhei~
    de la série BEMANI, merci de regarder avec la meilleure qualité disponible, youtube transcode mal les vidéos.

    - original: (j'avais la source sans le gameplay)

    640x480

    - waifu2x:

    1280x960

    - esrgan:

    2560x1920


    voilà où on en est actuellement.
    Les entraînements sont plutôt rapide où un résultat viable est atteint après 40h avec une GTX 1080, ce qui est plutôt intéressant.

  2. #302
    Citation Envoyé par Sunseille Voir le message
    Ca c'est bien les ingés qui parlent beaucoup avec de grands mots et des stats a tout va sans vraiment tester pour voir si ca explose. Allez, laissez un peu la place aux techos.


    Tu m'excuseras mais faire tourner ma CG 40h pour upscaler un animé que je trouve déjà très joli en bluray, à part nourrir l'entropie et me faire crever de chaud dans mon salon, je ne vois pas l'intérêt.

    Sinon je veux bien que tu m'expliques ce qu'est un "ingé" et ce qu'est un "techos", juste pour voir comment tu ranges les gens dans des cases. Je suis curieux, éclaire-moi.



    @Nilsou :
    Ce que j'en retiens surtout de ce que tu me dis, c'est que vous essayez de faire tourner des trucs qui ne sont pas faits, par essence, pour tourner sur GPU.
    On parle quand même d'une architecture SIMD, dès sa conception c'est prévu pour faire du calcul parallèle.
    Nvidia aura beau tordre son archi pour essayer de gratter de la perf, ça restera du SIMD... ou alors, ça deviendra tout pourri pour faire du rendu. C'est un peu con, c'est prévu pour jouer à la base.

  3. #303
    Votre discussion me fait penser à une des dernières vidéo de LinusTechTips qui à testé le Comino Grando RM avec un AMD ThreadRipper et 4 RTX 2080ti conçu pour le rendu 3D et l'IA(voire le montage vidéo).

    Son prix? seulement 15k€.


  4. #304
    Citation Envoyé par Sunseille Voir le message
    Pour faire un rapide tour d'horizon par ordre croissant de qualité:

    * - waifu2x (2015) : c'est vieux, le model n'a pas été mis jours depuis. Bon pour les visages d'anime, mais mauvais pour le reste. a tendance a étaler les pixels mal gré son filtre sharp et denoise qui ne sont pas si mauvais que ca. Je ne le recommande plus du tout.
    * - video2x (2019) : basé sur waifu2x avec ses avantages et désavantages, mais propose un gui à la place du CLI avec le support de vulkan et ncnn (GPU AMD supportés). C'est le mieux que vous pourrez trouver avec w2x.
    - - NNEDI3CL (2017) : filtre pour vapoursynth. Le plus rapide de tous avec la pire qualité, mais si tu rajoutes quelques autres filtres tu peux te retrouver avec un résultat convenable très rapidement.
    - - Anime4K (2019) : shader opengl, pas la meilleure qualité mais c'est du temps réel.
    * - ESRGAN (2018) : upscale correctement a peu près tout en x4.
    * - USRNET (2020) : - trop récent pas encore testé par la communauté d'upscale -
    - - Gigapixel AI (2020) : gère mal les animes, pour ce qui est image réelle et vidéo les résultats sont bons.
    * - ESRGAN custom model (2020) : manque plus que la vidéo mais gère tout bien en x4. le top du top actuellement
    - - MMEDIT (2020) : par la même équipe que ESRGAN, gère image et vidéo, supporte inpainting, matting, super-resolution et generation, tout les avantages de esrgan mais en mieux. a l'heure de ce message il est encore en importation sur github. - trop récent pas encore testé par la communauté d'upscale -

    * = ne garde pas en mémoire la temporalité des frames. effet de clignotement sur les vidéos. non recommandé pour de la vidéo mais on fait avec.
    j'ai du en louper et les dates fournies sont celles des models ou des logiciels. a prendre à la louche.
    Tu aurais du ajouter Video Enhance AI, pour comparer. La version Trial de 30 j n'a aucune limitation de fonctionnalités et permet de faire de l'upscale jusqu'au 8K (ou 600% max si on veut conserver le ratio de la vidéo en 4:3 et autres).

    Sinon, voici le résultat sur Conflict Freespace The Great War

    ORIGINAL en 640x320


    UPSCALE en 2880x1440 via Video Enhance AI avec le modèle Theia Detail
    Dernière modification par MetalDestroyer ; 12/07/2020 à 13h40.

  5. #305
    Citation Envoyé par revanwolf Voir le message
    Votre discussion me fait penser à une des dernières vidéo de LinusTechTips qui à testé le Comino Grando RM avec un AMD ThreadRipper et 4 RTX 2080ti conçu pour le rendu 3D et l'IA(voire le montage vidéo).

    Son prix? seulement 15k€.
    My gad, c'est ultra bourrin comme machine et le "pire" c'est qu'ils ont bien géré ça niveau form-factor et refroidissement

    Je suis allé voir sur le site, du coup, et ils ont aussi ça :
    "MOBILE DATACENTER CONTAINER —
    AN ULTIMATE SOLUTION FOR QUICK DEPLOYMENT"


    Les mecs te livrent des datacenter dans des containers, prêts à l'emploi.

    Ce sont des malades... j'adore

  6. #306
    Citation Envoyé par Taro Voir le message
    My gad, c'est ultra bourrin comme machine et le "pire" c'est qu'ils ont bien géré ça niveau form-factor et refroidissement
    Et tout ça sans faire trop de bruit, merci les alims Seasonic SFX.

  7. #307
    Citation Envoyé par Taro Voir le message
    Tu m'excuseras mais faire tourner ma CG 40h pour upscaler un animé que je trouve déjà très joli en bluray, à part nourrir l'entropie et me faire crever de chaud dans mon salon, je ne vois pas l'intérêt.
    Ah non, 40h c'est l’entraînement. Tu dois en plus compter 50h pour l'upscale frame par frame de ta vidéo (de 25min).

    Mais si tu veux le but c'est pas d'upscale ton anime qui est déjà en HD, mais de restaurer "à la manière de" de vielles vidéos ou textures.
    Cette vidéo en exemple esrgan est beaucoup utilisé pour la refonte de vielles textures ou vidéos de jeux vidéo.


    D'un point de vu commercial, crunchyroll utilise maintenant video2x pour upscale à la volée leur anime proposés sur leur site. Tandis que l'autre si tu regarde le BR de cendrillon ou de Akira en 4K tu peux te demander certaines choses sur la manière dont les boites upscale leur produits.
    Ce domaine a du potentiel et les technos bougent pas mal, c'est intéressant d'y garder un œil.

    Pour ce qui est du commentaire il était plus la pour amorcer la présentation software de ce qui se fait, que de réellement apporter quelque chose a la discussion hardware.



    Citation Envoyé par MetalDestroyer Voir le message
    Tu aurais du ajouter Video Enhance AI]
    Pour moi VIdeo Enhance AI c'est la même que Gigapixel. M'enfin de ce qui a été testé, pour ce qui a des textures un peu réel c'est top, mais pour de l'anime c'est pas la joie, sans compter que l'on peut remarquer du gros DNR un peu partout quand ca upscale.
    Je passe mon tour sur ce Topaz Labs, le DNR c'est un non pour moi.

  8. #308
    Citation Envoyé par Sunseille Voir le message
    bref qu'est-ce que ca donne au final. Prenons justement waifu2x et ESRGAN:

    Turii ~Panta Rhei~
    de la série BEMANI, merci de regarder avec la meilleure qualité disponible, youtube transcode mal les vidéos.

    - original: (j'avais la source sans le gameplay)


    - waifu2x:


    - esrgan:



    voilà où on en est actuellement.
    Les entraînements sont plutôt rapide où un résultat viable est atteint après 40h avec une GTX 1080, ce qui est plutôt intéressant.
    La petite nuance sur toutes ces comparaisons, c'est que pour être juste sur la qualité de l'upscale il faudrait à chaque fois comparer avec un algorithme état de l'art non IA. Genre le classique Lanczos, par exemple.
    Et en général ce n'est absolument pas fait comme ça les comparaisons.

    Bon et sinon, je ne suis pas ingé, je suis chercheur en IA . Enfin si, je suis aussi ingé, mais je suis surtout docteur en IA

    - - - Mise à jour - - -

    Citation Envoyé par Taro Voir le message
    @Nilsou :
    Ce que j'en retiens surtout de ce que tu me dis, c'est que vous essayez de faire tourner des trucs qui ne sont pas faits, par essence, pour tourner sur GPU.
    On parle quand même d'une architecture SIMD, dès sa conception c'est prévu pour faire du calcul parallèle.
    Nvidia aura beau tordre son archi pour essayer de gratter de la perf, ça restera du SIMD... ou alors, ça deviendra tout pourri pour faire du rendu. C'est un peu con, c'est prévu pour jouer à la base.
    Bah, c'est pas totalement faux.
    Après avec certains modèles de réseaux de neurones c'est parfaitement adaptable (quand tu fait des réseaux qui ne prennent que des ensembles locaux de la couche précédentes). Parce qu'en soit les neurones c'est parfaitement indépendants les uns des autres.
    Le problème c'est que le machine learning à pris la mauvaise habitude de faire du réseau de neurone de matheux et le résultat c'est un truc ultra-connecté et qui marche mal quand tout tourne de façon desynchronisée.

    L'autre soucis c'est que même si un neurone est indépendant, il a quand même besoin des accès mémoires vers les couches antérieures, potentiellement vers toute la couche antérieure. Et là c'est un peu la merde sur le pipeline standard GPU. Mais heureusement ça s'améliore, sur des GPU modernes ça devient de plus en plus performant de faire ce genre de chose. Mais ouais en réalité dans l'idéal ce qu'on voudrais c'est plutôt un FPGA avec des résistance modifiables

    Mais ouais pour Nvidia j'étais aussi un peu dubitatif, j'avais même ouvert un topic pour ça à l'époque sur hardware advanced. Il s’avère au final que leur tensor core peuvent être utilisé pour pas mal d'autres trucs donc pourquoi pas. Mais on voit bien avec les versions supers de leurs CG que ça n'a pas totalement accroché leur idée.

    - - - Mise à jour - - -

    Citation Envoyé par Sunseille Voir le message
    Ah non, 40h c'est l’entraînement. Tu dois en plus compter 50h pour l'upscale frame par frame de ta vidéo (de 25min).
    L'entrainement est fait sur la vidéo elle même ? intéressant.
    Dernière modification par Nilsou ; 12/07/2020 à 15h52.

  9. #309
    Citation Envoyé par revanwolf Voir le message
    Et tout ça sans faire trop de bruit, merci les alims Seasonic SFX.
    J'en veux un pour mon anniversaire. D'après mon calcul, à mon rythme actuel d'augmentation salariale annuelle, je devrais pouvoir m'en auto-offrir un pour mes 865 ans.
    J'ai tellement hâte !


    Wait, mais... ce sera peut-être complètement dépassé d'ici là.

    Ou alors, il n'y aura plus d'humains sur la planète (parce que la prise massive de congés pour jouer à Cyberpunk 2077 aura déséquilibré l'entièreté de l'économie mondiale et plongée l'humanité dans le chaos).


    Citation Envoyé par Sunseille Voir le message
    Ah non, 40h c'est l’entraînement. Tu dois en plus compter 50h pour l'upscale frame par frame de ta vidéo (de 25min).

    Mais si tu veux le but c'est pas d'upscale ton anime qui est déjà en HD, mais de restaurer "à la manière de" de vielles vidéos ou textures.
    Ah, mais complètement, ça a très certainement son intérêt pour du remaster propre à "moindres frais" (une fois l'apprentissage au point, je veux dire).
    Mais du coup, je ne pense pas avoir besoin de faire tourner ça sur mon GPU. Puisqu'en théorie, ce sont les distributeurs qui me vendent mes blouraies qui doivent s'occuper de faire remasteriser les originaux.


    Cela dit 50h d'upscale pour une pauvre vidéo c'est quand même chaud. Raison de plus pour que ce soit fait une fois, puis distribué. Sinon, panpan entropie...

    Mais on est d'accord c'est une utilisation intéressante et concrète du matos et de l'IA.
    Parce qu'à côté de ça, comme c'est à la mode, on essaie d'en coller de partout, pas toujours à bon escient.

  10. #310
    Citation Envoyé par Sunseille Voir le message
    Pour moi VIdeo Enhance AI c'est la même que Gigapixel. M'enfin de ce qui a été testé, pour ce qui a des textures un peu réel c'est top, mais pour de l'anime c'est pas la joie, sans compter que l'on peut remarquer du gros DNR un peu partout quand ca upscale.
    Je passe mon tour sur ce Topaz Labs, le DNR c'est un non pour moi.
    C'est quoi DNR ?

  11. #311
    Citation Envoyé par Taro Voir le message
    Mais on est d'accord c'est une utilisation intéressante et concrète du matos et de l'IA.
    Parce qu'à côté de ça, comme c'est à la mode, on essaie d'en coller de partout, pas toujours à bon escient.
    Après l'upscale ça a ses limites hein. Tu pourra jamais inventer à 100% de l'info « non devinable » perdue. Le réseau il joue au devinette, mais ça reste de la devinette. Par ailleurs le résultat peut être très différent d'un travail pro. Prenons le trait qui entoure le dessin des personnages dans l'animation. Sur une vidéo agrandie « idéale » la largeur du trait sera agrandie de même. Sauf qu'en réalité si on voulait faire bien il faudrait la laisser faible pour obtenir des traits fins. Les artistes originaux n'ont pas fait plus fin parce que la faible densité de pixel venait limiter leur taf, mais sur une vidéo avec bien plus de définition ils n'auraient pas fait ainsi.
    On voit bien ici les limites de l'agrandissement via IA.

    Sans parler du soucis des espaces de couleurs. Les espaces couleurs d'un DVD sont restreint et jamais un réseau ne pourra deviner l'intention de l’artiste pour utiliser pleinement les couleurs de sortie. Ça c'est le taf d'un pro, voir du studio d'origine.
    Dernière modification par Nilsou ; 12/07/2020 à 16h21.

  12. #312
    @Nilsou : tu veux dire que c'est comme au "Qui est-ce ?"
    "Est-ce que ton pixel a plus de rouge que de bleu ? Est-ce que ton pixel a un chapeau ?"

    Que tout soit automatisé ou pas, peu m'importe, je laisse aux distributeurs le soin de nous pondre des blouraies convaincants.
    Des fois c'est pas foufou, ces soi-disant remasters, mais au global pour l'instant je suis satisfait.

  13. #313
    Citation Envoyé par Taro Voir le message
    @Nilsou : tu veux dire que c'est comme au "Qui est-ce ?"
    "Est-ce que ton pixel a plus de rouge que de bleu ? Est-ce que ton pixel a un chapeau ?"
    Bah c'est un peu ça. Tu a une couche de noyaux qui mimes vaguement les aires visuelles du cerveau et qui, grosso-modo, détecte des formes élémentaires dans un petit carré de pixel. Ensuite voila, il a associé le fait qu'un petit chapeau, quand tu l'agrandit, ça donne un grand chapeau
    Rien de très sorcier.

    Après tu raffine, tu lui donne plus de pixel autour, ou tu lui donne la même zone dans les images précédentes sur une vidéo, ou tu fait l'apprentissage sur un ensemble d'image ou de vidéo qui colle avec la vidéo ou l'image que tu veut agrandir.

    Dans tout les cas c'est toujours grosso-modo la même chose.

  14. #314
    Citation Envoyé par MetalDestroyer Voir le message
    C'est quoi DNR ?
    Noise* j'ai écrit à la va vite
    si tu veux, dans l'upscale de vidéo ca va rajouter des pixels qui n'existent pas donc des données en plus. Des fois ca calque le bruit et ca en rajoute beaucoup trop pensant que c'était comme ca dans l'original. Y'a un gars sur youtube qui aime bien upscale des intro de jeux vidéo, le résultat est bon mais en contrepartie t'as tellement de bruit de partout que t'as l'impression qu'il y'a des vers sur la vidéo, ca m'a coupé l'envie de suivre la méthode qu'il employait. Heureusement on le voit pas trop sur ta vidéo, ptet que le nouveau model de Video Enhance a corrigé ca, ils en ont sorti un nouveau y'a pas longtemps.

    Bref quoi qu'il arrive des vidéos avec trop de bruit (noise) ou dnr (digital noise reduction) -ou n'importe quel filtre trop puissant - c'est non.

  15. #315
    Oui, Topaz vient juste de sortir leur nouvelle version de Video Enhance AI (1.3.8). On a maintenant 6 modèles d'IA, contre 4 dans la version précédente (1.2.3).
    Avec leur 2 nouveaux modèles, on peut paramétrer 3 options, chose qu'on ne peut pas sur les autres modèles. Mais, ce n'est pas évident de les régler pil poil comme il faut. Par exemple, sur une des vidéos que j'ai faite, l'appli a confondu avec un vrai détail en croyant être du bruit alors que ce n'est pas le cas.

  16. #316
    En vrai pour le bruit il faudrait déjà faire une première passe d'une IA qui jartent le bruit sur la vidéo. En soit ce sont des IA très efficaces sur les vidéos car la succession d'image permet de repérer le bruit des autres détails à coups sur.

    Le plus opti serait donc de faire d'abord ce pré-travail sur la vidéo d'origine avant d'appliquer l'agrandissement. Mais je vous dit pas le temps de calcul en tout du coups

  17. #317
    Citation Envoyé par Taro Voir le message
    @Nilsou :
    Ce que j'en retiens surtout de ce que tu me dis, c'est que vous essayez de faire tourner des trucs qui ne sont pas faits, par essence, pour tourner sur GPU.
    On parle quand même d'une architecture SIMD, dès sa conception c'est prévu pour faire du calcul parallèle.
    Nvidia aura beau tordre son archi pour essayer de gratter de la perf, ça restera du SIMD... ou alors, ça deviendra tout pourri pour faire du rendu. C'est un peu con, c'est prévu pour jouer à la base.
    D'un autre côté, nvidia fait aussi son beurre en vendant des palettes entières de ses cartes les plus chères (on parle pas de GTX de pauvre à 1000€ ) pour remplir les super-calculateurs, donc des machines qui seront utilisées pour faire du calcul scientifique. Il faut bien qu'ils réussissent à adapter leur archi pour que ça fonctionne bien sinon plus personnes ne voudra leur filer de gros paquets de miyons de dollars !
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  18. #318
    Surtout que t'a pleins de pans de la recherche qui tente de pondre un matériel spécifique pour l'IA ou qui tente d'adapter les FPGA. Tant d'argent qui pourrait sortir du girons de Nvidia, ça doit leur faire froid dans le dos , alors ils prennent les devants

  19. #319
    Citation Envoyé par Nilsou Voir le message
    Surtout que t'a pleins de pans de la recherche qui tente de pondre un matériel spécifique pour l'IA ou qui tente d'adapter les FPGA. Tant d'argent qui pourrait sortir du girons de Nvidia, ça doit leur faire froid dans le dos , alors ils prennent les devants
    Ah mais qu'ils arrêtent de faire de l'IA ça m'arrange, moi je fais du HPC, et ça devient gonflant depuis deux ou trois ans dès que ça parle de calcul sur GPU il n'y en a plus que pour le deep learning.
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  20. #320
    De même j'aimerais bien qu'ils arrêtent que le prix des GPU baissent un peu.

  21. #321
    Citation Envoyé par Lazyjoe Voir le message
    Ah mais qu'ils arrêtent de faire de l'IA ça m'arrange, moi je fais du HPC, et ça devient gonflant depuis deux ou trois ans dès que ça parle de calcul sur GPU il n'y en a plus que pour le deep learning.
    Mais ouais. Un GPU c'est là pour faire de l'encodage vidéo et du rendu

  22. #322
    Citation Envoyé par Taro Voir le message
    Mais ouais. Un GPU c'est là pour faire de l'encodage vidéo et du rendu
    L'encodage c'est déjà un usage détourné en mode GPGPU !
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  23. #323
    Citation Envoyé par Lazyjoe Voir le message
    L'encodage c'est déjà un usage détourné en mode GPGPU !
    Du décodage alors

  24. #324
    Citation Envoyé par Lazyjoe Voir le message
    L'encodage c'est déjà un usage détourné en mode GPGPU !
    Extrémiste ! Radicalisé ! Viens m'le dire en face, si tu l'oses ?!

  25. #325
    Citation Envoyé par Taro Voir le message
    Extrémiste ! Radicalisé ! Viens m'le dire en face, si tu l'oses ?!
    Bon je trolle un peu... Voire même beaucoup vu qu'en vérifiant cette histoire il y a des chips dédiés à l'encodage depuis quelques années sur les cartes.

    Mais bon, même le décodage n'est apparu que relativement tardivement sur les cartes graphiques. A l'époque des DVD on pouvait même s'équiper d'une carte accélératrice pour le décodage du MPEG2 car les cartes graphiques ne géraient rien à ce niveau.

    Bref si on veut se la jouer fondamentaliste, une carte graphique ça sert à transformer des pixels en un signal électrique pour écran, tout le reste n'est finalement que du bonus qui est arrivé parceque les constructeurs se sont dit à un moment que c'était un avantage commercial. L'histoire fera le tri et ne gardera que l'utile (donc pas l'IA il faut espérer ).
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  26. #326
    Citation Envoyé par Lazyjoe Voir le message
    Mais bon, même le décodage n'est apparu que relativement tardivement sur les cartes graphiques. A l'époque des DVD on pouvait même s'équiper d'une carte accélératrice pour le décodage du MPEG2 car les cartes graphiques ne géraient rien à ce niveau.
    Le décodage MPEG2 sur les GPU c'est à priori 2003 chez Nvidia (modèles FX et nommé VPE alias Video Processing Engine) bien que le Purevideo toujours utilisé date lui de 2004(avec les modèles 6x00) et 2005 (voire avant avec les All-in-wonder) avec Avivo(sur les X1x00) qui deviendra l'UVD (Unified Video Decoder) à partir des HD 2x00 et remplacé par VCN (Video Core Next) depuis Raven(APU Ryzen)/Navi.

    Par contre l'encodage GPU est arrivé sur le tard(2012).

    Et tout ça est possible car les fabricants de GPU ont permis l'existence du GPGPU.

  27. #327
    Au début le décodage du MPEG2 c'était purement matériel, je me demande depuis quand c'est devenu "logiciel" (cad permis par le GPGPU). C'était le cas pour les All-in-wonder.

  28. #328
    Citation Envoyé par revanwolf Voir le message
    Le décodage MPEG2 sur les GPU c'est à priori 2003 chez Nvidia (modèles FX et nommé VPE alias Video Processing Engine) bien que le Purevideo toujours utilisé date lui de 2004(avec les modèles 6x00) et 2005 (voire avant avec les All-in-wonder) avec Avivo(sur les X1x00) qui deviendra l'UVD (Unified Video Decoder) à partir des HD 2x00 et remplacé par VCN (Video Core Next) depuis Raven(APU Ryzen)/Navi.

    Par contre l'encodage GPU est arrivé sur le tard(2012).

    Et tout ça est possible car les fabricants de GPU ont permis l'existence du GPGPU.
    Oui voilà mais les cartes dédiées MPEG2 étaient là vers la fin des années 90, bien avant que les GPU commencent cette prise en charge.

    Les premières versions du purevideo c'était un bout de chipset dédié c'est sûr. Je ne trouve pas d'infos très explicite sur comment ça a évolué... mais ça me semblerait logique sur les cartes actuelles de laisser cette fonction aux cuda cores pour pouvoir se débarasser d'un morceau du chipset très spécifique.
    Citation Envoyé par Sidus Preclarum Voir le message
    Ben du caramel pas sucré alors...
    "Avant, j'étais dyslexique, masi aujorudh'ui je vasi meiux."

  29. #329
    J'aime pas Handbrake personnellement, je trouve que le soft est
    - Inutilement compliqué
    - Et les Presets sont mauvais.

    Je suis preneur de mieux, même hors open source
    Grand maître du lien affilié

  30. #330
    Citation Envoyé par Nilsou Voir le message
    Après l'upscale ça a ses limites hein. Tu pourra jamais inventer à 100% de l'info « non devinable » perdue. Le réseau il joue au devinette, mais ça reste de la devinette. Par ailleurs le résultat peut être très différent d'un travail pro. Prenons le trait qui entoure le dessin des personnages dans l'animation. Sur une vidéo agrandie « idéale » la largeur du trait sera agrandie de même. Sauf qu'en réalité si on voulait faire bien il faudrait la laisser faible pour obtenir des traits fins. Les artistes originaux n'ont pas fait plus fin parce que la faible densité de pixel venait limiter leur taf, mais sur une vidéo avec bien plus de définition ils n'auraient pas fait ainsi.
    On voit bien ici les limites de l'agrandissement via IA.

    Sans parler du soucis des espaces de couleurs. Les espaces couleurs d'un DVD sont restreint et jamais un réseau ne pourra deviner l'intention de l’artiste pour utiliser pleinement les couleurs de sortie. Ça c'est le taf d'un pro, voir du studio d'origine.
    Si c'était vrai l'Upscaling serait merdique.

    Hors que tu prenne les TV ou une Nvidia Shield, les résultats sont fifous sur de l'agrandisssement *4



    Tu peux d'ailleurs trouver des torrents de dessins animés (genre rick et morty) qui sont passées en 4k grâce a Nvidia, et ça te décroche la machoire
    Dernière modification par tompalmer ; 22/07/2020 à 23h29.
    Grand maître du lien affilié

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •