Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 91 sur 313 PremièrePremière ... 41818384858687888990919293949596979899101141191 ... DernièreDernière
Affichage des résultats 2 701 à 2 730 sur 9367
  1. #2701
    Là, on est assez loin d'envoyer des roses.
    Si tu lis ses déclarations, il a été particulièrement virulent.

  2. #2702
    Citation Envoyé par Baalim Voir le message
    Réponse du patron de NVIDIA à la sortie de la nouvelle carte AMD :

    Lol.


    On appelle Tilt au micro .

  3. #2703
    La remarque du patron de nVidia à la patronne d'AMD me fait penser à un truc : sait-on le temps/ argent/ énergie que coûte une séance de deep learning d'un jeu pour le DLSS ? Est-ce que cet apprentissage "tient" après mises-à-jour ou ajouts de contenus (CàD le prend en compte) ? Si un jeu a un cycle de vie annuel, est-ce vraiment intéressant ?
    L'éthique est mon esthétique

  4. #2704
    Le deep learning dans le DLSS, je ne crois pas que ce soit vraiment du deep learning, ni qu'il soit le résultat d'un quelconque apprentissage sur le jeu, pour moi c'est juste un algo d'antialiasing temporel qui s'adapte à ce qui est affiché pour affiner / deviner les détails manquants entre la définition de calcul (faible) et celle de rendu (haute, à 150% de celle de base).

  5. #2705
    Hum, j'ai un doute car lors de la conf' nVidia il a été mention d'un apprentissage justement pour les 3 jeux cités à l'occasion (Metro, TR et BF), après j'ai très bien pu mal comprendre. Mais comme j'ai lu un truc un peu semblable disant que l'IA devait passer par un temps d'apprentissage également, j'ai pu mélanger des infos, d'où ma question à un expert™
    L'éthique est mon esthétique

  6. #2706
    Je ne suis pas du tout expert, mais dans les tests du DLSS, on constate que l'anti-aliasing d'une même zone s'améliore au fil des images => il y a un bien un traitement adaptatif dessus, mais pour moi il ne peut qu'être contextualisé à l'image produite, donc si un apprentissage de type deep learning est lancé sur le jeu avant le rendu temps réel du moment où on joue (potentiellement pour définir des paramètres statistiquement lié aux images que le jeu peu générer), il y a aussi un antialiasing au moment du rendu. Et puis les fameux tensors qu'on nous vend comme "IA capable", c'est bien pour du calcul au moment du rendu, ils ne se connectent pas au centre de calcul de Nvidia pour demander quels sont les paramètres à appliquer

  7. #2707
    J'avais aussi lu que le DLSS reposais sur le résultat d'un réseau de neurones entraîné par jeu.

    Sinon c'est vrai qu'AMD déçois encore sur les GPU, nous sortir une carte un peu moins bien que la 2080 qui elle même est équivalente à la 1080 Ti sorti il y a deux ans (mars 2017) et pas à des prix très flatteurs (ni l'une ni l'autre d'ailleurs) ça ressemble à la traversée du désert qu'on a eu avec les CPU et les innovations limitées années après années.

  8. #2708
    Les jeux sont entrainés sur les reseaux Nvidia. Les tenseurs cores, c'est un reseau de neurones cablés. Les poids du reseau sont appris en offline et stockés dans les drivers Nvidia.

  9. #2709
    Citation Envoyé par eeepc35 Voir le message
    Les jeux sont entrainés sur les reseaux Nvidia. Les tenseurs cores, c'est un reseau de neurones cablés. Les poids du reseau sont appris en offline et stockés dans les drivers Nvidia.
    Mh, mh, vu la réalité du traitement apparent sur le DLSS versus le baratin marketing autour (définition aux 2/3 + AA), y'a moyen que la partie IA soit également complètement bulshit.

  10. #2710
    Ou alors, c'est les forums qui sont completement BS. Super rapide à hyper AMD et super rapides à descendre Nvidia.

    La théorie derrière le DLSS est claire, c'est du upscaling par reseau de neurones entrainé sur des bases d'images. C'est - en gros, mais pas seulement - la même chose que ca

    https://arxiv.org/abs/1609.04802

    expliqué ici
    https://kingdomakrillic.tumblr.com/p...gan-and-sftgan

    et implémenté par Nvidia ici https://developer.nvidia.com/gwmt

  11. #2711

  12. #2712
    A priori c'est du vent, du fake (en gros une RTX 2080 dont on aurait édité le nom).
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  13. #2713
    Citation Envoyé par eeepc35 Voir le message
    Ou alors, c'est les forums qui sont completement BS. Super rapide à hyper AMD et super rapides à descendre Nvidia.

    La théorie derrière le DLSS est claire, c'est du upscaling par reseau de neurones entrainé sur des bases d'images. C'est - en gros, mais pas seulement - la même chose que ca

    https://arxiv.org/abs/1609.04802

    expliqué ici
    https://kingdomakrillic.tumblr.com/p...gan-and-sftgan

    et implémenté par Nvidia ici https://developer.nvidia.com/gwmt
    D'ailleurs, ne pourrait-on pas dire que le DLSS est finalement assez proche de l'ESRGAN (mais côté texture) ?
    Ce dernier utilise également du deep learning.

  14. #2714
    Pas vraiment. Le DLSS c'est fait pour du temps réel, donc les besoins en qualité et surtout en vitesse sont complètement différent de l'ESRGAN. Et au niveau du côté "learning" de la chose, je crois que le DLSS se "reset" d'un lancement du jeu à un autre.

  15. #2715
    C'est pas plutôt la 1160Ti qui est annoncée la première ? ==> https://videocardz.com/newz/rumor-nv...536-cuda-cores
    Cordialement.

  16. #2716
    Si cela s'avère vrai, ça serait à n'y plus rien comprendre dans la nomenclature nvidia.

  17. #2717
    Bah c'est simple pourtant, les 10x0 pour les cartes sans raytracing et les 20x0 pour les cartes avec raytr... oui enfin sauf certaines... enfin... non rien

  18. #2718
    Citation Envoyé par Sorkar Voir le message
    Bah c'est simple pourtant, les 10x0 pour les cartes sans raytracing et les 20x0 pour les cartes avec raytr... oui enfin sauf certaines... enfin... non rien
    C'est pourtant très clair, et maintenant la différence entre GTX et RTX ?

  19. #2719
    Citation Envoyé par kennyo Voir le message
    C'est pourtant très clair, et maintenant la différence entre GTX et RTX ?
    Facile,
    Spoiler Alert!
    500€

  20. #2720
    Citation Envoyé par Sorkar Voir le message
    Facile,
    Spoiler Alert!
    500€
    Ah, moi j'aurais dis le G

  21. #2721
    Citation Envoyé par XWolverine Voir le message
    Ah, moi j'aurais dis le G
    C'est pas le R,plutôt ??
    soyons désinvoltes,n'ayons l'air de rien...

  22. #2722
    En tout cas c'est ni le T ni le X.
    A moins que...

  23. #2723
    Citation Envoyé par skyblazer Voir le message
    Pas vraiment. Le DLSS c'est fait pour du temps réel, donc les besoins en qualité et surtout en vitesse sont complètement différent de l'ESRGAN. Et au niveau du côté "learning" de la chose, je crois que le DLSS se "reset" d'un lancement du jeu à un autre.
    oui, il stocke les poids du reseau jeu par jeu. Je pense que faire un reseau qui gere tous les jeux serait possible mais avec un coût en noeuds du réseau bien plus grands.

    Un reseau (NN) c'est une phase d'apprentissage (offline sur les serveurs Nvidia) et une phase de mapping TR ou chaque jeu applique un NN dont les poids sont stockés dans les drivers.

  24. #2724
    Citation Envoyé par ra-ra-raspoutine Voir le message
    C'est pas le R,plutôt ??
    Ah ouais, merde, t'as raison !

  25. #2725
    Citation Envoyé par Sorkar Voir le message
    Bah c'est simple pourtant, les 10x0 pour les cartes sans raytracing et les 20x0 pour les cartes avec raytr... oui enfin sauf certaines... enfin... non rien
    Toute les cartes disposant de core Cuda sont capable de faire du raytracing*, pour AMD, il faut le support de l'openCl.

    En revanche, les cartes RTX disposent d'unités dédiées aux calcules de l'intersection (les RT cores).


    *L'un des premières applications, c'est Octane render, en octobre 2012!

    NB: il me semble que Dx12 permet de découper la charge raytracing entre le CPU et le GPU si nécessaire, la ou Dx11 est exclusif.
    Citation Envoyé par Bioware
    lots of speculation from everyone !! :/

  26. #2726
    Parmi vous, suite aux derniers drivers offrant la "Gsync", quelqu'un aurait testé sa carte Nvidia sur un écran FreeSync afin de voir le résultat ?

    J'ai un écran Lg ultrawide LG 34" LED - 34UC88-B est le résultat laisse à désirer, je constate des déchirures.
    Carte 1080 GTX.

    Ce n'est pas de l'entrée de gamme et le résultat laisse à désirer. J'ai trop espéré pouvoir profiter de cette techno.

  27. #2727
    Citation Envoyé par Herman Speed Voir le message
    Parmi vous, suite aux derniers drivers offrant la "Gsync", quelqu'un aurait testé sa carte Nvidia sur un écran FreeSync afin de voir le résultat ?

    J'ai un écran Lg ultrawide LG 34" LED - 34UC88-B est le résultat laisse à désirer, je constate des déchirures.
    Carte 1080 GTX.

    Ce n'est pas de l'entrée de gamme et le résultat laisse à désirer. J'ai trop espéré pouvoir profiter de cette techno.
    tu as essayé sur quoi ?
    En ce qui me concerne, le résultat n'était ultra concluant sur la démo pendulum de nvidia. Je cherche encore un jeu qui permette de tester correctement.


    Config :

    GTX 1080ti et benq Zowie 2730xl

  28. #2728
    Citation Envoyé par Herman Speed Voir le message
    J'ai un écran Lg ultrawide LG 34" LED - 34UC88-B est le résultat laisse à désirer, je constate des déchirures.
    Il fait même pas partie de la liste AMD, et vu les caractéristiques c'est plutôt de l'entrée voire à la limite milieu de gamme dans l'ultrawide(il est que 75Hz alors que LG font du 100-120Hz natifs et depuis peu du 144Hz).

    Sans oublier que cet écran à une plage ridicule de base(55-75Hz) mais tu peut tenter de l'augmenter via CRU(35-75Hz passe pas trop mal).

  29. #2729
    Citation Envoyé par revanwolf Voir le message
    Il fait même pas partie de la liste AMD, et vu les caractéristiques c'est plutôt de l'entrée voire à la limite milieu de gamme dans l'ultrawide(il est que 75Hz alors que LG font du 100-120Hz natifs et depuis peu du 144Hz).

    Sans oublier que cet écran à une plage ridicule de base(55-75Hz) mais tu peut tenter de l'augmenter via CRU(35-75Hz passe pas trop mal).
    Merci pour la réponse, en effet pour son prix (actuel +/- 700 /800 €), il est faiblard.

    Freesync

    Yes (DP 55~75Hz)

    J'aurais dû visiter le topic des écrans.

    Le test a été fait sur ARMA III et le résultat n'est pas concluant malgré un nombre d'images par seconde limité.

  30. #2730

Page 91 sur 313 PremièrePremière ... 41818384858687888990919293949596979899101141191 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •