Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 190 sur 313 PremièrePremière ... 90140180182183184185186187188189190191192193194195196197198200240290 ... DernièreDernière
Affichage des résultats 5 671 à 5 700 sur 9367
  1. #5671
    Je vois Tilt que ta hargne ne t'a pas quittée.

    Le truc de saphir c'est juste un upscale classique. Cependant c'est une super idée car nombre de jeux ne propose pas encore l'option d'échelle de résolution, qui permet d'avoir quand un bien meilleur rendu qu'en forçant une résolution inférieure à celle de l'écran.

    A contrario le DLSS recrée une image à partir de l'image basse résolution. Le DLSS 1.0 c'est dégueulasse. Je ne peux pas voir ta vidéo sur le PC du taf mais c'est probable que ca soit un jeu en DLSS 1.0.
    Avec le DLSS 2.0 l'image est nickel. Certains artefacts peuvent subsister de temps en autre, mais c'est à la marge. Dans certains cas l'image en DLSS 2.0 arrive à donner un meilleur rendu que l'image native. Digital foundry l'a montré dans sa vidéo sur cyberpunk, et peur être dans d'autres jeux, je ne me rappelle plus.

    OK les technologies NVIDIA sont propriétaires, il n'empêche qu'elles arrivent tous le temps avant qu'AMD commence à nous parler de leur équivalent open source.
    Alors est-ce qu'AMD aurait bougé ses fesses sans que NVIDIA le force. Peut-être. Le fait est qu'il dégaine à retardement depuis 10 ans. De plus les RX6800/900 sont a des prix encore plus fous que ceux de RTX et qu'elle ne permette pas de profiter correctement des jeux avec RT, alors que c'est possible avec NVIDIA grâce au DLSS. Le DLSS permet aussi d'envisager la 4K à 100 FPS.

    Oui le RT n'est pas un argument massue, par contre le 100 FPS + quand tu y a goutté c'est pour toujours, alors au prix d'AMD on est en droit d'attendre des perfs en tout point similaire à NVIDIA, ou à minima des perfs en rastérisation largement supérieure. Ou un autre argument, perfs équivalent mais consommation bien inférieure.

    Alors oui ça viendra, mais dans combien de temps ? Car pour l'instant on a rien vu tourner avec l'équivalent AMD du DLSS.

  2. #5672
    Je comprend rien je sais même pas pourquoi je répond en fait
    Sûrement car j'ai du temps à perdre

    Dans certains cas l'image en DLSS 2.0 arrive à donner un meilleur rendu que l'image native
    C'est pas ce que je vois dans la video de linus que j'ai mise ou on voit que le dlss dans cyberpunk est dégueulasse

    alors au prix d'AMD on est en droit d'attendre des perfs en tout point similaire à NVIDIA, ou à minima des perfs en rastérisation largement supérieure.Ou un autre argument, perfs équivalent mais consommation bien inférieure.
    ça tombe bien c'est le cas pour les deux

    profiter correctement des jeux avec RT Le DLSS permet aussi d'envisager la 4K à 100 FPS.
    C'est bien mais dans mon cas je m'en fou je suis anti-4K
    Et le RT m'en branle aussi j'ai aucun jeu compatible

    Peut-être. Le fait est qu'il dégaine à retardement depuis 10 ans
    Quand même pas dix ans mais si tu achète de l'amd c'est un fait, t'aura les techno plus tard
    Si t'es pressé faut acheter nvidia en effet et ce n'est pas mon cas.
    Et accepter que au moins 50% des technos avant-gardistes nvidia sont useless survendues à coup de marketting agressif et seront abandonnées
    Dernière modification par Tilt ; 05/03/2021 à 11h20.

  3. #5673
    On est vendredi, pas de doute...

  4. #5674
    Faudrait renommer le topic en l'honneur de Tilt.

  5. #5675
    Citation Envoyé par Endymion Voir le message
    Faudrait renommer le topic en l'honneur de Tilt.
    Tu proposes quoi ? Le topic de la mauvaise foi ?

  6. #5676
    La 4K, c'est KK.

  7. #5677
    Le DLSS c'est quand même un upscaling, certes plus "intelligent" qu'un bête filtre mais on perds quand même forcément par rapport à une image en définition native.

    L'intérêt que je vois c'est surtout de pouvoir activer le raytracing sans perdre trop de perfs, on gagne la qualité visuelle du RT en perdant un petit peu en qualité générale pour avoir un framerate correct, c'est une question de compromis mais évidemment la meilleure image dans l'absolu est RT sans DLSS.

    Le RT est parti pour rester, si les cartes deviennent assez puissante pour afficher une image native sans la béquille du DLSS ce dernier perdra un peu de son intérêt, mais bon y a pas que des cg haut de gamme et ca aura toujours un intérêt d'augmenter son framerate en perdant marginalement de la finesse d'image sur du milieu de gamme.


    Les AMD n'ayant ni RT ni DLSS, c'est cohérent.

  8. #5678
    Citation Envoyé par PaulPoy Voir le message
    La 4K, c'est KKKK.
    How can I be lost, if I've got nowhere to go?

  9. #5679
    Non on ne perdra pas forcement par rapport à une définition native. On perdra par rapport à une définition + haute à un moment, mais pas nécessairement native. Une IA peut avoir un meilleur résultat et mieux extrapoler des textures + fine qu'une résolution native en quelque sorte. Donc ça va dépendre des cas, et si la technologie s'améliore ça sera peut être même assez généralisé (en gros un meilleurs résultat 4k deviné sur du 2k par exemple qu'un résultat 4k natif).

    Mais le "DLSS" made in AMD devrait arriver au printemps, donc on verra si il y a un rattrapage sur ce point ou pas d'AMD.
    "Les faits sont têtus."


  10. #5680
    Le gars qui défend un produit avec moins de possibilités que l'autre avec comme argument massue du "ça ne m'intéresse pas" dès que cela n'est pas ou mal géré par sa marque fétiche, il y a quelque chose d'assez magique, là-dedans.
    Je suis heureusement rassuré par le fait que tout ça deviendra génial et mieux que chez les autres dès que le produit en question proposera une version améliorée avec sa propre version des options auparavant décriées.

  11. #5681
    Je crois qu'on peut mettre tout le monde d'accord que le DLSS est le RT c'est clairement pour nvidia avec notamment des performance qui deviennent très intéressante sur le DLSS.
    Des performances brut en terme de rapport qualité performance en général plus du coté d'AMD en dessous de 4k et kiff kiff vers 4k, et un atout de VRAM pour AMD qui pourra peut être servir sur les futurs production (me semble que c'est la qualité des textures qui joue pas mal sur la VRAM par exemple).

    Actuellement si tu joues en 4k je dirais que le DLSS est vraiment nécessaire que j'irais sur du Nvidia, si tu veux faire du 2k je dirais que y a match, et pour du 1080 amd semble avoir des perf un peu meilleurs.
    Si tu veux profiter du RT tu va chez nvidia.
    Si tu penses que le DLSS/RT te sera utile plus tard quand la carte vieillira tu peux potentiellement attendre la version open source d'AMD si tu en doutes go chez nvidia.

    Ça vous va comme résumé?
    "Les faits sont têtus."


  12. #5682
    Citation Envoyé par Laya Voir le message
    Non on ne perdra pas forcement par rapport à une définition native. On perdra par rapport à une définition + haute à un moment, mais pas nécessairement native. Une IA peut avoir un meilleur résultat et mieux extrapoler des textures + fine qu'une résolution native en quelque sorte. Donc ça va dépendre des cas, et si la technologie s'améliore ça sera peut être même assez généralisé (en gros un meilleurs résultat 4k deviné sur du 2k par exemple qu'un résultat 4k natif).

    Mais le "DLSS" made in AMD devrait arriver au printemps, donc on verra si il y a un rattrapage sur ce point ou pas d'AMD.
    L'image calculée dans une définition donnée X sera meilleure que l'image calculée dans une définition inférieure, puis upscalée avec le DLSS pour arriver à la définition X.

    L'upscaling ne fabrique pas de détail à partir de rien, il essaie juste d'en perdre le moins possible.

    L'upscale par IA de vidéos peut être impressionnant à première vue, mais aucun nouveau détail n'est crée si on compare les deux images.
    https://www.youtube.com/c/CaptRobau/videos

    De même qu'un filtre d'accentuation sur une photo ne fait que jouer sur le contraste pour donner une impression de netteté.

  13. #5683
    Citation Envoyé par Mastaba Voir le message
    [...]mais aucun nouveau détail n'est crée si on compare les deux images.
    Justement, c'est cette partie qui est fausse.
    L'IA rajoute des détails, et c'est pour ça que le résultat en 4k upscalé par DLSS peut-être meilleurs que le rendu 4k natif.

  14. #5684
    Pour moi le MATCH entre nvidia et amd n'est pas tant au niveau des perfs que des dispo...

  15. #5685
    Citation Envoyé par Garrluk Voir le message
    Justement, c'est cette partie qui est fausse.
    L'IA rajoute des détails, et c'est pour ça que le résultat en 4k upscalé par DLSS peut-être meilleurs que le rendu 4k natif.
    Explique moi comme une carte graphique peut recréer des détails qui n'existent pas dans l'image d'origine.

  16. #5686
    ça fleure bon l'ambiance chamaillerie de cours d'école avec un débat vraiment critique sur un first world problem à faire pâlir un pays du tiers monde à propos d'entreprises qui pensent fondamentalement qu'à faire du blé chacune avec sa "ligne éditoriale":
    - ATI (parce que moi je refuse de dire que maintenant c'est amd j'ai aimé mes ATI) "on est pas les premier en innovation mais on arrive après coup avec des trucs open '''pour aider les gamers''' parce que c'est le seul moyen restant de récup de la part de marché (et c'est moins couteux à diffuser)"
    - Nvidia qui se la joue elite++ "on sort des techno en premier mais elle sont fermée"

    Par contre si ça pouvait pas virer à la crise d'égo touche-pipi, Tilt t'as peut être du temps à perdre mais pas nous avec toi, ce serait mieux de nous épargner ton manque flagrant de maturité, et ton besoin de se faire mousser l'égo en disant "hmm ma marque c'est trop la meilleure, que les autres c'est caca, même si je bosse pas pour eux et qu'il s'en foute de ma vie et que je suis juste un peu une victime du marketing 'holy savior' d'AMD" et "regardez j'ai réussi à toucher une carte en pénurie et qu'elle est meilleure parce que je l'ai dit, je suis trop trop fier d'avoir acheté le produit que je veux en boutique dans un pays libre".
    On est des gens relativement aisés dans des pays plutôt riches avec des aisances technologiques.
    T'es capable d'apporter bien bien mieux en connaissances et réflexion sur les thème du topic que des biais d'appartenance (malgré une non-appartenance).

    Les battles de récré Naruto vs Sasuke c'est périmé, les gens achètent les cartes qui leur plaisent, parce que les apports techno et perf leur conviennent et/ou parce qu'ils ont potentiellement un petit affect pour la marque de leur jeunesse ou un matos qui leur a toujours plus.
    Mais les biais affects on a le droit, par contre à un moment faut arrêter de vomir les siens au visage de tout le monde comme un enfant qui aime trop sa figurine.
    Merci de pas péter les burnes à la moindre occasion avec des raisonnements dogmatiques, voir sectaires, ou limite schizophréniques. C'est fatiguant, on parle de matos et de tech, pas de religions et de croisades.

    [edit]
    oula wow j'avais pas refresh la page depuis un moment et je me calle un peu tardivement
    Dernière modification par Say hello ; 05/03/2021 à 15h02.

  17. #5687
    C'est dur comme question. Je sais pas comment l'IA de photoshop arrive à remplir une zone manquante sur une photo, mais elle le fait.

    Il ya certainement une chiée d’algorithmes qui exploitent, en fonction de ce qu'ils interprètent, des systèmes de remplissage et de filtrages.

  18. #5688
    Citation Envoyé par Mastaba Voir le message
    Explique moi comme une carte graphique peut recréer des détails qui n'existent pas dans l'image d'origine.
    Regarde la vidéo de digital foundry sur cyberpunk. Le principe du dlss c'est d'avoir une ia qui imagine ce qui se cache derrière un pixel qu'elle n'a pas à l'origine. Si elle imagine bien elle arrive à avoir un rendu aussi bon voir meilleur qu'en natif.

  19. #5689
    Avec du deep learning.
    Ça se fait assez bien depuis 5/6 ans déjà, t'as eu une grosse vague de mods amateurs pour des remasters de vieux jeux.
    T'as un exemple là : https://www.canardpc.com/394/la-magie-de-lesrgan

    Après si tu veux les détails techniques, je ne les connais pas forcément très bien mais en gros tu prend 2 réseaux de neurones, tu apprend au premier à upscaler des images et au deuxième à détecter les images upscalées et tu les fais s'affronter jusqu'à avoir un résultat satisfaisant.

  20. #5690
    C'est ça Garrluk parle des GAN (Réseaux antagonistes génératifs) https://fr.wikipedia.org/wiki/R%C3%A...9n%C3%A9ratifs

    On ne sait pas, à ma connaissance, si nvidia utilise des GAN pour le DLSS, mais l'idée de fond du deep learning est à priori proche, on entraîne le upscaling sur des tonnes d'image avec un résultats attendu, puis on l'applique sur des données non connues. Si l’entraînement à vu assez de chose il est capable de recréer des détails. Je pense ne pas me tromper en supposant que ça sera ce genre de process utilisé. Ce que je trouve assez fou c'est que c'est réalisé en temps réel à priori.
    "Les faits sont têtus."


  21. #5691
    Moi ce que je comprends pas, c'est comment le DLSS pourrait être plus beau que le natif : si mon écran fait 1920*1080, en natif j'ai mes deux millions de pixels.
    Et si j'ai bien compris en DLSS 720p=>1080p le DLSS va essayer d'approche au plus prêt le rendu des deux millions en parant d'un peu plus de 900 000, grâce à ce fameux deep learning.
    Jusque là ok, on peut imaginer que l'IA soit extrêmement performante et qu'elle arrive à approcher tellement le natif qu'on ne voit plus la différence.
    Par contre mon écran physique il a toujours deux millions de pixels, et ça l'IA ne pourra jamais le changer. Donc je vois pas bien comment le DLSS pourrait faire mieux que le natif, vu que le natif utilise tous les pixels, et que l'écran reste le facteur limitant des deux.
    Cherche Joystick 1 à 12, 16, 18, 20, 22, 24, 25, 27 à 29, 31 à 33, 35, 37, 41 à 59, 61 à 69, 71, 79, 80 // Canard PC 330, 338, 404, 407, 419

  22. #5692
    Le DLSS va t'afficher le résultat dans la résolution native de ton écran, pas de souci de ce côté-là. Mais l'image est produite à partir d'une version en plus basse résolution, pour soulager le travail du GPU.

  23. #5693
    Les pixels ajoutés. Ce ne seront pas les mêmes, peut être qu'ils seront de couleur plus prononcé etc. Rendant le tout plus agréable à l'oeil.

  24. #5694
    En fait je voulais vous faire un résumé de ma situation

    - j'en ai rien à cirer du rt et du dlss
    - je suis sous linux

    Vous voulez que je fasse quoi avec une nvidia ? a part caler une porte ou presser des livres je vois pas...

    Maintenant si vous êtes contents avec nvidia tant mieux pour vous. Moi je suis content avec amd.

  25. #5695
    Citation Envoyé par jopopoe Voir le message
    Moi ce que je comprends pas, c'est comment le DLSS pourrait être plus beau que le natif : si mon écran fait 1920*1080, en natif j'ai mes deux millions de pixels.
    Et si j'ai bien compris en DLSS 720p=>1080p le DLSS va essayer d'approche au plus prêt le rendu des deux millions en parant d'un peu plus de 900 000, grâce à ce fameux deep learning.
    Jusque là ok, on peut imaginer que l'IA soit extrêmement performante et qu'elle arrive à approcher tellement le natif qu'on ne voit plus la différence.
    Par contre mon écran physique il a toujours deux millions de pixels, et ça l'IA ne pourra jamais le changer. Donc je vois pas bien comment le DLSS pourrait faire mieux que le natif, vu que le natif utilise tous les pixels, et que l'écran reste le facteur limitant des deux.
    Par contre le DLSS n'a aucun intérêt pour un écran inférieur à du 4K. La restitution de l'image n'est pas aussi propre pour du 1440p et inférieure, c'est même pire.


  26. #5696
    Citation Envoyé par Tilt Voir le message
    En fait je voulais vous faire un résumé de ma situation

    - j'en ai rien à cirer du rt et du dlss
    - je suis sous linux

    Vous voulez que je fasse quoi avec une nvidia ? a part caler une porte ou presser des livres je vois pas...

    Maintenant si vous êtes contents avec nvidia tant mieux pour vous. Moi je suis content avec amd.
    Ok ben alors arrêtes de traiter les autres de fanboy dès qu'ils ont pas les mêmes idées que toi...

  27. #5697
    Ben faudrait commencer par arrêter de me traiter de con car j'ai une amd déjà pour commencer
    Après on pourrait discuter calmement
    Et aussi arrêter de dire des grosses conneries de fanboy, sinon c'est normal que je traite ces gens en fanboy

    Je cite "la carte elle a plus de mémoire et elle est moins puissante" - WTF ?
    "Le DLSS ça améliore la qualité" - WTF ?
    "Le 4K et le RTX c'est la vie" - WTF ?
    Et j'en passe

  28. #5698
    Question de néophyte : je suis sous Windows, j'ai un 34" 4K et attends comme tout le monde de pouvoir changer de carte vidéo. Je ne joue presque jamais à des FPS compétitifs. Je visais une carte pas trop chère et qui ne chauffe pas trop, en l'occurrence la RTX 3060Ti 8GB qui sera la recommandation de Qiou87 pour la config Rockfeller quand elle sera disponible.

    Dans l'hypothèse où je flasherais à l'avenir sur un jeu qui la mette à mal, je serais dans la situation ou le DLSS serait utile ? Sachant que je n'ai aucune préférence pour AMD ou nVidia et que d'ici à ce que la 3060 Ti soit réellement dispo, il est possible que l'équivalent AMD soit lui aussi dispo.

  29. #5699
    Restez cool ! L'essentiel est que chacun soit content de son produit, le reste c'est du blabla prise de tête. Pareil pour les CPU Et tout le reste d'ailleurs.

    On peut toujours essayer de discuter de l'apport de certaines technos ou autres, mais tranquillo... Chacun a des besoins différents et doit s'orienter en fonction.

    Pour conclure, je dis que le meilleur GPU est celui dédié sur les CPU intel

  30. #5700
    La question est surtout quel est ton moniteur exactement car si c'est un vrai G-Sync (les modèles avec le module Nvidia) tu sera condamné à utiliser du Nvidia pour profiter de la fréquence de rafraîchissement variable.

Page 190 sur 313 PremièrePremière ... 90140180182183184185186187188189190191192193194195196197198200240290 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •