Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 266 sur 314 PremièrePremière ... 166216256258259260261262263264265266267268269270271272273274276 ... DernièreDernière
Affichage des résultats 7 951 à 7 980 sur 9418
  1. #7951
    Citation Envoyé par Kimuji Voir le message
    En général dans les cas où il y a un très gros écart de framerate avec le DLSS 2 c'est parce qu'on se heurte à une limitation CPU, le DLSS 2 est totalement tributaire des perfs du CPU, le DLSS 3 s'en affranchit partiellement. Et la RTX 4090 est tellement rapide que la limite CPU est souvent atteinte.
    Je veux dire l'écart entre DLSS avec/sans synthèse de frames. Ça devrait faire x2 sinon on perd du framerate.

    Sinon j'ai toujours des doutes sur la timeline https://www.nvidia.com/en-us/geforce...s-innovations/
    « The DLSS Frame Generation convolutional autoencoder takes 4 inputs – current and prior game frames, an optical flow field generated by Ada’s Optical Flow Accelerator, and game engine data such as motion vectors and depth. »
    Pour moi la frame courante est celle affichée actuellement.

  2. #7952
    Citation Envoyé par Dross Voir le message
    Au temps pour moi, me suis planté dans mes reply.
    Oui, ça venait aussi d'un de mes posts

    Mais bon, on a compris, tu es un tech enthousiast, le RT est fabuleux, le HDR apporte tellement, il faut le top du matos, ... c'est ton droit, mais s'il te plait, n'essayes pas de faire passer ça pour des vérités immuables, parce que la réalité est bien plus modérée que ça.

  3. #7953
    Citation Envoyé par 564.3 Voir le message
    Je veux dire l'écart entre DLSS avec/sans synthèse de frames. Ça devrait faire x2 sinon on perd du framerate.

    Sinon j'ai toujours des doutes sur la timeline https://www.nvidia.com/en-us/geforce...s-innovations/
    « The DLSS Frame Generation convolutional autoencoder takes 4 inputs – current and prior game frames, an optical flow field generated by Ada’s Optical Flow Accelerator, and game engine data such as motion vectors and depth. »
    Pour moi la frame courante est celle affichée actuellement.
    C'est parce que la "current frame" fait référence à celle qui qui a été calculée (de façon classique) en dernier, pas à celle affichée à l'écran. Le DLSS 3 ne travaille pas à partir d'une image qui n'a pas encore été calculée, il travaille à partir de la dernière en date, pas encore affichée, la "current" et il n'introduit pas sa frame interpolée entre la "current" et la suivante, mais entre la "current" et la précédente. Et c'est comme ça qu'on introduit le lag. Parce qu'on décale l'affichage d'une image déjà calculé pour pouvoir insérer une autre image avant celle-ci.

    Le concept expliqué avec d'autres mots, mais toujours à base des documents donnés par Nvidia:
    This is achieved through the combination of motion vectors, which show where and how elements on screen are moving between frames; and optical flow, a technique used to blend and interpolate between two images. The resulting generated frames are essentially an estimation of what DLSS 3 thinks the game would have rendered between each real frame.
    D'ailleurs si le but était de rajouter une troisième image à la suite de deux autres on ne parlerait pas d'interpolation mais d'extrapolation. En fait sur ma timeline précédente il y a un seul élément sur lequel je ne suis pas sûr mais qui au final ne change pas grand chose au niveau de la latence.

    Je ne sais pas si c'est: Calcul de l'image 1 (via DLSS 2) -> affichage de l'image 1 -> calcul de l'image 2 (via DLSS 2) -> calcul de l'image intermédiaire (via DLSS 3) -> affichage de l'image intermédiaire -> affichage de l'image 2

    Ou bien: Calcul de l'image 1 (via DLSS 2) -> calcul de l'image 2 (via DLSS 2) -> calcul de l'image intermédiaire (via DLSS 3)-> affichage de l'image 1 -> affichage de l'image intermédiaire -> affichage de l'image 2

    En interne c'est un poil différent mais à l'écran ça revient au même, la solution 2 est peut-être plus cohérente si on veut un frame pacing mieux contrôlé, mais la 1 a peut-être moins de latence? Là j'avoue que je ne sais pas.
    Dernière modification par Kimuji ; 14/10/2022 à 00h08.

  4. #7954
    Citation Envoyé par Dross Voir le message
    Pour le coté "game changer", c'est les retour de TOUT les testeurs qui on accès à la tech.
    Ils sont unanimes.
    Le HDR bien intégré ça amène énormément plus de profondeur et de réalisme dans les scènes, ainsi qu'une meilleure représentation de certaines textures/couleurs (comme l'or, qui ne ressemble jamais à de l'or en non-HDR). Et statistiquement autant 3 gus sur un forum ça pèse pas lourd, autant le reste de l'industrie de ceux qui analysent et comparent ces technologies au quotidien ça a déjà un petit peu plus de poids.
    Peux tu nous fournir des sources stp ?
    Je suis intéressé par lire cela.

  5. #7955
    Citation Envoyé par XWolverine Voir le message
    Mais bon, on a compris, tu es un tech enthousiast, le RT est fabuleux, le HDR apporte tellement, il faut le top du matos, ... c'est ton droit, mais s'il te plait, n'essayes pas de faire passer ça pour des vérités immuables, parce que la réalité est bien plus modérée que ça.
    Je n'ai jamais dis qu'il fallait le top du matos. Jamais. Je ne conseillerai même pas le matériel dont on parle sans connaître un peu la personne / besoins / envies.

    Est-ce qu'on a besoin du RT / HDR / OLED / 5k de budget / etc pour pouvoir s'amuser sur PC ? Bien sûr que non et je n'ai jamais dis le contraire. Toute la discussion précédente est parti du fait que beaucoup de gens achètent des GPU hors de prix pour les brancher sur des moniteurs qui ne sont pas cohérent avec cet investissement, soit car ils en profiterons pas du tout (type 1080p avec des XX80-XX90) soit car ils auraient eu pour le même prix une bien meilleure expérience de jeu (et c'est bien ça le but final de notre loisir, non ?).

    Dans les topics hardware on conseille et on vulgarise. Et on échange sur les meilleures combinaisons possibles.
    Ça me semble bien plus constructif que de venir dire "nan mais en fait t'en a pas besoin / moi j'aime pas / non mais ça sert à rien en fait".


    Citation Envoyé par Jeliel Voir le message
    Peux tu nous fournir des sources stp ?
    Je suis intéressé par lire cela.
    La totalité des reviews qu'on trouve sur les OLED et les expérience de jeu en parlent, exemple pris au hasard :



    Tu peux aussi traîner sur les subreddits avec des retours utilisateurs comme /r/ultrawidemasterrace même s'il faut forcément prendre le tout avec des pincettes.

  6. #7956
    Citation Envoyé par Dross Voir le message
    La totalité des reviews qu'on trouve sur les OLED et les expérience de jeu en parlent, exemple pris au hasard :
    Tu dis le HDR est Game changer.
    Personne ne dit qu'il est indicernable ou qu'il n'apporte rien, juste que quelque chose de Game changer ça paraît bien plus marquant.
    Je demande des sources statistiques pour étayer ton enthousiasme car je pense que d'autres aspects le sont bien plus.
    Tu me sors UNE vidéo sur un écran OLED...

    On va passer à autre chose parce que je pense qu'on ne va pas en sortir vers le haut.

  7. #7957
    Il faut des sources statistiques en double aveugle et publié dans Nature pour pouvoir avoir gain de cause avec toi ?

    On parlais d'argument d'homme de paille plus haut, tu sait comment ça s'appelle ce que tu fait ? Du Sealioning.
    Non je n'ai pas d'étude statistiques sous la main, et ça n'invalide pas mon point pour autant.

    Et en fait je pourrai te retourner l'argument, est-ce que tu a une étude statistique pour supporter ton point que ce n'est pas un game changer ?


    Mais soyons constructif alors passons.
    J'ai insisté que c'était un "exemple pris au hasard" et que ce n'était pas limité à ça, prends n'importe quelle ressource qui en parle et tu verra qu'il y a une tendance lourde :

    tftcentral.co.uk

    So to summarise as best we can, HDR as a technology is designed to offer more dynamic images and is underpinned by the requirement to offer improved contrast ratios beyond the limitations of existing panel technologies. This offers significant improvements in performance and represents a decent step change in display technology.

    Gamespot.com

    There's no question--setting up HDR is a big investment. You need a great monitor, a capable GPU, and games that support it to really see the benefits. But once you do, it will be difficult to go back. While there's absolutely nothing wrong with SDR content, the added fidelity of good HDR implementations backed up by hardware that is up to the task of displaying it is a drastic improvement.
    Etc.

    C'est assez rare que tout le monde s'accorde sur une grosse évolution, mais le HDR en fait parti. Surtout sur PC, sur TV c'est plus compliqué avec la chaîne de compatibilité, avec les jeux vidéo on a moins ce problème.

  8. #7958
    Le HDR a le même inconvénient que d'autres trucs, comme la VR, qu'il faut expérimenter soi-même. Certains ajouts se voient directement sur l'écran que les gens ont déjà, tu peux donc publier une vidéo et montrer ce que tu apportes. C'est le cas du raytracing et d'un tas d'autres technos de rendu avant ça. Le HDR doit s'expérimenter sur une machine équipée, ce qui réduit beaucoup sa portée et facilite le boulot des sceptiques. Et comme y'a un combo "oeuf ou la poule" (les joueurs sont pas équipés, donc les jeux à le supporter sont rares, donc les joueurs ne s'équipent pas) et surcoût nouveau (vient un ajoute une feature à l'écran et on le vend 3x plus cher), son expansion est assez lente.

    Personnellement je trouve vraiment intéressant qu'on puisse afficher plus de couleurs, plus de dynamique et plus de "richesse" visuelle ; pourquoi on voudrait plus de pixels, plus d'images par secondes, et pas plus de dynamique, de contraste et de couleurs? Je m'interroge juste sur la chaîne de compatibilité dont tu parles Dross, justement. J'ai quand même le sentiment que c'est moins simple que ça en terme de support sur PC, mais si tu as des articles qui détaillent cela (plutôt tutoriels que des études en double aveugle ) ça m'intéresse. Egalement parce que si c'est vraiment devenu plus facile d'en profiter, je n'hésiterai pas à le conseiller, de la même façon que j'étais très rapide à conseiller des dalles IPS même aux joueurs lorsqu'elles sont devenues acceptables en latence et fréquence - je trouvais les avantages en qualité d'image très supérieurs aux inconvénients.

  9. #7959
    Je n'ai pas creusé la question, ma TV fait HDR, je l'ai activé mais n'ai pas essayé de voir la difference on/off, ni cherché quels contenus le géraient, soit sur PS5 (HZD forbiden west doit le gérer, GT7 aussi, je pense), soit sur PC (là, j'imagine qu'il faut activer des paramètres).

  10. #7960
    Le problème du HDR sur PC pour le moment est que la majorité des moniteurs sont HDR400, or c'est merdique, c'est un label pour faire joli sur la boîte en justifiant une nouvelle version de plusieurs moniteurs (donc ressortir quasiment le même, évitant ainsi de baisser le prix) et parfois un surcoût. (j'ai un moniteur HDR400, je ne l'ai pas pris pour cet aspect, j'ai tenté une fois et c'était ignoble)
    Il faut minimum du HDR600, Samsung en fait par exemple (même le G4 est HDR600) sur la plupart de ses moniteurs, donc ce n'est plus aussi inaccessible.

    L'OLED est parmi ce que l'on peut faire de mieux pour le HDR, la techno évitant d'avoir du blooming et d'avoir des noirs absolus accentuant l'effet via le contraste. Et on commence à avoir des tailles plus "normales", plus de 42-55", on a du 34" 21:9 qui n'est jamais que de 27" 16:9 étiré donc on est pas tellement loin d'avoir des 27".
    Le mini-LED est une très bonne solution en-dessous, mais encore faut-il des tailles et tarifs pas absurdes.

    L'autre souci, c'est Windows qui le gère quand même bien mal...

  11. #7961
    Windows le gère très bien à partir du 11 (et passablement sur le 10 avec les mises à jour, mais c'est pas incroyable pour le coup).
    Et pour le coup je ne suis pas d'accord, la meilleure gestion de la luminance et du gamut de couleur étendu est une avancée qui est nécessaire depuis au moins 10 ans sur les écrans à gamut de couleur étendue.

    Le HDR et tout ce qui va avec, c'est 10 ans de retard technologique et 10 ans de futur qu'on a condensé ensemble. Et on se plaint que les 10 ans de futur on ne les atteint pas encore (pas même sur les moniteurs pros les plus chers qu'il soit, le 10k cd/m² rien ne l'atteint, et la Rec.2020 à 100%, je ne suis pas sûr non plus que ça soit atteint), alors que même sur la majorité des écrans DisplayHDR400 qu'on peut conseiller actuellement, on a des couleurs sur-saturées sans brider le moniteur.

  12. #7962
    Euh, relis, je n'ai jamais dit que le HDR est une mauvaise chose.
    Uniquement que leur prise en compte sur les moniteurs PC, dans la majorité, est mauvaise.

    Par contre, oui, j'ai bien dit que le HDR400 c'est de la merde, quand on a un écran HDR400 il faut oublier l'idée de l'activer.
    Les écran HDR400 sont des écrans edge LED pour la quasi totalité, il est impossible de gérer correctement le HDR avec un tel type de rétro-éclairage.
    Pour quelques exception on peut avoir 6-8 dimming zones, et encore je crois bien que ces écrans entrent parfois dans le HDR600.

    Le minimum est d'avoir 16 dimmings zones comme sur certains moniteurs Samsung, ou mieux du FALD, ou encore mieux du mini-Led ou OLED.

    Quand je veux jouer en HDR avec mon PC, je le branche sur ma TV OLED dans mon salon.
    Dernière modification par Endymion ; 14/10/2022 à 15h47.

  13. #7963
    Et moi je te dit que pour la majorité des moniteurs qui le supporte, c'est une bonne chose. Sur la plupart des écrans HDR400 (estimation au doigt mouillé), la couverture colorimétrique est plus large que le sRGB, et la gestion de la luminance est plus poussée, permettant de ne pas cramer les blancs (quitte à sacrifier un peu d'"impact").

  14. #7964
    Citation Envoyé par Endymion Voir le message
    ou mieux du FALD
    J'ai lu "du FLAD"
    How can I be lost, if I've got nowhere to go?

  15. #7965
    Citation Envoyé par Qiou87 Voir le message
    Personnellement je trouve vraiment intéressant qu'on puisse afficher plus de couleurs, plus de dynamique et plus de "richesse" visuelle ; pourquoi on voudrait plus de pixels, plus d'images par secondes, et pas plus de dynamique, de contraste et de couleurs? Je m'interroge juste sur la chaîne de compatibilité dont tu parles Dross, justement. J'ai quand même le sentiment que c'est moins simple que ça en terme de support sur PC, mais si tu as des articles qui détaillent cela (plutôt tutoriels que des études en double aveugle ) ça m'intéresse. Egalement parce que si c'est vraiment devenu plus facile d'en profiter, je n'hésiterai pas à le conseiller, de la même façon que j'étais très rapide à conseiller des dalles IPS même aux joueurs lorsqu'elles sont devenues acceptables en latence et fréquence - je trouvais les avantages en qualité d'image très supérieurs aux inconvénients.
    Honnêtement ça me parait encore très jeune comme techno, surtout avec le bordel des vrai/faux HDR (les normes discutées plus haut) qui auront des conséquences plus ou moins heureuses, surtout que beaucoup d'utilisateurs rapportent des gros problèmes quand ils sont dans les normes bâtardes (HDR400 notamment) comme si le support était incomplet et amenait foule de problèmes.

    A mon avis il faut que le gain soit indiscutable et majeur pour que ça se démocratise, avec les OLED HDR1000 qui arrivent (y'a quoi, 2 écrans actuellement qui ont ça ? c'est vraiment bleeding edge) on peux espérer avoir le matériel qui sera assez motivant pour s'y plonger. Surtout que les convertisseur SHD => HDR de Microsoft offrent apparemment un résultat exploitable donc on a une rétro-compatibilité sur le contenu aussi.

    Au contraire de techno comme l'IPS/VA/etc où techniquement tu ne fais pas plus que brancher l'écran, là on rentre dans le bordel de la gestion des couleurs (que les photographes connaissent bien, entre les écrans wide gamut, les profils colorimétriques plus ou moins bien supportés et les inconsistances de la chaîne quand on part pour l'impression/les tirages... ça peux être bien prise de tête parfois) et ça va forcément demander un peu d'adaptation/validation de la part des usagers pour le setup initial. Moins que pour un pipeline créatif, mais je ne pense pas qu'on sera sur du 100% plug-&-play tout de suite.

    Personnellement j'ai pas encore de moniteur HDR, mais je surveille ça de près, et autant y'a encore un an ça semblais être un énorme bordel avec des gains très aléatoire "c'est vraiment super, quand ça marche", autant l'arrivée de l'OLED semble rebattre un peu les cartes : les early-adopters sautent massivement dans le bateau actuellement, espérons que ça permette à l'écosystème de mûrir plus rapidement.

  16. #7966
    Pour l'OLED en moniteur, on ne parle pas de HDR1000.
    Déjà parce-qu'avoir 1000 nits (cd/m²) est rare, je ne suis même pas certain qu'on ait ça en TV (faudrait que je vois les tests des plus récentes).

    Et on parle d'HDR True Black, qui va jusqu'à 600.
    https://displayhdr.org/
    La raison est qu'une dalle OLED n'a pas besoin d'un luminosité aussi élevée qu'une dalle LCD du fait de son niveau de noir absolu, accentuant donc la luminosité produite via la contraste. (quand je regarde un film sombre avec des sous-titres blanc sur ma TV OLED ça pète un peu les yeux, donc je régle pour que les sous-titres soient légèrement transparents).

  17. #7967
    Le AW3423 liste pourtant bien une valeur de 1000 cd/m² ?

    Mais en effet, ils appellent ça autrement dans le cas de l'OLED. Comme si c'était pas déjà assez compliqué comme ça.

  18. #7968
    Nvidia abandonne le lancement de la 4080 12 GB sous cette dénomination après s'être rendu compte que tout le monde avait remarqué que c'était une 4070

    https://www.nvidia.com/en-us/geforce...4080-unlaunch/
    Patou pour les intimes

  19. #7969
    Mouais ça aurait pu être une 4070 Ti à la limite, ou alors ils auraient pu renommer la 4080 16GB en 4080 Ti, mais ils avaient probablement prévu quelque chose entre la 4080 16GB et la 4090.

  20. #7970
    Le HDR 400 n'est pas de la merde.
    C'est sont implémentation qui est merdique parce que la norme les autorise à le faire.

    En HDR 400 le local diming n'est pas obligatoire. Et quand il est implémenté c'est rarement plus de 8 bandes verticales.

    Perso je suis quasi toujours en pénombre devant l'écran un pic lumineux à 400 cd/m² avec un écran à 1000 zones de rétro éclairage je prends.

  21. #7971
    Ca a l'air compliqué ces normes, du coup je ne sais pas trop ce que ma TV fait, c'est noté HDR10, donc ni 400, ni 1000.
    Le test des Numériques donne un pic de luminosité de 1090 cd/m².
    Sinon c'est quoi le bon test pour voir dans un jeu ce que donne le HDR ?

  22. #7972
    Citation Envoyé par Dross Voir le message
    Le AW3423 liste pourtant bien une valeur de 1000 cd/m² ?

    Mais en effet, ils appellent ça autrement dans le cas de l'OLED. Comme si c'était pas déjà assez compliqué comme ça.
    1000 cd/M² sur une fiche n'équivaut pas un 1000 pour du HDR, c'est plus compliqué que ça.
    Le chiffe annoncé est un peu de la triche, je crois que c'est ce que l'on peut atteindre dans des conditions idéales sur une surface très limitée de l'écran en pratique.

    - - - Mise à jour - - -

    Citation Envoyé par Berk-124 Voir le message
    Le HDR 400 n'est pas de la merde.
    C'est sont implémentation qui est merdique parce que la norme les autorise à le faire.

    En HDR 400 le local diming n'est pas obligatoire. Et quand il est implémenté c'est rarement plus de 8 bandes verticales.

    Perso je suis quasi toujours en pénombre devant l'écran un pic lumineux à 400 cd/m² avec un écran à 1000 zones de rétro éclairage je prends.
    On peut relativiser en disant que les écran HDR400 proposés ont un HDR merdique.
    A croire que la norme a été créée pour faire plaisir aux commerciaux des constructeurs, comme ça ils peuvent dire que leurs écrans sont HDR et mettre le logo sur la boîte (et justifier un prix plus élevé qu'un écran non HDR400).
    Dernière modification par Endymion ; 15/10/2022 à 14h53.

  23. #7973
    Citation Envoyé par Endymion Voir le message
    1000 cd/M² sur une fiche n'équivaut pas un 1000 pour du HDR, c'est plus compliqué que ça.
    Le chiffe annoncé est un peu de la triche, je crois que c'est ce que l'on peut atteindre dans des conditions idéales sur une surface très limitée de l'écran en pratique.
    Non mais c'est Dell là, on ne parle pas d'une marque de seconde zone...

    Je suis allé vérifier, c'est bien 1000 mesuré (1013 même) (en "mode HDR1000 only" donc visiblement cette nomenclature est aussi utilisée dans le monde des OLED).

  24. #7974
    Citation Envoyé par Qiou87 Voir le message
    Le HDR a le même inconvénient que d'autres trucs, comme la VR, qu'il faut expérimenter soi-même. […] Le HDR doit s'expérimenter sur une machine équipée, ce qui réduit beaucoup sa portée et facilite le boulot des sceptiques.
    Gros +1.

    Pour ceux qui ont un écran HDR, j'imagine que cette vidéo peut bien montrer la différence : lancez la vidéo avant et après avoir enclenché le HDR : https://www.youtube.com/watch?v=mkggXE5e2yk

    Et pour ceux qui ont pas d'écran HDR, ben comme dit Qiou87…

    J'ai joué à certains jeux en HDR qui en tirent convenablement parti : Shadow Warrior 2, Doom Eternal.
    Deep Rock Galactic, lui, a son HDR buggé depuis plusieurs années.

    Game changing ? Non. Appréciable ? Oui. Encre plus que les couleurs, c'est les écarts de luminosité qui sautent aux yeux chez moi.
    Les zones sombres sont bien sombres, les zones lumineuses sont bien lumineuses : on dirait de la vraie lumère (si l'on peut dire).

    Je regarde beaucoup de films et série en HDR et j'ai eu l'occasion de comparer avec des visionnages sur des moniteurs non HDR. La différence est flagrante. Les effets pyrotechniques (par exemple un éclair, une flamme…) te crament agréablement la rétine, et les écrans non HDR paraissent fadasses à côté.

    Je pourrais ajouter des détails, mais on s'éloigne du sujet alors… Bye bye !
    Un thème sombre pour le forum : ça se passe ici.

  25. #7975
    Pour moi quelque-chose est "game changing" quand on ne reviens pas en arrière (ou aurais beaucoup de mal à).

    Des exemples de game changing : le passage 4/3 au 16/9, du 16/9 au 21/9+, du 60Hz au 120Hz+, etc. Tout ça ce sont des game changer.
    Des choses appréciables qui ne le sont pas : courbature d'écran, homogénéité (pour le jeu), etc.

    Je suis persuadé qu'une fois le HDR bien établis on le verra comme un game changer, jamais on ne voudra retourner sur l'étape d'avant qui nous paraîtra bien fade (de la même manière que de jouer en 60Hz donne l'impression de ramer continuellement quand on reviens du 120Hz et d'avoir des œillères quand on passe à des ratios d'écran plus étroits).

  26. #7976
    reneyvane
    Guest
    Les écrans QLED associent les prix agressif de la technologie LED et des nouvelles technologies qui permettent d'éteindre des zones de l'écran afin d'emprunter le principe des écrans OLED.

  27. #7977
    Citation Envoyé par reneyvane Voir le message
    Les écrans QLED associent les prix agressif de la technologie LED et des nouvelles technologies qui permettent d'éteindre des zones de l'écran afin d'emprunter le principe des écrans OLED.
    Aïe. Non, le QLED c'est un traitement sur la manière de produire les couleurs, en utilisant des boîtes quantiques, qui permet d'avoir un spectre lumineux très propre, et donc en théorie un excellent rendu des couleurs. Ca s'applique aussi sur les OLED, avec les dalles QD-OLED de Samsung (utilisés aussi chez Sony, ou sur l'ultrawide Alienware mentionné plus haut). Le fait que le QLED soit utilisé sur des LCDs haut de gamme en général (pour les raisons mentionnés précedemment) n'a rien à voir avec les technologies de rétro-éclairages.

  28. #7978
    Citation Envoyé par skyblazer Voir le message
    des boîtes quantiques
    L'intelligence c'est comme un parachute : quand on en a pas blabla.. ça a pas plus à un modo.

  29. #7979
    Citation Envoyé par Dross Voir le message
    Pour moi quelque-chose est "game changing" quand on ne reviens pas en arrière (ou aurais beaucoup de mal à).

    Des exemples de game changing : le passage 4/3 au 16/9, du 16/9 au 21/9+, du 60Hz au 120Hz+, etc. Tout ça ce sont des game changer.
    Des choses appréciables qui ne le sont pas : courbature d'écran, homogénéité (pour le jeu), etc.

    Je suis persuadé qu'une fois le HDR bien établis on le verra comme un game changer, jamais on ne voudra retourner sur l'étape d'avant qui nous paraîtra bien fade (de la même manière que de jouer en 60Hz donne l'impression de ramer continuellement quand on reviens du 120Hz et d'avoir des œillères quand on passe à des ratios d'écran plus étroits).
    Je ne suis pas d'accord sur l'aspect "game changer" des ratios d'écran, chaque ratio a ses avantages et inconvénients. Il n'y en a pas un qui soit supérieur à un autre de façon globale.

  30. #7980
    Citation Envoyé par k4rmah Voir le message
    Boîte quantique (quantum dots en anglais). Concrètement, ça te donne un truc où tu envoies de la lumière bleue, et ça te donne une lumière d'une autre couleur, très nettement définie. La page Wikipédia anglophone sur les écrans à quantum dots est assez complète. Et du coup on laisse passez la lumière bleu, on met une petite couche filtrante à boîte quantique pour du vert, pareil pour le rouge, et hop, on a un pixel et ses trois sous-pixels. On multiplie ça par quelques millions et on a un écran.

Page 266 sur 314 PremièrePremière ... 166216256258259260261262263264265266267268269270271272273274276 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •