Linus, premier à tester la 3090 sur une tv 8k. (Sponsorisé par nvidia.)
La résolution optique de l'oeil humain :
Un oeil sain et parfaitement immobile a une résolution moyenne de 7 mégapixels, soit plus de 80 fois moins que les 576 mégapixels théoriques.
Par exemple, un capteur qui restitue des images de 2 048 × 1 536 pixels (soit 3 145 728 pixels au total) est dit avoir une définition de 3,2 mégapixels.
8K = 7680 × 4320 soit 33 177 600 pixels soit 33 mégapixels
OKER...
Prochaine étape, s'offrir des yeux bioniques pour le 16K
https://www.lasikmd.com/fr/blogue/l-...-resolution-8k
Je ne pense pas qu'on puisse simplement raisonner de cette façon.
Il y a plein de facteurs qui entrent en compte. L'effet de la 8k sur l'image elle-même. Exemple, plus d'aliasing.
Le rapport entre la taille de la dalle et résolution aussi.
Je me permet d'avoir des doutes quand on ton raisonnement/conclusion Herman Speed. "résolution moyenne de 7 mégapixels" ça me parait très peu et même là, ça ne voudrait pas dire qu'on ne puisse pas mieux apprécier une image qui est dans des résolutions supérieures. Même si tu vois à travers une épuisette, ce que tu distingues à travers peut être plus ou moins joli en fonction de sa qualité de rendu.
Dernière modification par cooly08 ; 23/09/2020 à 13h20.
Clairement, n'ignorons pas la question de la distance et la taille de l'écran relative à sa définition (=la résolution, en PPP). Pourquoi un écran 720p paraît super fin sur un smartphone, et tout pourri si c'est un 24" sur PC?
La 8K sur un téléviseur 55", assis à 3m de distance, c'est effectivement peut-être inutile comparé à du 4K car on ne voit pas la finesse supplémentaire à cette distance. Mais si tu colles cette définition plus près de l'utilisateur, ça peut avoir du sens, sans parler de l'intérieur d'un casque VR. Bref, la haute définition peut avoir ses usages, même si je suis d'accord qu'il n'est pas question de tout coller en 8K sous prétexte que c'est possible. En télévision il faudrait déjà que les flux TV et la rapidité des connexions internet, en plus des sources éventuelles en streaming/VOD, soient adaptés. Pour les jeux vidéo quand on voit déjà la course à l'armement qu'impose un écran 4K comparé à un 1440p voire 1080p, il est clair qu'il faut s'assurer d'avoir les reins solides avant de se lancer là-dedans.
Ah c'est sûr, la 8k c'est pas pour demain. Mais sans doute pour après-demain. Je vous laisse définir demain et après-demain.
Je ne veux pas relancer le débat pc vs console (je me permets juste d'ajouter qu'un jeu, même payé 80€ en boite, peut se revendre). Ma réflexion sous entend que les composants pc ont augmenté. J'avais monté une tour complète avec ssd pour 700€ en 2015. C'était pas le top mais un bon milieu de gamme. Aujourd'hui, dans cette même gamme, la facture est un peu plus salée.
Pas eu de console depuis 2015, et actuellement on m'a prêté une ps4 pour faire Uncharted4 et last of us2. Ben je dois avouer que je m'en suis pris plein les yeux. Et rien que l'expérience de jeu de TLOU2 justifie de se procurer une ps4. Ce jeu est une tuerie (dans tous les sens du terme )
Oui mais il faudrait aller plus loin dans ton analyse, avoir le détail de ta facture d'avant puis la nouvelle et comparer par poste, si tu comptes la carte graphique dedans et bien oui c'est le poste qui a le plus augmenté je pense mais il y a toujours des éléments: boîtiers, souris, etc à prix abordable. On tend vers une augmentation de nombreux postes car le marketing a changé (montée en gamme: boîtier, ventilateur, cm) mais normalement tu peux te faire un pc au même budget à part peut être la carte graphique.
Après apparemment l'objet principal de ton poste c'est le le prix d'une console / à un pc pour même usage, donc tu peux prendre tout en basique sauf la cg peut être et là tu compares (hors écran).
Ben oui, forcément ! Je plussoie mes collègues pilotes et photographe… C'est comme à l'époque de l'argentique où des mecs me disaient que le 24x36mm (format 135) ne permettait pas d'agrandir au-delà de 30x40 cm. Complètement con ! Bien sûr que si, puisque, au fur et à mesure que le format augmente, on se tient à une distance de plus en plus élevée pour embrasser la totalité de l'image.
@Herman Speed
Un exemple très concret, et surtout bien plus actuel… Je suis infographiste PAO (tout ce qui s'imprime, donc). Quand je prépare des fichiers pour l'imprimeur, je travaille par défaut au format 1:1 en 300 points par pouces (ppp) ou dots per inch (dpi pour les anglophones). Mais dès que la taille à imprimer passe au-dessus, on travaille alors au format 1:4 (toujours en 300 ppp). Une affiche abribus en 120x176 cm sera donc réalisée dans le fichier InDesign en 30x44 cm (soit 300x440 mm, l'unité de la PAO). Et si on réalise une affiche 4x3 m, on travaillera même au 1:10 (toujours en 300 ppp). Puisque l'on conserve la même résolution (300 ppp) en réduisant le format, cela revient à réduire la résolution à format égal, hein.
Pourquoi peut-on se le permettre ? Parce que, de toute façon, avec la distance, l'œil n'y verra que du feu. As-tu déjà trouvé qu'une affiche abribus ou 4x3 manquait de définition ? Non, tout simplement parce que tu les regardes à une distance très grande (souvent plusieurs dizaines de mètres). Et même de près, les trames d'impression ne sont pas si dégueu que ça. Fais l'essai de regarder un jour, tu verras que ça ne choque pas dès que tu t'éloignes à plus de 3 m.
Pour compléter l'analogie : quel est l"intérêt de la 8K sur un écran 45" ? Aucun. Même en 1080p ma TV de 45" est largement regardable. En 4K, elle serait un peu mieux définie, mais ce n'est pas indispensable. Donc pour exploiter de la 8K, t'as intérêt à projeter une image sacrément grande, sinon ce sont seulement des pixels perdus que ton œil ne distinguera même pas, et qui nécessitent du calcul inutile !
Comme l'explique Qiou, la VR est presque une exception car dans ce cas précis, l'image est forcément très près de l'œil. Il faudra donc lui appliquer une bien plus haute définition pour un ressenti équivalent et éviter l'effet de grille. Pour tout le reste, il y aEuroc…le QHD, voire la 4K. Franchement, cette dernière définition d'image me paraît déjà être pour demain, mais elle ne présente d'intérêt que pour de très grandes images… ou la VR.
Dernière modification par Ashley TOUCRU ; 23/09/2020 à 16h41.
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…- PC Ryzen 3700X+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220 (Gx7 + Panasonic 14mm en secours)
Oui hors CG, pas sûr non plus d'une grande différence en 5 ans, il y a tjs des boitiers, alim, barettes de ram etc. à moins de 100 euros. Après c'est compliqué de comparer réellement pc/console, il y a tant de frais cachés ailleurs (prix des jeux, rachat de matériel compatible, abonnements, revente, etc).
Pour du contenu vidéo sans doutes. Pour le jeu par contre... ça permettrai de ne plus avoir d'antialiasing ! Du tout ! Des arrêtes nettes et belles en natif ! Alors ça serai cher payé en puissance pour ça... mais le jour où ça sera disponible, on regardera les temps anciens de l'antialiasing comme la préhistoire où on dégueulassais l'image pour la rendre plus smooth.
Si les prochaines consoles tiennent leurs promesses, monter un pc va être forcément bien plus cher. Pour mon utilisation multimedia, mon i5 4570 me suffit largement. C'est le jeu vidéo qui plombe le budget ! Je n'étais pas client console, mais je dois reconnaitre que The last of us 2 (et même uncharted4, de 2016!) m'ont laissé sur le c*l. Techniquement, c'est bluffant. Les environnements fourmillent de détails, ça ne rame pas, pas de clipping (certes en 30fps). Après je ne suis pas dans le trip d'ausculter les textures de chaque caillou ou de souligner l'aliasing des brins d'herbe...Mais on réalise que l'optimisation, c'est pas du pipeau.
Après, peut être qu'il y a aussi une meilleure cohésion entre console et tv (?)
Bref, j'arrête le HS et vais patienter d'ici la fin de l'année/début 2021 pour décider de monter une nouvelle config ou passer sur console. D'ici là on trouvera des 3080 à 500 boules
Designer/Graphiste/Illustrateur
http://www.penguinscrossing.com
Ca va l'être sur la nouvelle gen (pour le SSD). Mais en effet le pendant négatif c'est un potentiel retard sur la techno en cours de route.
Après perso j'ai PC + console donc pas vraiment de préférence marquée.
Mais c'est vrai que, pour quelqu'un qui ne joue que console, du coup il voit probablement plus de différence quand il passe d'une génération à une autre.
Bonjour,
Je suis un possesseur comblé d'un vénérable Duck Nukem 2014.4 et qu'elle ne fut pas mon désarroi de voir le partenariat materiel.net et canard pc se terminer alors que je voulais reprendre une grosse bécane cette année ...
Je recherche une config qui pourra être aussi endurante que la précédente et qui puisse attaquer les AAA des deux prochaines années sans soucis.
Du coup j'ai pensé à la configuration suivante :
CM : ROG STRIX Z490-E GAMING
Proc : I9 - 10900K
ventirad : noctua NH-D15
ram : corsair vengeance lpx 32g ddr4 3200
alim : seasonic focus g750
Je cherche à trouver une carte graphique pour mieux profiter d'un c49rg90, ma GTX980 étant un peu limitée...
J'avais pensé aux nouvelles RTX3080, mais vu le souk pour la disponibilité et les maladie de jeunesse je pense me tourné vers une carte "bouche-trou".
Selon vous, quelle carte pourrait convenir ? Une 2080 super/Ti d’occasion ? ou un modèle neuf mais plus modeste ?
Salut, tu as le topic de Qiou ICI pour t'orienter dans les choix. C'est un peu le même concept que les configs canard pc on va dire, à part qu'il n'y pas de partenariat et que tu vas devoir la monter toi-même
Bonjour à vous!
J'ai le projet d'acheter une RTX 3080 pour remplacer ma GTX 1080 dans les mois à venir, mais je me demande si mon processeur ne va pas constituer un goulot d'étranglement, si vous en avez le temps j'aimerais bien avoir votre avis!
Processeur actuel: Intel Core i7-4770K 3.5 GHz
Alim actuelle: Corsair CX 500 W 80+ Bronze
RAM: Crucial Ballistix Sport 16 GB 2 x 8 Go DDR3-1600 CL9 Memory
Boitier ATX standard, modèle: Cooler Master N400 ATX
Écran en 1080p 60Fps.
L'intérêt serait de pouvoir profiter du RTX comme un gros beauf, être ultra flex sur tous les jeux pendant très longtemps si je reste sur mon vieil écran en 1080p ou bien pouvoir passer à une résolution supérieure sans souci si un jour l'occasion se profile de changer de moniteur. Selon PCPartPicker prendre une 3080 ne poserait pas de problèmes de compatibilité, je m'inquiète juste de la pertinence d'une grosse carte dans ma config de 2014.
Bonne journée à vous!
POUR QUI EST-CE QUE TU M'AS PRIS?!
Sincèrement, avec un 4770K non OC et en 1080p 60Hz, la pertinence de passer d'une 1080 à une 3080 est nulle, ta 1080 doit probablement déjà se tourner un peu les pouces.
Regarde les utilisation CPU/GPU en jeu avec Windows, si ça se trouve c'est déjà ton CPU qui sature en monocore sur certains jeux.
D'après ce site https://pc-builds.com/calculator/Cor...X12nlu/16/100/ même une 2080 Ti semble pas mal limitée par ton processeur.
C'est ton alimentation aussi qui ne va peut être pas suivre, les 3080 étant très énergivores. Et ton écran va également terriblement la brider.
Quand tu changeras d'écran, tu pourras voir ce que le marché propose à ce moment là.
Merci de vos réponses, honnêtement je m'en doutais. Plus qu'à revendre mon PC à ma demi-soeur et repartir sur une nouvelle config si je veux une 3080!
POUR QUI EST-CE QUE TU M'AS PRIS?!
Moi c'est la carte graphique qui est trop naz sur mon pc mais bon je le savais il m'en faut une du type 2080ti, c'est pour ça que j'attends un peu de voir les prochaines sorties AMD pour comparer tout ça
Designer/Graphiste/Illustrateur
http://www.penguinscrossing.com