Annonce officielle de Nvidia, RTX 2070 pour le 17 octobre, 639 euros:
https://www.cowcotland.com/news/6420...s-edition.html
Annonce officielle de Nvidia, RTX 2070 pour le 17 octobre, 639 euros:
https://www.cowcotland.com/news/6420...s-edition.html
C'est celle qui a juste assez de puissance pour jouer en 720p avec RT activé, c'est ça?
Ca veut dire au moins 850$can chez les caribous, soit plus cher qu'une 1080ti en promo.
Je me demande si y a pas une erreur sur ces graphes quand même. La différence me paraît trop faible.
On verra ce que ça donne comparé à un 1080.
Au moins, on peut toujours faire des économies sur l'écran. Un écran 720p en état de marche, ça se trouve dans toute bonne déchèterie. En prenant ça en compte, ça reste raisonnable.
Dernière modification par Borh ; 26/09/2018 à 15h38.
Tu as déjà la réponse
Je n'ai jamais dit que la RTX 2080 n'était pas plus rapide que la GTX 1080. Mais les écarts là sont trop grands pour qu'il s'agisse d'une GTX 1080Ti. Les benchs de ces jeux qui incluent des GTX 1080Ti et ne ressemblent pas du tout à ça.
ok.
- - - Mise à jour - - -
La 2070 est la seule qui pourrait aller dans mon mini-PC en taille et consommation.
Les 2080Ti FE encore repoussées, au 9 octobre.
Je me demande si ça va impacter les customs encore, sans doute.
Aaah, mais vous pouvez être sûrs que les importateurs et distributeurs locaux vont encore se sucrer au passage. Surtout s'il y a une pénurie plus ou moins orchestrée et lors de la conversion des tarifs en Euros. Le schéma exact de la sortie des séries 10 est en train de se reproduire.
A moins d'avoir fait de la préco, de réagir très vite en direct avec Nvidia ou d'avoir une connaissance dans le milieu, les 2080 et 2080 Ti vont prendre assez vite une augmentation de 100 ou 150 Euros. Si ce n'est plus.
En termes de patate, j'ai cru comprendre que les séries 20 n'apportent pas un bond en avant exceptionnel. Les quelques tests ou benchmarks que j'ai pu voir, notamment les tests de PC Gamer, font état d'une progression de 15-20% par rapport à une 1080 Ti. C'est finalement assez peu et quand on regarde les spécificités techniques des cartes QUADRO, qui sont il est vrai bien plus chères (mais pas forcément plus coûteuses à produire aujourd'hui, je pense, en termes industriels), le downgrade est réel. Stratégie commerciale des petits pas avec le "grand public", sans aucun doute.
A part au niveau de certaines techniques de rendu comme le Raytracing par exemple, je ne pense pas qu'il faille attendre de miracles des séries 20, en particulier si l'on possède déjà une 1070 ou 1080, qui sont encore assez jeunes. Elles n'ont que deux ans. Le gros plus que je peux lire un peu partout, c'est que là où les séries 10 ne maintiennent pas très stablement un "60 FPS psychologique" en 2K (2560x1440) ou 4K de façon relativement constante (elles sont faites pour faire tout tourner à fond en 1920x1080, et encore), tous réglages software au taquet, les séries 20 sont plus à l'aise sur cet exercice. La 4K devient généralement plus stable en termes de frames et plus confortable à l'utilisation. Je me demande comment se placera la 2070 au mois d'octobre.
Après, même si les jeux récents ou en production vont de plus en plus penser à incorporer ces techniques de rendu et se baser sur les nouvelles architectures Turing pour les réglages en "ULTRA", combien de temps avant que ces jeux n'arrivent sur le marché? Le raytracing seul vaut-il suffisamment la peine de franchir le pas avec une série 20? Les écrans 4K/HDR/120 ou 144Hz de taille honnête sont-ils suffisamment accessibles aujourd'hui pour que le "bon père de famille" puisse tirer profit de ce matos? Combien de temps vont durer ces cartes, deux ans, comme les séries 10? Comment se positionne AMD en termes de placement concurrent?
Je me demande de plus en plus, en tant que simple amateur qui n'est pas un expert de ces domaines, si ces séries 20 valent vraiment le coup. Pour ma part, je crois que je vais sagement attendre de voir ce que donnent les séries 30 en 2020, en me disant que ma 1070 fera largement le taff d'ici là.
Dernière modification par Megiddo ; 27/09/2018 à 15h30.
Les 10 avaient le même problème en version FE au moment de la sortie, les ventilos soufflaient pas mal mais la température ne dépassait pas, en général, le seuil des 82 ou 83 degrés. En tirant vraiment dessus pourtant, avec des réglages au taquet et des jeux qui réclament pas mal. A l'époque, je me souviens que c'était le cas sur The Division par exemple, que je faisais tourner tout à fond, mais le jeu s'est lui aussi optimisé depuis lors.
Ca a été réglé assez rapidement au niveau des pilotes, notamment par les modes d'alimentation. Depuis, les ventilos sont bien plus discrets et la température mieux maîtrisée.
Ils rencontrent le même genre de désagréments avec les séries 20? A mon sens ce sera réglé assez vite et ça ne risque pas de faire cramer les cartes. Ils souhaitent sans doute éviter le "bad buzz" en termes d'image que ça pourrait occasionner. Surtout s'ils ne veulent pas rater le coche une fois de plus au niveau des contrats d'approvisionnement des futures consoles de salon.
Dernière modification par Megiddo ; 27/09/2018 à 15h35.
C'est quoi le rapport entre les futures consoles (qui sont déjà parties pour avoir de l'AMD il me semble) et les RTX FE qui ont des soucis de jeunesse? Même si la puce des consoles était fournie par nVidia (mais faudrait qu'ils fassent des cores CPU x86 puisque ce sont des SoC), le refroidissement et le firmware c'est aussi le boulot du constructeur (Sony/Microsoft).
Ah, j'ignorais qu'il était déjà acté que la future génération de consoles partait sur du AMD.
Pour répondre à ta question, la génération actuelle (PS4 et XBO + surtout les versions Pro et X lancées fin 2016 et 2017 il me semble) est quasiment représentée uniquement par de l'AMD, qui a fait carton plein avec cette génération. Sauf sur la Switch, je crois, qui est à moitié Nvidia, a moitié AMD.
A l'époque du choix et peut-être en particulier pour les versions de fin 2016/2017, il faudrait que je retrouve l'article en question dont nous avions parlé dans le topic des news il y a un moment, c'était justement les rapports prix/prestations bien sûr, mais surtout chauffe/refroidissement/voltage qui a été déterminant et qui a desservi Nvidia par rapport à son concurrent. C'est comme ça que j'avais clairement compris l'histoire en tout cas. Comme évoqué, je ne suis pas un expert du hardware mais un simple amateur. (Un SoC ne fait pas usage de ports auxquels Nvidia pourrait adapter ses GPU, même si l'interface, les bus et le système de broches sont différents?)
Donc de ce point de vue, il paraitrait important que Nvidia ne refasse pas la même erreur pour mieux placer ses composants graphiques (et aussi la qualité de son suivi au niveau software et interface, des pilotes) sur le marché consoles. On sait depuis longtemps que les consoles de nouvelle génération resteront majoritairement chez AMD?
Dernière modification par Megiddo ; 27/09/2018 à 18h04.
Je sais pas, il me semblait avoir lu ça - mais je peux me tromper. De toute façon si les constructeurs restent sur une seule puce SoC avec CPU et GPU, nVidia va avoir du mal à proposer quelque chose vu qu'ils font pas de x86 et que des cores ARM ne seront pas assez puissants.
Je pense qu'ils ne sont pas intéressés par le marché console, ça garantie un cash flow constant mais la marge est faible, tout le contraire de la philosophie de Nvidia du montée en gamme à chaque génération.
Ok, j'avais pourtant cru comprendre que leurs TEGRA ou les Xavier avec GPU Volta fonctionnaient bien sur ce principe. Ces derniers ont d'ailleurs l'air d'avoir pas mal de pêche, mais sont peut-être en effet assez éloignés d'une application spécifique aux consoles de jeu, à la différence, peut-être, des Turing qui sont plus adaptés et sûrement moins chers à produire en masse.
N'oubliez pas que la switch a une puce nvidia.
Dernière modification par Endymion ; 28/09/2018 à 00h54.
RPS a posté des benchs des plus étranges... sur AC Origin en 1440p (et un i5) la 2080 Ti se comporte moins bien que la 1080 Ti.
c'est rigolo de parler de ça. Je viens de passer à une 1080ti sur un 3570k overclocké à 4.1 ghz et j'ai des comportements étranges. Hier, j'ai lancé quelques jeux par curiosité, et soit ça se passe bien (division à 80-100 fps tout à fond, proc à 100%, carte qui se promène), soit c'est la bérézina avec le jeu qui est aussi lent qu'avec ma 1070. Le truc, c'est quand on regarde l'occupation carte vidéo et CPU, on est à 50% de charge CPU, et 30% de charge carte graphique.
Je vais un peu chercher avant de faire un ptit topic sur ce soucis, mais autant je m'attendais à du cpu bottleneck, autant là je comprends pas de ne pas le voir pleurer à 100% à chaque fois. (les jeux où j'ai observé ça, c'est fallout 4 moddé et Xplane basique)
En parlant de benchmarks TechPowerUp à testé le NVLink(le nouveau SLI) et comme il était à prévoir les résultats sont mitigé avec en moyenne 25% de gain(et avec un minima à -19% pour HellBlade et un maxima à +90% pour Stranger Brigade).
Enfin le SLI et tous ces trucs...
Entre un SLI de 2080 et une seule 2080ti, autant prendre la deuxième.
Mais bon, c'est bien pour ceux qui ont un max de fric à dépenser, alors autant aller directement au SLI de 2080ti.
As-tu vérifié la charge CPU par cœur, et non pas globale? Une charge à 100% sur le cœur #1, 50% sur le #2, et 0% sur #3 et #4 n'apparaîtra que comme ~30% de charge CPU, pourtant tu pourras avoir un sérieux bottleneck. Tous les jeux ne sont pas optimisés correctement pour tourner sur 4 cœurs.
J'ai monitoré ça aussi, et non, aucun des coeurs n'est vraiment à pleine charge. Ils sont au max à 65 ~70 %. j'avais pensé à ce risque mais nop. C'est vraiment bizarre comme comportement. Gta lui par exemple se max sur le cpu à 100% et la CG à 75%, ce qui est logique. Pareil sur Division.
Hop, pour éviter de pourrir ce topic : http://forum.canardpc.com/threads/12...7#post11960317
Dernière modification par blork ; 28/09/2018 à 11h37.
pas de soucis.
Sinon, juste pour revenir dans le sujet, j'ai installé la suite logicielle EVGA. Elle est un peu étrange dans son interface, mais j'y ai trouvé des trucs sympas. Apparemment, certaines cartes sont bardées de capteur de température. J'ai pu voir un diagramme de la carte avec des relevées à différents endroits. J'aime bien le truc.