Y aura le "refresh" vega avant les customs.
Y aura le "refresh" vega avant les customs.
Quel intérêt de faire 2.5 slot ? Puisque de toute façon le 3e sera pas libre, autant y aller jusqu'au bout et prendre 3 slots.
J'ai l'impression que de toute façon c'était pas tellement des cartes prévues pour des alims 500W...
Au moins on aura pas froid l'hiver avec
3*8pins pour une carte dont on peut faire exploser la consommation sans monter les perfs pour autant, pas mal.
Achetez ça, et gardez les Vega 56 pour les gens qui savent faire un bon choix de carte
Et sinon, vous vous souvenez de l'époque où nVidia avait un concurrent? Avec des cartes "custom" des partenaires disponibles quelques semaines à peine après le lancement?
Faut pas se formaliser sur les 3* 8pins d'alim. C'est un proto de pré-pré-développement que Sapphire a réussi à produire et à faire tourner ; ils étaient tellement contents qu'ils l'ont montré, un peu trop vite sans doute, mais bon quand tu réussis à créer une licorne forcément c'est la fête...
L'ambiance chez Sapphire:
Perso, actuellement je rachèterais probablement toujours plus une Vega 56 (à 400€, quand elle passe à ce prix) qu'un 1070 ou 1070 Ti
FreeSync peut-être? Personnellement j'ai beau en avoir plus que marre d'attendre, bah je continue. A chaque fois que je lance un jeu qui tourne à 40-50fps et que je ne vois aucun ralentissement, juste un truc super fluide sans tearing ni rien, je bénis cette techno. Le jeu le plus frappant pour ça c'est un truc de conduite (genre ETS2, ou un jeu de caisses), où tu tournes ta tête en jeu (=gros tearing sans Freesync). Sans Freesync ça fait longtemps que ma R9 290 aurait fini sur la baie, je joue en 2560x1440. C'est sûr que je baisse un peu les détails désormais, mais bien moins que si je devais tenir le 60fps constant. Du coup pour remplacer mon GPU je n'envisage pas de me passer de cette possibilité, même si au départ je compte surtout profiter d'être à 100fps+ (mon écran est 144Hz), lorsque la carte aura 2-3 ans je serai content de ce choix je pense.
PowerColor annonce visiblement une Vega64 custom pour la fin du mois. On va voir s'ils tiennent leurs délais, si Sapphire arrive à sortir un produit définitif avant la fin de l'hiver (2019 comme dit Theoo ), et s'ils pensent aux variantes 56. Ca me laisse le temps d'économiser, pour Nowell je demande que des cartes cadeau Amazon.
Pour le 2,5 slots, y a pas mal de cartes qui le font déjà, il y a des 1080Ti qui le font, donc bon. Ah, et 3x8 pins aussi ! Mais c'est Nvidia donc c'est OK
https://www.materiel.net/carte-graph...go-145100.html
Moi je veux une nouvelle carte pour jouer à 120fps à Destiny 2 Ma 290 tourne bien mais elle me suffit plus, et Nvidia... pas Nvidia pitié... Bon après si pendant le Black Friday y a une 1080Ti qui tombe sous les 600, bah. Je vais pas me leurrer ce sera un bon plan. (Mais on peut rêver).
Parce que c'est assez rare en vrai une 1070 sous les 400€, et clairement pas un truc qu'on trouve en permanence.
Et aussi parce qu'en vrai, la Vega 56 tourne mieux sur la plupart des jeux exigeants, ce en étant stock.
Et le Freesync que Qiou a mentionné (un Crossover 27 Fast 144 dans mon cas, moins prestigieux qu'Asus, mais beaucoup plus abordable quand je l'avais acheté il y a un peu plus d'un an).
Bah avec la version G-Sync, tu as l'ULMB qui est une bénédiction pour les jeux anciens capables de tourner à plus de 120fps.
( et accessoirement pour les films )
- - - Mise à jour - - -
Bah si elle avait le même niveau de perf's, je pense pas qu'elle serait autant moquée / critiquée.
Ouais enfin 3x8 pins pour une 1080Ti c'est inutile, la carte consomme 250W au max.. Pour Vega 64 ça sert à rien aussi, c'est juste que ça alimente de l'eau au moulin des détracteurs de Vega.
Pour le 2,5 slots c'est pas un vrai contre argument, il y a des 1070 qui existent dans ce format.
PS : c'était du troll hein, je précise au cas où pour la team 1er degrés.
Petit rappel du coût d'un module G-Sync :
http://www.hardware.fr/articles/914-...le-g-sync.htmlNous pouvons observer que le FPGA est un modèle Altera fabriqué en 28 nm, l'Arria V GX A3 (5AGXMA3D4F31I3N). L'Arria V est décliné en plusieurs versions et Nvidia a opté pour l'une des plus simples, probablement la moins chère capable d'implémenter toutes les fonctions nécessaires.
Vendu au détail ce FPGA en version "simple" coûte tout de même la bagatelle de 650€
Est-on sensé être fiers d'nVidia parce qu'ils savent proposer leur solution à seulement 1/4 de son prix "retail" alors que ce type de produit ne doit se vendre qu'à quelques unités par an, avec du coup des marges énormes en vente au détail pour compenser l'ensemble des frais de structure? Ou juste remarquer qu'une solution à iso-coût a été trouvée pratiquement en même temps par un de leurs concurrents (intégré à la norme VESA), qui si elle avait été adoptée par nVidia serait aujourd'hui probablement beaucoup plus répandue - permettant à un maximum de gens de profiter de cette technologie, peu importe leur GPU, plutôt que juste quelques happy fews?
Clairement, les ordinateurs portables n'ont même pas besoin du module pour avoir G-Sync :
http://www.hardware.fr/news/14063/g-...le-g-sync.html
Sans possibilité d'y intégrer un module G-Sync, trop cher et assurément trop gourmand, le portable a demandé à Nvidia d'opter pour une stratégie différente. Le compromis a donc été de se passer du module et de piloter directement la dalle à travers le protocole eDP qui intègre toutes les possibilités de l'Adaptive Sync, même si nous ne savons pas exactement comment Nvidia l'exploite. Il est possible pour Nvidia de se justifier en expliquant que sur un portable il est plus aisé de connaître exactement la dalle embarquée et ses caractéristiques et donc de n'autoriser G-Sync que sur celles qui proposent des caractéristiques idéales. Mais au vu du relativement faible nombre de moniteurs G-Sync disponibles sur le marché, nous ne voyons pas en quoi il n'aurait pas été possible d'en faire de même sur desktop.