Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 42 sur 313 PremièrePremière ... 3234353637383940414243444546474849505292142 ... DernièreDernière
Affichage des résultats 1 231 à 1 260 sur 9367
  1. #1231
    Y aura le "refresh" vega avant les customs.

  2. #1232
    Ah ouai quand même.


  3. #1233
    Citation Envoyé par Zouuu Voir le message
    Et aussi, ca prends 2 slots et demi sur la carte mère en hauteur... donc autant dire 3 :


    "it does not represent the final product." ... Ben j'espère pour eux, s'ils veulent en vendre...

    Quel intérêt de faire 2.5 slot ? Puisque de toute façon le 3e sera pas libre, autant y aller jusqu'au bout et prendre 3 slots.

    Citation Envoyé par taronyu26 Voir le message
    Ou comment donner raison à ce vieil adage comme quoi les cartes AMD sont des grille-pains qui transforment ton PC en barbecue...

    3x8 pins, ben ça va filtrer pas mal chez les alims.
    Une EC 500 chez LDLC c'est 2x8 pins, pas 3.
    Alors oui y'a la possibilité de sortir les adaptateurs Molex, mais bon...
    J'ai l'impression que de toute façon c'était pas tellement des cartes prévues pour des alims 500W...
    Au moins on aura pas froid l'hiver avec

  4. #1234
    Citation Envoyé par Theoo Voir le message
    Au moins on aura pas froid l'hiver avec
    Ah tu crois encore à une sortie avant la fin de l'hiver toi?

  5. #1235
    Citation Envoyé par Qiou87 Voir le message
    Ah tu crois encore à une sortie avant la fin de l'hiver toi?
    La magie de Noël.
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  6. #1236
    3*8pins pour une carte dont on peut faire exploser la consommation sans monter les perfs pour autant, pas mal.

    Achetez ça, et gardez les Vega 56 pour les gens qui savent faire un bon choix de carte

  7. #1237
    Et sinon, vous vous souvenez de l'époque où nVidia avait un concurrent? Avec des cartes "custom" des partenaires disponibles quelques semaines à peine après le lancement?

    Faut pas se formaliser sur les 3* 8pins d'alim. C'est un proto de pré-pré-développement que Sapphire a réussi à produire et à faire tourner ; ils étaient tellement contents qu'ils l'ont montré, un peu trop vite sans doute, mais bon quand tu réussis à créer une licorne forcément c'est la fête...
    L'ambiance chez Sapphire:

  8. #1238
    Perso, actuellement je rachèterais probablement toujours plus une Vega 56 (à 400€, quand elle passe à ce prix) qu'un 1070 ou 1070 Ti

  9. #1239
    En sachant qu'on trouve régulièrement des 1070 plus que décentes sous les 400€... Pourquoi ?
    Je suis pro-AMD (parce que laisser un monopole à NVIDIA c'est la pire des choses à faire) mais je ne comprends pas bien l'intérêt de ta manœuvre.


  10. #1240
    Citation Envoyé par Qiou87 Voir le message
    Ah tu crois encore à une sortie avant la fin de l'hiver toi?
    J'ai pas dis cet hiver

  11. #1241
    Citation Envoyé par Voodoom Voir le message
    En sachant qu'on trouve régulièrement des 1070 plus que décentes sous les 400€... Pourquoi ?
    Je suis pro-AMD (parce que laisser un monopole à NVIDIA c'est la pire des choses à faire) mais je ne comprends pas bien l'intérêt de ta manœuvre.
    FreeSync peut-être? Personnellement j'ai beau en avoir plus que marre d'attendre, bah je continue. A chaque fois que je lance un jeu qui tourne à 40-50fps et que je ne vois aucun ralentissement, juste un truc super fluide sans tearing ni rien, je bénis cette techno. Le jeu le plus frappant pour ça c'est un truc de conduite (genre ETS2, ou un jeu de caisses), où tu tournes ta tête en jeu (=gros tearing sans Freesync). Sans Freesync ça fait longtemps que ma R9 290 aurait fini sur la baie, je joue en 2560x1440. C'est sûr que je baisse un peu les détails désormais, mais bien moins que si je devais tenir le 60fps constant. Du coup pour remplacer mon GPU je n'envisage pas de me passer de cette possibilité, même si au départ je compte surtout profiter d'être à 100fps+ (mon écran est 144Hz), lorsque la carte aura 2-3 ans je serai content de ce choix je pense.

    PowerColor annonce visiblement une Vega64 custom pour la fin du mois. On va voir s'ils tiennent leurs délais, si Sapphire arrive à sortir un produit définitif avant la fin de l'hiver (2019 comme dit Theoo ), et s'ils pensent aux variantes 56. Ca me laisse le temps d'économiser, pour Nowell je demande que des cartes cadeau Amazon.

  12. #1242
    Pour le 2,5 slots, y a pas mal de cartes qui le font déjà, il y a des 1080Ti qui le font, donc bon. Ah, et 3x8 pins aussi ! Mais c'est Nvidia donc c'est OK

    https://www.materiel.net/carte-graph...go-145100.html



    Moi je veux une nouvelle carte pour jouer à 120fps à Destiny 2 Ma 290 tourne bien mais elle me suffit plus, et Nvidia... pas Nvidia pitié... Bon après si pendant le Black Friday y a une 1080Ti qui tombe sous les 600, bah. Je vais pas me leurrer ce sera un bon plan. (Mais on peut rêver).

  13. #1243
    Citation Envoyé par Qiou87 Voir le message
    FreeSync peut-être? Personnellement j'ai beau en avoir plus que marre d'attendre, bah je continue. A chaque fois que je lance un jeu qui tourne à 40-50fps et que je ne vois aucun ralentissement, juste un truc super fluide sans tearing ni rien, je bénis cette techno. Le jeu le plus frappant pour ça c'est un truc de conduite (genre ETS2, ou un jeu de caisses), où tu tournes ta tête en jeu (=gros tearing sans Freesync). Sans Freesync ça fait longtemps que ma R9 290 aurait fini sur la baie, je joue en 2560x1440. C'est sûr que je baisse un peu les détails désormais, mais bien moins que si je devais tenir le 60fps constant. Du coup pour remplacer mon GPU je n'envisage pas de me passer de cette possibilité, même si au départ je compte surtout profiter d'être à 100fps+ (mon écran est 144Hz), lorsque la carte aura 2-3 ans je serai content de ce choix je pense.

    PowerColor annonce visiblement une Vega64 custom pour la fin du mois. On va voir s'ils tiennent leurs délais, si Sapphire arrive à sortir un produit définitif avant la fin de l'hiver (2019 comme dit Theoo ), et s'ils pensent aux variantes 56. Ca me laisse le temps d'économiser, pour Nowell je demande que des cartes cadeau Amazon.
    Tu as quel écran sans indiscrétion ?



  14. #1244
    Citation Envoyé par Stelarc Voir le message
    Tu as quel écran sans indiscrétion ?
    Asus MG279Q.

  15. #1245
    Ouah putaing il est pas donné.



  16. #1246
    Le prix

    Moi au final je suis en 144 Hz "classique" (et 1080p), mais du coup ça me laisse plus de budget pour la carte graphique

  17. #1247
    Citation Envoyé par Stelarc Voir le message
    Ouah putaing il est pas donné.
    A moi si. #homeoffice

  18. #1248

  19. #1249
    Citation Envoyé par Voodoom Voir le message
    En sachant qu'on trouve régulièrement des 1070 plus que décentes sous les 400€... Pourquoi ?
    Je suis pro-AMD (parce que laisser un monopole à NVIDIA c'est la pire des choses à faire) mais je ne comprends pas bien l'intérêt de ta manœuvre.
    Parce que c'est assez rare en vrai une 1070 sous les 400€, et clairement pas un truc qu'on trouve en permanence.
    Et aussi parce qu'en vrai, la Vega 56 tourne mieux sur la plupart des jeux exigeants, ce en étant stock.

    Et le Freesync que Qiou a mentionné (un Crossover 27 Fast 144 dans mon cas, moins prestigieux qu'Asus, mais beaucoup plus abordable quand je l'avais acheté il y a un peu plus d'un an).

  20. #1250
    Citation Envoyé par Qiou87 Voir le message
    C'est exactement cet écran que je veux !
    Je pensais me le payer en changeant de GPU l'année pro. Mais c'est juste un caprice pour passer au 1440p. Actuellement j'ai un BenQ 2411T 144Hz en 1080p. J'ai un collègue qui s'est craqué sur la version G-Sync, qui coute 150€ plus cher :x

  21. #1251
    Bah avec la version G-Sync, tu as l'ULMB qui est une bénédiction pour les jeux anciens capables de tourner à plus de 120fps.

    ( et accessoirement pour les films )

    - - - Mise à jour - - -

    Citation Envoyé par Gero Voir le message
    Pour le 2,5 slots, y a pas mal de cartes qui le font déjà, il y a des 1080Ti qui le font, donc bon. Ah, et 3x8 pins aussi ! Mais c'est Nvidia donc c'est OK

    Bah si elle avait le même niveau de perf's, je pense pas qu'elle serait autant moquée / critiquée.

  22. #1252
    Clairement. D'une part parce qu'on a déjà plein de modèles de 1080 Ti qui sont en 2x8 Pins, et que bon, c'est pas une 1070 Ti, c'est une 1080 Ti. On parle effectivement pas du même niveau de perfs.

  23. #1253
    Ouais enfin 3x8 pins pour une 1080Ti c'est inutile, la carte consomme 250W au max.. Pour Vega 64 ça sert à rien aussi, c'est juste que ça alimente de l'eau au moulin des détracteurs de Vega.

    Pour le 2,5 slots c'est pas un vrai contre argument, il y a des 1070 qui existent dans ce format.

    PS : c'était du troll hein, je précise au cas où pour la team 1er degrés.

  24. #1254
    Citation Envoyé par Blazkowicz Voir le message
    Bah avec la version G-Sync, tu as l'ULMB qui est une bénédiction pour les jeux anciens capables de tourner à plus de 120fps.

    ( et accessoirement pour les films )
    Enfin, c'est aussi 150 à 200 balles de plus un écran G-Sync que Freesync.

  25. #1255
    Oui mais c'est pas grave c'est Nvidia c'est même mieux que ce soit super cher.



  26. #1256
    Petit rappel du coût d'un module G-Sync :

    Nous pouvons observer que le FPGA est un modèle Altera fabriqué en 28 nm, l'Arria V GX A3 (5AGXMA3D4F31I3N). L'Arria V est décliné en plusieurs versions et Nvidia a opté pour l'une des plus simples, probablement la moins chère capable d'implémenter toutes les fonctions nécessaires.

    Vendu au détail ce FPGA en version "simple" coûte tout de même la bagatelle de 650€
    http://www.hardware.fr/articles/914-...le-g-sync.html


  27. #1257
    Citation Envoyé par Theoo Voir le message
    Quel intérêt de faire 2.5 slot ? Puisque de toute façon le 3e sera pas libre, autant y aller jusqu'au bout et prendre 3 slots.



    J'ai l'impression que de toute façon c'était pas tellement des cartes prévues pour des alims 500W...
    Au moins on aura pas froid l'hiver avec
    Tranquille avec mon 4x8 pins
    ​Burne yourself !!!

  28. #1258
    Citation Envoyé par Blazkowicz Voir le message
    Petit rappel du coût d'un module G-Sync :



    http://www.hardware.fr/articles/914-...le-g-sync.html

    Est-on sensé être fiers d'nVidia parce qu'ils savent proposer leur solution à seulement 1/4 de son prix "retail" alors que ce type de produit ne doit se vendre qu'à quelques unités par an, avec du coup des marges énormes en vente au détail pour compenser l'ensemble des frais de structure? Ou juste remarquer qu'une solution à iso-coût a été trouvée pratiquement en même temps par un de leurs concurrents (intégré à la norme VESA), qui si elle avait été adoptée par nVidia serait aujourd'hui probablement beaucoup plus répandue - permettant à un maximum de gens de profiter de cette technologie, peu importe leur GPU, plutôt que juste quelques happy fews?

  29. #1259
    Citation Envoyé par Qiou87 Voir le message
    qui si elle avait été adoptée par nVidia
    Nvidia sait très bien utiliser Freesync quand ça les arrange mais c'est seulement sur les pc portable(via l'eDP).

  30. #1260
    Citation Envoyé par Qiou87 Voir le message
    Est-on sensé être fiers d'nVidia parce qu'ils savent proposer leur solution à seulement 1/4 de son prix "retail" alors que ce type de produit ne doit se vendre qu'à quelques unités par an, avec du coup des marges énormes en vente au détail pour compenser l'ensemble des frais de structure? Ou juste remarquer qu'une solution à iso-coût a été trouvée pratiquement en même temps par un de leurs concurrents (intégré à la norme VESA), qui si elle avait été adoptée par nVidia serait aujourd'hui probablement beaucoup plus répandue - permettant à un maximum de gens de profiter de cette technologie, peu importe leur GPU, plutôt que juste quelques happy fews?
    Clairement, les ordinateurs portables n'ont même pas besoin du module pour avoir G-Sync :

    http://www.hardware.fr/news/14063/g-...le-g-sync.html

    Sans possibilité d'y intégrer un module G-Sync, trop cher et assurément trop gourmand, le portable a demandé à Nvidia d'opter pour une stratégie différente. Le compromis a donc été de se passer du module et de piloter directement la dalle à travers le protocole eDP qui intègre toutes les possibilités de l'Adaptive Sync, même si nous ne savons pas exactement comment Nvidia l'exploite. Il est possible pour Nvidia de se justifier en expliquant que sur un portable il est plus aisé de connaître exactement la dalle embarquée et ses caractéristiques et donc de n'autoriser G-Sync que sur celles qui proposent des caractéristiques idéales. Mais au vu du relativement faible nombre de moniteurs G-Sync disponibles sur le marché, nous ne voyons pas en quoi il n'aurait pas été possible d'en faire de même sur desktop.
    Citation Envoyé par Qiou87 Voir le message
    Le GPU c'est les huskies qui tirent, et la mémoire vive c'est le traîneau (plein de mémoire vive = gros traîneau). L'important c'est l'équilibre entre l'un et l'autre.

Page 42 sur 313 PremièrePremière ... 3234353637383940414243444546474849505292142 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •