Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 137 sur 313 PremièrePremière ... 3787127129130131132133134135136137138139140141142143144145147187237 ... DernièreDernière
Affichage des résultats 4 081 à 4 110 sur 9367
  1. #4081
    Citation Envoyé par zeXav Voir le message
    N'empêche les résultats de la 3090 ultra proches de la 3080 en gaming ont de quoi interpeler.

    On retombe toujours sur la même question de fond.

    Pourquoi avoir poussé autant la 3080 ?

    - 10% de perfs en moins sur la 3080 avec le même tarif, ça ne choquait personne.
    - Elle aurait pu jouer le jeu conso et chauffe réduites.
    - Une plus grande différence entre la 3080 et 3090 permettait de placer plus de 3090 sur du "gaming".

    Nvidia gagnait sur tous les plans.
    Mais c'est uniquement si on part du principe que Nvidia avait une longueur d'avance...

    On va être fixé prochainement.
    Soit AMD est là, soit il y a eu un beau coup d'intox et Nvidia a flippé pour rien.
    Voilà une bonne analyse. J'avoue être assez impatient de voir ce que cache ATI.
    Le raytracing j'y crois a mort, le gain de réalisme est colossal si bien utilisé mais ça coûte très cher par nature. Ce serait dommage que les Radeons ne poussent pas par là car avec les deux nouvelles consoles en RNDA, beaucoup de développement va se baser sur cette architecture j'imagine.







    Après pour les grincheux, si des gars lâchent des thunes pour rien c'est eux que ça regarde. Ici on conseillera plus facilement de la rRTXxx60/x600RX pour le gamer éclairé.
    Citation Envoyé par Kahn Lusth Voir le message
    Oh se détend du slibard, les redresseurs de torts du Dimanche.

  2. #4082
    Citation Envoyé par BaDy Voir le message
    D'ailleurs c'est quoi un vieille écran 1080P ?
    Moniteur TN en FHD(1080p) 60Hz.

    Concernant votre bagarre sur la définition d'un écran certains d'entre vous oublie la fréquence d'écran, une RTX 3080 couplé avec un FHD 60Hz c'est bizarre (limite idiot) c'est comme (avec une bonne vieille analogie automobile) avoir une Lada avec un moteur V12 Ferrari.

    Sauf bien sur si un nouvel achat d'écran est prévu dans les mois qui suivent.

    Par contre avec un FHD 144Hz ça commence à prendre sens bien que sûrement bien overkill mais sur un 240Hz voire les derniers 360Hz là avoir une RTX 3080 est pas si idiot que ça.

  3. #4083
    Quand je lis ailleurs sans ironie

    En tout cas a coté la 3080 FE elle est cadeau
    ...

  4. #4084
    Ce qui est marrant c'est que la 3090 offre un meilleur rapport conso et puissance/ prix qu'une 2080 Ti. C'est dire le niveau d'arnaque de cette dernière.

    Moralité, possesseurs de RTX 2080Ti vous n'avez pas le droit de rire ou de cracher sur la 3090, vous avez fait pire.

  5. #4085
    Citation Envoyé par garyturner Voir le message
    Après pour les grincheux, si des gars lâchent des thunes pour rien c'est eux que ça regarde. Ici on conseillera plus facilement de la rRTXxx60/x600RX pour le gamer éclairé.
    Ce qui me chagrine, dans cette histoire, c'est qu'en temps normal un économiste dirait que ça nous profite puisque les économies d'échelle liées à l'augmentation des ventes fera baisser les prix. Sauf qu'en bons capitalistes ayant relu leur JB Say, on sait bien que la logique de nVidia est plutôt de se dire : tant qu'ils achètent à ce prix, je continue de me faire des co...lles en or marges de goret. Seule une concurrence sérieuse d'AMD pourrait changer la donne.
    www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…- PC Ryzen 3700X+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220 (Gx7 + Panasonic 14mm en secours)

  6. #4086
    Je verrai plutôt le gros gain de perf de la 3090 dans les applis professionnelles que pour les jeux, d'où son tarif. Est-ce qu'on a des benchs sur la RTX 3090 sur des outils pro ?
    La carte n'étant pas adressée uniquement pour les joueurs.

  7. #4087
    Citation Envoyé par MetalDestroyer Voir le message
    Je verrai plutôt le gros gain de perf de la 3090 dans les applis professionnelles que pour les jeux, d'où son tarif. Est-ce qu'on a des benchs sur la RTX 3090 sur des outils pro ?
    La carte n'étant pas adressée uniquement pour les joueurs.
    J'ai vu qu'un test sous Blender chez Hardware Unboxed. Ils ont eu un poil en dessous de 20% de gain par rapport à la RTX 3080. Le seul moyen de voir une grosse différence c'est de trouver une tâche qui va utiliser des tonnes de Vram. Mais en puissance de calcul brute sans être limité par la mémoire il ne faut pas espérer plus de 20% apparemment.

  8. #4088
    Je pensais plutôt sur l'utilisation intensive des Tensors cores et de la partie purement dédié à l'IA / Deep Learning.

  9. #4089
    Citation Envoyé par wiotts Voir le message
    Quand je lis ailleurs sans ironie



    ...
    Tu mets le doigt sur un truc....Si ça se trouve nvidia sort la 3090 excessivement chère exprès pour que les gens se disent "la 3080 elle est pas chère, c'est une affaire"

  10. #4090
    Citation Envoyé par MetalDestroyer Voir le message
    Je pensais plutôt sur l'utilisation intensive des Tensors cores et de la partie purement dédié à l'IA / Deep Learning.
    Le surplus de tensor cores n'est pas énorme par rapport à la 3080, 328 vs 272, donc les gains ne seront pas faramineux.

  11. #4091
    Citation Envoyé par JulLeBarge Voir le message
    On peut donner aussi l'exemple des iPhones hors de prix alors qu'un simple Wiko à 100 balles suffit
    Ayant les deux (ils sont posés juste à coté de mon tapis de souris là, pro et perso) je t'assure qu'il y a une nette différence à l'utilisation

    Sinon pour rester dans le sujet, et me faire une idée de ce que je dois prendre comme référence, pour une résolution bâtarde comme la mienne qui n'apparait dans aucun benchmark (3440x1440), c'est plutôt 2070/3070 ou 2080/3080 ?

  12. #4092
    Pour relativiser le niveau dznculade, la version pro de la 3090 est annoncée a plus de 5000e

    https://news.google.com/articles/CAI...R&ceid=FR%3Afr

    Vous noterez bien-sûr les chiffres
    48go de mémoire vs 24
    10496 cudacores vs pareil
    Ram 768go/sec vs 936go/s

    Pour plus de 3x le prix...
    Citation Envoyé par Kahn Lusth Voir le message
    Oh se détend du slibard, les redresseurs de torts du Dimanche.

  13. #4093
    Citation Envoyé par Praetor Voir le message
    Ayant les deux (ils sont posés juste à coté de mon tapis de souris là, pro et perso) je t'assure qu'il y a une nette différence à l'utilisation

    Sinon pour rester dans le sujet, et me faire une idée de ce que je dois prendre comme référence, pour une résolution bâtarde comme la mienne qui n'apparait dans aucun benchmark (3440x1440), c'est plutôt 2070/3070 ou 2080/3080 ?
    J'ai aussi un 3440x1440, en terme de pixels on est entre le QHD et le 4K, donc probablement qu'on est environs à mi-distance au niveau perfs.

    Perso je pense partir sur la 3080 (en 20Go de préférence), sauf si les rouges cassent la baraque.

  14. #4094
    Citation Envoyé par Praetor Voir le message
    Ayant les deux (ils sont posés juste à coté de mon tapis de souris là, pro et perso) je t'assure qu'il y a une nette différence à l'utilisation

    Sinon pour rester dans le sujet, et me faire une idée de ce que je dois prendre comme référence, pour une résolution bâtarde comme la mienne qui n'apparait dans aucun benchmark (3440x1440), c'est plutôt 2070/3070 ou 2080/3080 ?
    Plutôt 6800/6900.

  15. #4095
    Citation Envoyé par garyturner Voir le message
    Pour relativiser le niveau dznculade, la version pro de la 3090 est annoncée a plus de 5000e

    https://news.google.com/articles/CAI...R&ceid=FR%3Afr

    Vous noterez bien-sûr les chiffres
    48go de mémoire vs 24
    10496 cudacores vs pareil
    Ram 768go/sec vs 936go/s

    Pour plus de 3x le prix...
    Donc la quadro a moins de bande passante que la 3090. Après il me semble pas que la BP mémoire dans les applications pro ait autant d'importance que pour le jeu.
    Sinon pour le prix je ne suis pas surpris, les Quadro ont toujours coûté un bras.

  16. #4096
    C'est le jeu, tu paies Quadro pour la certif avec les logiciels pros.

  17. #4097
    Citation Envoyé par zeXav Voir le message
    C'est le jeu, tu paies Quadro pour la certif avec les logiciels pros.
    A ce jeu les en pub, série et cinéma d'animation acheté plus de quadro maintenant. Les constructeurs garantissent leurs machines sur de la GTX tellement la demande est forte.
    La valeur ajoutée des quadro a disparu :/
    Citation Envoyé par Kahn Lusth Voir le message
    Oh se détend du slibard, les redresseurs de torts du Dimanche.

  18. #4098
    Pour revenir sur les cartes overkill, j'ai testé un peu mes "vieux" jeux avec ma récente acquisition, une RTX2070s.
    Je me disais qu'avec cette carte et mon écran 1440p je serais à l'aise, mais en fait elle est déjà quasiment au taquet des 60fps sur pas mal de jeu AAA: Watch Dog 2, Assassin Creed Louis XVI edition, Kingdom come...
    Alors y a de la marge en virant un peu d'options, mais pour Watch Dog je suis content d'avoir un écran gsync car le jeu tourne autour des 50 fps... et les autres sont entre 60 et 80 (pas de bottleneck cpu):
    c'est confortable mais d'ici deux ou trois ans je suis certain qu'elle va ramer un peu sur les jeux "next gen"...

    Je me dit que si j'avais le budget je craquerais peut-être bien pour une 3080 pour être tranquille.

    Mais quand je vois les prix c'est quand même l'hallucination totale...
    Genre une 3090 à 30000€ sur ebay, et non, ce n'est pas un bot enchérissant sur un autre bot... C'est une précommande:
    https://www.ebay.fr/itm/Precommande-...UAAOSwtjtfY4H~

  19. #4099
    Avant aussi les bots enchérissait sur des précommandes:



    Parce que bon, 30K ca fait quand même 5*RTX8000.

  20. #4100
    Quelques pistes intéressantes sur la fameuse GDDR6X et la conso des RTX 3080 et 3090. D'après Moore's Law Is Dead la conso élevée de ces carte vient principalement de la GDDR6X, un type de mémoire que Micro a développé sous l'impulsion d'Nvidia. Le gain en bande passante est notable mais en plus de coûter plus cher que de la GDDR6 il semblerait que le rendement énergétique ne soit pas très intéressant. Si ce n'est pas déconnant pour la 3090 qui vise les perfs quel que soit le coût aussi bien financier qu'énergétique c'est un peu plus étonnant pour la 3080 qui vise un public un peu plus large.

    On pourrait se dire qu'Nvidia a voulu malgré le surcoût en conso garantir une bande passante mémoire de premier ordre pour sa RTX 3080 et donc le choix de la GDDR6X s'est finalement imposé quand même. MAIS, les specs des futures quadro viennent semer le trouble: ces dernières seront équipées de GDDR6 et non de GDDR6X mais disposeront d'une bande passante comparable (8 Go/s de plus en faite en faveur des quadro) tout en consommant moins de 300W. L'astuce réside dans le bus mémoire utilisé: 320-bits pour la RTX 3080 contre 384-bits pour les Quadro. La question est donc pourquoi avoir utilisé de la GDDR6X sur les RTX 3080? Ça coûte plus cher, ça consomme plus et on peut compenser la différence de bande passante par puce en élargissant le bus. Certes un bus plus large augmente la complexité du PCB et donc le coût , mais la GDDR6X étant plus chère on doit retomber sur ses pattes malgré tout.

    Pourquoi une RTX 3080 avec 10Go de GDDR6X sur un bus 320-bit plutôt qu'une RTX 3080 avec 12 Go de GDDR6 sur un bus 384-bit qui en toute vraisemblance n'aurait rien perdu en perf tout en consommant moins, j'avoue que je ne comprends pas bien le choix d'Nvidia. C'est un coup de gueule de Micron "Hého vous nous avez fait fabriquer de la GDDR6X maintenant il faut nous en acheter tudju!" ?
    Dernière modification par Kimuji ; 26/09/2020 à 09h41.

  21. #4101
    Ceci vient s'ajouter au reste. L'affaire est trouble !

    Pas pour faire une fixette mais les gars sont leader intouchables, incontestables, ils se sont gavés comme jamais avec les cryptos, les séries RTX 2XXX, ils ont toutes les cartes en main pour te pondre un produit encore plus abouti, et quand tu creuses tu te dis pourquoi ces choix ?

    Pas le temps de réorienter sur de la GDDR6 se croyant sous pression avec AMD ?
    Pas de remise en question ?
    Mauvaises décisions un peu comme Intel vs AMD ?

    Dommage de ne plus avoir des articles de fond sur le net pour traiter ces véritables questions.

  22. #4102
    A mon avis Nvidia a passé un contrat du style "vous faites la R&D et on vous garanti un volume d'achat minimum", volume d'achat qui ne peut pas être rempli juste avec la 3090 vu qu'ils ne vont pas en vendre des tonnes donc ils ont du en mettre aussi sur la 3080. Est-ce qu'on sait si la version 20Go de la 3080 aura de la GDDR6X aussi ?

  23. #4103
    Oui ils avaient peut être commandé de grosses quantités de GDDR6X avant d'avoir le produit fini, et ils ont découvert plus tard les problèmes de conso.

    Quant à la 3080 20Go elle sera "forcément" avec de la GDDR6X, passer sur de la GDDR6 ferait baisser la bande passante mémoire car sur des quantités comme 10 et 20Go on est obligé de rester sur un bus 320-bits (les puces étant interfacées en 32bits). Sur du 12 ou 24Go (comme la 3090) ça aurait été possible de passer à 384-bit mais c'est pas possible avec 20Go.
    Dernière modification par Kimuji ; 26/09/2020 à 12h07.

  24. #4104
    J'avais aussi supposé auparavant que le prix et surtout la chauffe (et donc conso) serait causés par la GRDD6X.
    Et si effectivement ils nous sortent une 3080 avec 20 Go de GDDR6X, ça va coûter cher et demander un refroidissement un minimum amélioré.
    20 Go, ça sert à rien même à long terme, 12-16 suffirait plus que largement pour du long terme..

  25. #4105
    Et c'est là qu'AMD va dégainer 12Go de GDDR6 pour aller contre la RTX 3070 et 16 Go de HBM2 pour contrer la RTX 3080.

  26. #4106
    Oauis, vivement qu'AMD les fassent redescendre un peu la !
    ​Burne yourself !!!

  27. #4107
    Les dernières rumeurs pour le flagship RDNA2 excluent l'utilisation de HBM (du moins pour les cartes destinées aux joueurs) mais parlent de perfs potentiellement supérieures à la RTX 3080 en rasterization classique et un peu en dessous en RayTracing. Si la conso est plus raisonnable et le prix attractif ce serait une excellente alternative.

  28. #4108
    L'affaire du plantage des 3080. Nouvelle hypothèse des pannes

    Plantage des RTX 3080 : un mauvais choix des condensateurs en cause ?

    Décidément, le lancement des RXT 3080 est vraiment compliqué pour NVIDIA, qui fait face à une vague de mécontentement de la part des clients en attente à cause de stocks trop faibles, tandis que ceux qui ont eu des cartes, qu'elles soient en Founders Edition ou de partenaires, peuvent rencontrer des problèmes de stabilité selon la fréquence du GPU.

    Et sur ce dernier point, Igor's Lab avance deux théories. La première est tout simplement le manque de temps laissé par NVIDIA à ses partenaires pour tester leurs cartes depuis le design de référence. Un point que nous mettrons de côté de suite, il ne s'agit pas du premier lancement d'une carte graphique et EVGA annonce sur son forum avoir repoussé la sortie de son modèle FTW3 à cause de problèmes de condensateurs trouvés lors de tests en interne.

    Et voici le deuxième point avancé.

    La suite :

    https://www.cowcotland.com/news/7347...-en-cause.html

    Source de l'article :

    https://www.igorslab.de/en/what-real...0-andrtx-3090/



    -----------------------

    Il est urgent d'attendre. (Ou acheter une TUF qui ne flancherait pas pour cause de bonnes pièces.)

  29. #4109
    ça ne s'applique pas aux FE non ?
    Grand maître du lien affilié

  30. #4110
    Citation Envoyé par tompalmer Voir le message
    ça ne s'applique pas aux FE non ?
    ->

    tandis que ceux qui ont eu des cartes, qu'elles soient en Founders Edition ou de partenaires, peuvent rencontrer des problèmes de stabilité selon la fréquence du GPU.

Page 137 sur 313 PremièrePremière ... 3787127129130131132133134135136137138139140141142143144145147187237 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •