Sympa quand tu claques un SMIC dans une carte graphique
Les premières séries 2080TI souffraient également de problèmes.
SPACE INVADERS
Encore un article du labo d'Igor :
Is Nvidia now fighting the Space Invaders on the RTX 2080 Ti and RTX Titan with glue as a workaround? The find of the week! | Update
17. April 2019 20:03
https://www.igorslab.de/en/kaempft-n...tueck-of-week/
"C'est le jour des bugs de la marmotte"
Les vidéos dénonçant les problèmes des 3080 se multiplient :
Même le VRP Linus Sebastien critique le Launching de Nvidia.
Le marketing a été surpuissant.
GeForce RTX 3080 CTD Issues likely due to POSCAP and MLCC configuration
GURU3D -19 pages de commentaires et de sel
https://www.guru3d.com/news-story/ge...iguration.html
Il faut attendre le retour des crashs, leur cause réelle et une nouvelle fournée de cartes.
Ouaip j'ai peut-être eu du bol avec ma GTX 1070 FE, j'étais pas serein à l'époque mais ça s'est bien passé.
Je crois que je vais pas retenter d'exploit avec la RTX 3070, surtout avec AMD en embuscade. Enfin c'est probable que je reste chez NVidia, pour les drivers Linux au moins.
Ce topic permet de garder la tête froide, surtout qu'il n'y a pas le feu pour moi
La RTX 3060 Ti a un TDP annoncé de 180 Watts.
https://www.cowcotland.com/news/7348...-rt-cores.html
Huuum, une 3060Ti avant la 3060 ? Le tout dans une ambiance de guerre d'intox avec les futures cartes d'AMD...
Un vrai telenovela ces lancements de GPU
Do you hear that thunder?
Mais on se pose quand même la question des tests.
1 carte défectueuse sur 100, je peux comprendre que ça passe pendant la période des tests, mais quand ça a l'air d'être plus répandu (ou inhérent à la conception), c'est déjà plus difficile à croire que personne ne le remarque.
https://www.hardwarecooking.fr/amd-r...ons-affichees/
Un leak possible sur les navi.
Ça se profile pas trop mal.
Les RTX 3000 se profilaient pas trop mal non plus.
Au niveau des consoles XboxOneX/PS5, sous RDNA2 d'AMD on a pour chacune le nombre de CU, téraflops et la fréquence variable ou non du GPU (PS5) mais pas le nombre de processeur de flux, est-ce que quelqu'un à l'information, les fiches techniques détaillés et comparative entre les deux machines dates de Mars 2020.
Dernière modification par reneyvane ; 27/09/2020 à 23h07.
Bah si ces gpu amd sont bons, pourquoi pas pour moi.
En attendant je suis sur la 1060 que mon boss m'a prêté, j'ai renvoyé ma 2080 à RdC pour avoir un un bon d'achat d'un peu plus de 500€.
Par contre j'espère que le raytracing sera actif à l'identique dans les jeux qui en ont actuellement, normalement oui mais on sait jamais...
Reste à voir les perfs en rt aussi, AMD n'ayant pas le bonus du dlss...
Les TFLOPS de deux architectures différentes ne sont pas comparables, 1 TFLOPS d'ampere n'équivaut qu'à environ 0.7 TFLOPS de turing en jeu. La 2080 ti c'est 13.45 TFLOPS, et la 5700 xt 9.754 pour te donner une idée. Si la 6900 xt est 2,3x plus rapide que la 5700 xt ça augure du très bon, au contraire... Après ça scale pas forcément de manière linéaire, mais il faut aussi ajouter les gains d'IPC.
Ça ne veut rien dire les TFLOPS. La RX 5700XT avec ses 10 TFLOPS bat la Vega 64 et ses 12.7 TF, et égale la Radeon VII et ses 13.8 TF (et sa bande passante mémoire plus de deux fois supérieure!) sur un paquet de jeux.
Et comme le dit Miuw, la 2080 ti c'est 13.45 TFLOPS or la RTX 3080 et ses 29.77 TF n'est que 30 à 40% plus rapide en 4K (beaucoup moins en 1440p). Les Ampere sont des cartes hybrides computing/jeux vidéo. Toute cette puissance de calcul ne se traduit pas en perfs de façon linéaire dans les jeux.
Dernière modification par Kimuji ; 28/09/2020 à 01h18.
La 2080 ti est 24% derrière la 3080 en 4K, et 19% en 1440p... J'imagine que tu voulais dire que la 3080 n'est que 40% plus rapide, mais même ça c'est très exagéré, c'est plutôt 31% plus rapide en 4K, et 23% en 1440p.
C'est bien pour ça que je disais qu'il restais à voir les perfs dans les jeux.
Mais ce ne sont pas que des cartes de jeux. Beaucoup vont les utiliser pour faire un peu de ML à coté.
Et c'est toujours compliqué de savoir à l'avance juste avec les spects mémoire/TFLOPS/etc les perfs d'une carte. C'est vrai. Mais je comprends mal le "Ça se profile pas trop mal" quand sur le papier c'est pas si fou que ça.
Ça parle d'une mémoire cache très élevée pour les RX 6xxx, ce qui expliquerait le "petit" bus 256 bits. On parle aussi de très hautes fréquences pour le GPU, entre 2200 et 2500Mhz en boost (ce qui expliquerait les 300W).
RDNA est un changement de philosophie complète chez AMD, après voir fait des GPUs un peu hybrides hérités d'une archi pensée pour le computing qui misait sur la puissance brute avec une grosse bande passante mémoire ils se sont réorientés vers une architecture plus sobre mais mieux optimisée pour le jeu vidéo.
Nvidia a un peu suivi le chemin inverse avec Ampere qui donne de très bons résultats dans les applications pro et semble plaire aux mineurs.
Je suis d'accord, il faut attendre une nouvelle fournée de cartes qui corrigent tout ça.
Cependant un crash au-delà de 2GHz soit au dessus des fréquences boost max officielles, ce sont juste des carte instables à ces fréquences et donc la limite d'OC est juste "basse". OK c'est pas la limite de la puce elle même, mais de toute manière pour toper 2GHz et plus il faut augmenter la conso à des valeurs folles. Franchement autant rester à 320 W, voir baisser un peu autour de 280/300 le boost devrait à peine baisser, mais la température baissera de manière importante.
D'après les retours des utilisateurs les derniers drivers NIVIDA auraient significativement (totalement ?) réduit le nombre de crashs des RTX 3080.
A voir si ça se confirme dans la durée.
www.infotographiste.fr - Instagram : florent.infotographiste - Si ça doit merder, ça merdera…- PC Ryzen 3700X+32GB+XFX 5700XT ThicIII Ultra - Panasonic G9 + Leica 8-18mm + Olympus 60mm macro ou Mamiya C220 (Gx7 + Panasonic 14mm en secours)