Les tensor cores, je me demande si ce n'est pas un peu bullshit.
J'imagine bien des cires identiques mais bloqués a cette tâche pour forcer les devis a utiliser les ressources au dlss plutôt qu'à umautre chose.
Après oui je ne suis pas expert
Ben quand même, un peu si.
Entre les RX qui deviennent des vraies alternatives sur le HdG et les Ryzen qui tapent Intel.
La gen nvidia 2xxx hors de prix a été bien calmée avec la 3xxx parce que AMD etait pas loin en termes de perf.
Tu t'attends à quoi d'ailleurs en terme de perf exactement avec le "explose la baraque" ? Tu penses vraiment qu'un acteur d'un secteur industriel concurrentiel est capable de proposer X2 en terme de perf par rapport au leader du marché ?
Ou alors tu crois tous les Powerpoint des prez mais dans ce cas la...
Comme on dit les promesses n'engagent que ceux qui les écoutent.
Exploser la baraque c'est faire mieux qu'Nvidia, rien de plus. Et ça serai énorme car c'est pas arrivé depuis des années, presque une décennie.
Faire mieux c'est proposer la même chose moins cher, ou mieux pour le même prix. Aujourd'hui AMD ne fait pas même aussi bien qu'Nvidia : c'est le même prix pour la puissance brute sans les innovations comme DLSS et RT. En gros t'a moins bien pour le même prix.
Avec les grosses définitions (3440x1440, 4K, 8K, etc) et les résultats impressionnant du DLSS il est certain que l'avenir se fera plus au travers de ce genre d'innovations utilisant intelligemment l'IA que par la montée en puissance brute (qui stagne depuis quelques temps de toutes manières).
Hors question IA, Nvidia a plusieurs générations d'avance : les chercheurs bossent sur CUDA et autre depuis une éternité, et ça fait la troisième génération de cartes Nvidia qui proposent des processeurs dédiés à l’IA : la Titan V (qui était clairement orienté labo et non pas gameurs), les 20XX et maintenant les 30XX. Au départ j'étais étonné que Nvidia importe ces techno dans les produits grand public (mais en tant que dev dans des produits innovants et pas très éloigné de l'IA ça restait une bonne nouvelle pour moi), mais maintenant qu'on vois les applications (DLSS, RTX Voice, etc) et l'apport que ça donne pour le grand public, je me dis que c'était un très joli coup de leur part.
AMD eux n'ont rien vu venir, ils sont restés sur les techno usuelles et ont maintenant tout à rattraper. Les monopôles ne sont jamais bon et j'ai réellement hâte qu'ils rattrapent leur retard, mais ça va être dur, Nvidia a fait payer ses innovations avec une génération sacrifiée : les 20XX, mais maintenant ils en récoltent tout les gains.
AMD veux nous faire croire qu'ils vont pouvoir rattraper 3 gen de cartes avec puces dédiées et des armées de labo utilisant les cartes d'Nvidia avec 6 mois de dev sur une solution uniquement software ? Et vous y croyez vraiment vous ?
Heu RAB moi je veux juste un rapport performance/prix.....
Autant dire que c'est chez ni l'un ni l'autre.
AMD s'est bien fait niquer sur CUDA. Bien sûr qu'il y a OpenCL, mais faut voir l'horreur que ça a été pendant très longtemps. Et le délai pendant lequel y'avait rien en face, ou rien d'utilisable...
Les tensor cores, c'est un peu bis repetita quelque part. Sauf que là, ils ont réussi à en faire quelque chose de très efficace en jeu, et pas seulement un cadeau pour les devs.
De toute façons, en part de marché, c'est un peu plié d'avance; je vois pas trop où se situe le débat face à un constructeur minoritaire et à ses éventuelles réponses techno qui sortiront ou pas et marcheront ou pas.
Bien sûr que personne n'a intérêt à ce qu'AMD traverse le désert pendant 10 ans sur les GPU comme il l'a fait sur les CPU: on a vu les conséquences que ça a. Mais c'est pas une raison pour plier les faits à sa réalité souhaitée: laissons cela à Intel si vous le voulez bien
En quoi la génération 20XX a-t-elle été sacrifiée ? Parce qu'elle n'a pas été prise d'assaut par les mineurs comme les générations précédente et suivante ?
Ben je crois qu'elles avaient du RTX a peine utilisable, et qu'elles étaient pas tellement plus puissantes que la génération d'avant
Mais rassure toi ça c'est super bien vendu, NVidia plus ils merdent et plus ils vendent
Les tensor cores sur les 2060, je dirais pas que c'était du silicium bien utilisé en usage gamer.
Sur les 30XX, l'essai est transformé visiblement.
- - - Mise à jour - - -
Je me démerde en 4K avec un modèle non-super qui consomme franchement pas trop; je regrette de sous-utiliser les Tensor Core et les circuits RT mais ça reste objectivement du très bon.
Exemple pour illustrer : la 970
ça a fait bien parler en négatif lorsqu'on a découvert que les 4gb tournaient pas entièrement à la vitesse max (Nvidia avait menti)
Du coup les hardcorz on renvoyé la 970 pour prendre une 980 (NVidia fait de la merde donc donnons leur plus d'argent), et pour les moins Hardcorz, ça a tellement fait parler de la 970 qu'ils l'ont tous achetée (chouette de la merde, achetons là)
Et c'est tout le temps comme ça avec NVidia...je pourrai trouver d'autres exemples
Quand c'est sorti c'était les perfs des 10XX avec le prix des 10XX (sur le haut de gamme) un exemple : les 2080 avaient peu ou prou les mêmes perfs que les 1080 Ti, au même prix, et les 2080 Ti les même perfs que les Titan, au même prix encore.
Mais il y avait le RT (dans 0 jeux à la sorti, et qui plombais les perfs en plus) et le DLSS 1.0 six mois plus tard qui était tout naze aussi. Bref, aucuns intérêt pour les possesseurs de 10XX de migrer (et c'était mon cas : j'ai une 1080 Ti).
Par la suite les Super on un peu corrigé le tir en perf et avec la sortie du DLSS 2.0, mais ça n'a pas été la génération la plus dingue. C'était clairement la génération de transition.
Les 30XX au contraire c'est x2 en perf avec DLSS/RT devenu mature et attrayant. Là on peux discuter. Bon Covid + Crypto n'ont pas aidé, mais la horde de gens qui attendaient un vrai gap fait aussi parti du problème : tout le monde veux migrer.
Autre exemple : ceux qui ont acheté une 2060 pour le RTX
En fait c'est totalement inexploitable sur cette carte
Pour la partie Ray Tracing, les RTX 20x0 sont 2x plus performante que Volta (mais réservé uniquement dans le domaine pro). Y a du mieux, mais ca valait surtout pas pour une première génération mis pour le grand public. J'en ai fait les frais à l'époque avec la 1e carte Dx 10 (8800 GTX) puis avec la GTX 480 et puis la GTX 980. Cela dit, ces cartes ne m'ont pas tant déçu. Mais bon, fallait bien faire un upgrade.
Qui a acheté une 2060 pour le RTX. A part quelques blaireaux qui ne sont pas capable de lire un test je ne vois pas. Tous les tests l'ont toujours dit c'est un bonus peu exploitable.
Du bullshit marketing il y en a partout intel amd nvidia, et toutes les marques quelque soit leur domaine.
Tiens quand AMD a appelé tous ses CPU bulldozer FX-YYYY c'était pour faire joli ? Non c'était pour pigeonner. FX ça avait toujours était réservé au top du top avant. "J'ai pris un FX bulldozer ça va défoncer sa race"
Idem intel quand ils ont re-sorti les pentium et celeron, c'est pas par bonté. Ceux qui change de PC tout les 10 ou 15 ans et qui n'y connaissent rien, un intel pentium ça doit mieux sonner qu'un core i3 ou i5.
Pour les CPU c'est sévère, pour les drivers tu te trompes. J'étais sous AMD à l'époque (7870XT) et ça tournait plus que très bien. Contrairement à la Nividia (qui m'a coûté le double du prix) GTX 1070 Ti actuelle qui perd 60 % de ses performances en passant sous W10 20H2 et sans parler du niveau logiciel (monitoring, capture...) nettement en dessous.
Et c'est pas avec les prix actuels que je vais changer de carte donc les bugs, je vais les garder un temps même si j'ai espoir de retrouver un niveau de performances correct.
De mon côté j’ai une RTX 3060 Ti. Sur Cyberpunk, qui est un peu le benchmark de ces techs nVidia que sont le DLSS et le ray-tracing, c’est non seulement fluide en 1440p mais très beau et immersif (la nuit après la pluie).
Pour le coup je ne vais pas me prononcer pour des cartes que je n’ai pas (par exemple du côté d’AMD), mais force est de constater que celle que j’ai fait franchement bien son job, autant qu’en quantité (les FPS) qu’en qualité (les joulies images).
Voilà, c'est juste un témoignage pour rappeler qu’au delà de la tech (et de la battle des fans AMD/nVidia), il y a aussi le verdict bien concret côté affichage en jeu.
Je trouve qu'on parle pas assez du Resizable BAR dans le style bullshit marketing combiné à un gros pétard mouillé. AMD a sorti ça d'un placard (c'était dans la norme PCI-Express depuis des années) pour faire parler de ses RX6000 (alors que s'ils avaient été sûrs d'eux ils auraient pu communiquer sur le fait que c'était la première génération avec support hardware natif du raytracing ). Résultat: ça sert majoritairement à rien, les gains sont ridicules et du niveau d'un petit overclocking. Et on en a fait tout un foin avec des dizaines d'articles et de débats et des blaireaux qui n'y comprennent rien qui viennent harceler les devs sur leurs forums en mode "allez soyez moderne implémentez le SAM/Resizable BAR dans votre jeu".
https://www.clubic.com/pro/entrepris...ploiement.html
70% dans la durée, c'est quand-même étonnant.
Je vous rappelle quand-même qu'on n'est nullement tenu de mettre des gants de velours pour contrer des propos volontairement faux voire diffamants. Je pourrais très bien retourner le miroir en déclarant qu'ils n'ont étonnamment pas l'air de vous déranger outre mesure, mais ce serait vraiment de la surenchère.
- - - Mise à jour - - -
Bon à savoir, merci
Pourtant, j'ai regardé sur l'Internet, même sur wikistrike, personne n'en parle....