De toutes façons énormément de gens sur les forums défendent le 4K et les gforce 3x00 et ils les ont même pas.
Ils défendent des concepts auxquels dans les faits ils n'ont pas adhérer c'est assez bizarre.
De toutes façons énormément de gens sur les forums défendent le 4K et les gforce 3x00 et ils les ont même pas.
Ils défendent des concepts auxquels dans les faits ils n'ont pas adhérer c'est assez bizarre.
Merci Camarade Tilt !
J'espère sincèrement qu' Advanced Micro Devices te fournira un jour une médaille. C'est mérité.
Non rien faut apprendre a lire.
Attention, tu es ici sur le topic des rumeurs et discussions sur les CG, pas sur celui des conseils sur les CG.
C'est ton droit de ne pas aimer tout ca ( encore que je ne vois pas le rapport entre nvidia en opposition à AMD, la 4k et la VR) néanmoins, tu es conscient qu'il y a 20-25 ans ans certains avez exactement le même discours avec, au pif, les résolutions ( ou définitions comme on dit aujourd'hui) au delà de 1024*768 et les cartes accélératrice 3d, voir même les écrans LCD ?
Ce n'est pas question d'être réfractaire au progrès
C'est juste que le 4K, je vois pas l'intérêt en dessous du 42" et pour des raisons pratiques d'aménagement de son bureau, tout le monde ne peut pas avoir un 42"
C'est tout
Après sur un grand écran je veux bien mais le maketting veut nous faire croire que le 4K c'est obligatoire et qu'on doit absolument jouer en 4K même sur un 32". Et c'est ça que je trouve con
D'ailleurs des gens qui veulent passer au 4K y'en a partout (ça fait genre à la mode de dire qu'on veut passer au 4K). Mais des gens qui ont effectivement un 32" 4k (voire plus petit) et qui en sont contents on en trouve pas tant que ça bizarement.
Rien que de penser à un 32" 4K j'ai envie de me tordre de rire par terre tellement c'est ridicule
En vérité y'a aucune raison technique de dire que le 4K serait mieux qu'autre chose
C'est purement un conditionnement marketting
Le marketting conditionne le consomateur à acheter du 4K
Par exemple jusqu'à pas longtemps les écran 4K étaient en 60 hz maximum
Donc plein de gens on acheter des écrans 60HZ pour du gaming. Ce qui est débile.
Ensuite ton argument on peut le pousser plus loin....Pourquoi ne pas prendre un écran 8K ? pourquoi s'arrêter au 4K ? toujours pareil car le marketting conditonne les gens à acheter du 4K...Techniquement il n'y aurait aucune raison pour pas prendre du 8K vu que selon ta logique, plus c'est forcement mieux
Dernière modification par Tilt ; 07/03/2021 à 21h48.
Je n'essayais pas de démontrer que plus, c'est forcément mieux, plutôt que les gens qui ne pensent pas comme toi ne sont pas forcément tous des moutons et que l'avancer des technos qu'on utilise au quotidien est normale dans une certaine mesure, encore une fois, le 32" 4k tu n'en vois pas l'intérêt, il n'empêche que c'est peu à peu en train de devenir plus abordable et d'intéresser du monde, ce qui n'est pas encore le cas du 8k pour reprendre ton exemple.
Par contre, on est parti un peu loin du sujet du topic, du coup, je vais m'arrêter là perso.
Bon, puisque ça c'est pour moi qui n'avait rien demandé mais qui prend quand même dans le délire "Tilt contre le reste du monde, je vous emmerde tous", je suis passé au 4K avec un 40" il y a bientôt 7 ans parce que je passe le plus gros de mon temps avec plusieurs fenêtres ouvertes qui m'affichent de longues listes. Dire que j'ai apprécié la résolution, surtout les 2160 pixels de hauteur serait un euphémisme. Accessoirement, la taille de l'écran me permettait aussi de mater une série de mon lit sans avoir besoin de jumelles.
Puis il est tombé en rade après 5 ans et il n'y avait plus rien entre le 42" (trop grand et pas de modèle bien convaincant, pour l'essentiel des TVs rebaptisées écran d'ordi) et le 32". Ou alors repartir sur un Philips avec le même défaut de fiabilité, ce qui aurait été stupide. Donc j'ai pris un 32" en attendant qu'ils nous ressortent des diagonales intermédiaires. Au moins j'ai toujours tout ce que j'ai travaillé pendant des années qui s'affiche en réso native.
Quant au jeu, je n'ai pas besoin d'afficher à plus de 60 FPS (dit par toi, ça donnerait "je m'en branle d'avoir plus de 60 FPS dans les jeux, vous me faites tous marrer avec vos 144 FPS bande de moutons qui suivent toutes les modes", à répéter 5 ou 6 fois dans le même paragraphe) puisque je ne joue pas à des FPS compétitifs. Et si je ne peux même pas atteindre un FPS décent, il me suffit de jouer dans une résolution inférieure. Comme on dit : qui peut le plus peut le moins.
On peut aussi trouver le 4K une vraie amélioration dans certains cas d'usage, une amélioration à peine notable dans d'autres et en prévoir peu pour très peu de cas avec le 8K. J'ai eu mon premier téléphone portable il y a 4 ans, 20 ans après tout le monde, ce n'est pas pour ça que j'ai craché pendant 20 ans sur tous ceux qui en avaient un en les traitant de victimes du marketing. C'est juste que perso je n'en avais pas l'utilité.En vérité y'a aucune raison technique de dire que le 4K serait mieux qu'autre chose
C'est purement un conditionnement marketting
Le marketting conditionne le consomateur à acheter du 4K
Par exemple jusqu'à pas longtemps les écran 4K étaient en 60 hz maximum
Donc plein de gens on acheter des écrans 60HZ pour du gaming. Ce qui est débile.
Ensuite ton argument on peut le pousser plus loin....Pourquoi ne pas prendre un écran 8K ? pourquoi s'arrêter au 4K ? toujours pareil car le marketting conditonne les gens à acheter du 4K...Techniquement il n'y aurait aucune raison pour pas prendre du 8K vu que selon ta logique, plus c'est forcement mieux
Contrairement à l'audio où on a plafonné en qualité il y a 40 ans avec le CD-A 16/44, et où tout ce qui est arrivé depuis apporte exactement zéro changement audible (en dehors du multicanal), il y a encore de la marge en vidéo. Suffit de se souvenir qu'un PC ne sert pas qu'à jouer, même quand c'est un PC de gamer. D'ailleurs, la mode des écrans 21/9, c'est pas du bourrage de crâne marketing ?
Entre Dross et Tilt, il faudrait renommer ce topic : [carte graphiques]Le topic des rumeurs et des avis modérés
Et oh un peu de respect pour ceux qui animent le topic.
Le problème c'est de croire que tout le monde sont des gros bouffons victimes du marketing s'ils ont un avis différent.
Tout le monde n'achète pas des cartes nvidia dans l'espoir de mettre du RTX à fond. Personnellement, je suis passé d'une 280X dont j'étais très content à une 2060 quand je suis passé en 1440p (pas par faiblesse marketing, mais par besoin de plus d'espace sur mon écran) parce que c'était au moment de mon achat le meilleur rapport puissance/prix, en plus d'avoir une consommation plus mesurée que son équivalent AMD. C'est la seule raison.
Et sur ce forum, je suis prêt à mettre la main d'Hermann Speed à couper que l'extrême majorité pensent de la même façon : on ne fait pas des achats militants, on fait des achats selon des critères objectifs (la puissance, la consommation, le bruit, le prix...) et selon ce qui nous importe.
Personne ne te prend pour un con, Tilt, parce que t'as une carte AMD, principalement parce que tu es le seul à avoir une telle aversion pour une marque pour juger des gens selon leurs choix d'achat. Par contre, c'est clair que c'est parfois tentant de te titiller sur le sujet tant ça te tient à coeur et surtout, tant tu juges ceux qui ne pensent pas comme toi.
On n'a pas tous les mêmes besoins.
Idem pour moi. Je suis passé d'une RX480, dont j'étais très content pour du 1080p, à une RTX 3060 Ti, parce que je voulais passer en 1440p 144 Hz et qu'en décembre il n'y avait aucune CG AMD dans la même gamme de prix (400€) qui faisait aussi bien et qui était disponible. Et ça faisait un an que j'hésitais à craquer sur une RX 5700 (XT) mais j'attendais les nouvelles sorties AMD, on a vu ce que ça a donné... Il y aurait eu une CG AMD sur dans la même tranche de prix j'aurais sans doute comparer les deux marques pour voir laquelle est la plus intéressante en termes de perfs, consommation et prix.
Au final je suis ravi de mon choix d'une Nvidia: ça tourne au poil, c'est silencieux, et j'ai pu jouer à Cyberpunk avec le RTX dans de bonnes conditions. Et je vais faire Control prochainement qui exploite parfaitement le RTX et le DLSS paraît-il.
Après ça ne fait pas de moi un fanboy Nvidia pour autant: je suis d'accord que le RTX et le DLSS restent des technos de niche vu le peu de jeux supportés, je n'aime pas GeForce Experience et son côté usine à gaz (mais du coup je l'ai juste pas installé et je m'en porte très bien ), mais force est de constater que c'est Nvidia qui proposent le plus d'outils avec ses cartes et logiciels. J'utilise pas exemple Nvidia Broadcast pour flouter l'arrière-plan de ma webcam quand je suis en réunion Zoom pour le télétravail. Un détail sans doute dont je pourrais me passer, mais je trouve ça pratique de l'avoir.
A chacun de faire ses choix en fonction de ses envies/besoins/moyens.
L'essentiel c'est pas pas la couleur de la carte c'est d'en être satisfait.
Si je fais mon historique, j'ai eu quasi que du bon et j'ai souvent changé de crémerie.
3Dfx Voodoo 2 12 mo, au top, rien d'autre de viable à l'époque dans d'autres marque
ATI 9800 pro 128 mo, au top, rien d'autre d'efficace chez les verts
ATI X1650 AGP 512 mo de ddr2, de la merde, joker, je faisais evoluer la config a petit feu
Nvidia 8800 GTS 640 mo, au top, pas grand chose d'aussi efficace chez les rouges
ATI HD4850, au top, pas grand chose d'aussi efficace chez les verts
ATI HD4850 crosfire, bof comme toutes les solutions bi-gpu, c'était pour tester
Nvidia 9600 M GT, bof, c'était pour tester le jeu sur portable
ATI Mobility HD5870, au top, devait y avoir du bon chez les verts, mais le ratio perf prix du portable de l'époque était terrible
Nvidia GTX 970, au top, meilleur ratio perf/prix/conso dans cette gamme de perfs
Nvidia GTX 1070 ti, au top meilleur ratio perf/prix/conso dans cette gamme de perfs et écran G-sync only
Nvidia RTX 3080, au top achat compulsif du confiné qui craque, qui veut du RTX et du DLSS et qui a un écran G-Sync only.
Pareil ici :
Nvidia TNT2, j'étais ado, joker
Nvidia Geforce 2, bon rapport qualité prix de mémoire
AMD HD 4850, très bon rapport qualité/prix
AMD HD 6850, l'age d'or d'AMD : être chez les verts à ce moment c'était du fanatisme
AMD HD 7870, idem
Nvidia 970, retour de bâton des verts
Nvidia 1080 Ti, passage en 3440x1440 120Hz faut des muscles
à venir :
Nvidia 3080 (Ti), les rouges on manqué le coche encore une fois, rdv à la prochaine gen en espérant qu'ils aient du DLSS, un RT utilisable et qu'il foutent un bon coup de pied au cul d'Nvidia.
Ma première carte 3D était une Matrox Mystique :vieux:
Donc vos histoires AMD vs. nVidia...
Rip 3DFX bouffé par Nvidia.
Mon premier PC rien qu'à moi avec une Matrox Mystique couplée à une Maxi Gamer 3D de chez Guillemot (Voodoo 1), Pentium 200 MMX (qui accélère internet et fait danser des types en combinaison de protection), 64 Mo de ram.
Pod, Quake, Dark Forces 2, Unreal, Battlezone
3DFX ils se sont un peu tués tout seul avec leur 3ème génération de carte qui tenaient pas face à celle de Nvidia (Riva TNT 2) et ATI (Rage 128) à l'époque, et ne géraient pas le 32 bits.
Et aussi leur cartes multi gpu qui fonctionnaient mal.
Hey, salut les vieux cons, Matrox Millenium pour moi. Colin mc rae 2 en 3D software, c'était du lourd à l'époque.
Sinon, comme les autres croulants, de l'ATI, du Nvidia, de l'AMD, en fonction des perfs et prix à chaque époque.
C'est dommage de se priver de concurrence, si faible soit-elle, juste par haine viscérale d'une marque. A part si on s'est fait virer de la boîte, que le PDG se soit barré avec sa femme ou que les usines de la marque fonctionnent en brûlant des bébés panda, c'est se fermer une porte.
Un peu comme la guéguerre Linux/Windows, aujourd'hui il faut prendre le meilleur de chaque monde et basta (et puis toue le monde sait que le meilleur OS c'était BeOS, pas linux).
Ba moi j'étais fauché et étudiant. J'avais juste le pentium 166 avec 16 Mo de ram. Et pod en mode slide show à 3 images/seconde.
Ensuite j'ai été jeune diplômé fauché alors j'avais des ATI bas de gamme...
puis un jour j'ai eu mon premier gros salaire, j'ai pris le haut de gamme chez les verts (c'était 500€ à l'époque le haut de gamme )
Maintenant je ne peux plus retourner chez les rouges, c'est associé à des mauvais souvenirs !
Il y a déjà eu des pénuries de matos comme ça dans l'histoire du matos ? Il y a vraiment des chances que ça revienne un jour à la "normal" ?
ça me rappelle la cours de récré ; la gueguerre de gamins nintendo/sega façon "c'est mon papa le plus fort d'aboreuh".
Pareil ici, c'est comme le Kinect à l'époque sur Xbox, un gadget assez cher pour faire vendre du matos aux casu', mais tellement chiant à utiliser qu'on s'en sert une fois ou deux et ça reste au placard ensuite.
- - - Mise à jour - - -
Pareil, les 2 entreprises ont des casseroles et des avantages, faut juste prendre le meilleur rapport perf'/prix/conso'. D'ailleurs, le fait que Intel entre dans la danse est très bien, un concurrent de plus ne fera pas de mal.
Jeu(x) du moment : Helldivers 2; Valorant; Yakuza : Like a Dragon.
Oula ! Malheureux, ils ont des trains de retard à rattraper ! Que dire, des trains de marchandises américains à rattraper !
En plus de sa promesse pour les PC portables, Intel confirme l’arrivée d’une carte graphique pour les ordinateurs de bureau (desktop). La firme ne donne pas de détail sur cette version qui ne sera pas proposée à la vente aux particuliers, mais directement aux fabricants. Pour l’heure, il est peu probable qu’Intel vienne affronter les dernières GeForce ou Radeon et on s’attend à une variante pour PC de bureau de l’Iris Xe MAX pour mobile.
J'avais espoir en un troisième larron dans l'histoire mais ce n'est pas pour bientôt. Comme on dit à Bruxelles, c'est du brol à pas cher. En plus, il faut des cartes mères particulières avec des procos définis.