Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 250 sur 313 PremièrePremière ... 150200240242243244245246247248249250251252253254255256257258260300 ... DernièreDernière
Affichage des résultats 7 471 à 7 500 sur 9367
  1. #7471
    reneyvane
    Guest
    Citation Envoyé par revanwolf Voir le message
    Le HDMI 2.1 est arrivé sur les TV qu'en 2021 (2020 sur certains modèles), en 2019 c’était encore la version 2.0.

    Et c'est la même chose pour le FRV, la PS5 ne supporte que celui de la norme HDMI 2.1 alors que les XBOX supporte aussi le FreeSync d'AMD.
    Les TV hdmi 2.0 assez chère qui ont une pseudo mise à jour hdmi 2.1 avec une résolution un peu étrange ?

  2. #7472
    Citation Envoyé par reneyvane Voir le message
    Les TV hdmi 2.0 assez chère qui ont une pseudo mise à jour hdmi 2.1 avec une résolution un peu étrange ?
    Il y a des modèles comme ça avec le débit du HDMI 2.0 mais certaines options du 2.1 (FRV, mode jeu automatique).

    Mais le question est un poil hors sujet vu que c'est techniquement plus pour le topic des TV.

  3. #7473
    Le HDMI 2.1 sur un TV qui supporte que du 2.0 je suis pas sûr de ce que ça donne.
    Après si c'est un cable Hi-Speed vendu sur Amazon, il est possible que ça soit faux. Il y a plein de câbles HDMI vendus chez eux qui ne le suppprtent pas vraiment. Le mieux est de lire les avis clients avant d'acheter.

  4. #7474
    reneyvane
    Guest
    Citation Envoyé par OldBullLee Voir le message
    Le HDMI 2.1 sur un TV qui supporte que du 2.0 je suis pas sûr de ce que ça donne....
    J'ai vu des sujet sur quelques sites, ils s'agissait de modèles haut de gamme dont la version de 2019 était du hdmi 2.0 soit du 100hz, une mise à jour du firmware à apporté une compatibilité hdmi1 à la "McGyver", les ordinateurs, consoles ou lecteur de BlueRay4K voyaient du hdmi 2.1 mais sur l'écran bridé au 100Hz d'origine, une astuce adaptaient le 120hz par rapport au limite de l'écran.

    Une TV4K ou une QHD, les deux supportant un certains nombre de hertz (60. 120. 144 ou +), ce n'est rien d'autre qu'une dalle doté de tels caractéristiques et d'un processeur qui redimensionne et applique des filtres.
    Dernière modification par reneyvane ; 04/08/2022 à 18h14.

  5. #7475
    reneyvane
    Guest
    https://www.comptoir-hardware.com/ac...-complet-.html

    "...Il y a quelques jours, l'AD104 était officieusement dévoilé videmment, et possédait dans sa version complète 7680 cuda cores FP32, 12 gigots de GDDR6X sur bus 192-bit, à 21 Gbps. Toutefois, la RTX 4070 n'aurait pas dû employer un AD104 complet si on en croit les sources, elle aurait eu 7168 cuda cores FP32, et 10 Go de GDDR6X sur bus 160-bit. Cette dernière donnée nous avait étonnés, parce que c'est vraiment un bus castrateur en haute définition, qui est quand même le domaine de prédilection supposé de cette carte. Pourquoi NVIDIA irait mettre tant d'unités de calcul pour les brider avec un bus mémoire étriqué, 360 Go/s pour une carte de ce niveau, c'est très suspect. Avec les nouvelles infos, la bande passante grimpe à 504 Go/s, plus en adéquation avec le standing supposé.


    Finalement, kopite7kimi a rectifié ses premiers propos, d'où l'intérêt de parler au conditionnel quand nous n'avons aucune certitude, même si l'usage du présent est séduisant, tel le côté obscur de la Force. La RTX 4070 utiliserait donc une version complète de l'AD104, décrite un peu plus haut dans le billet, pour un TDP de 300 W. Un Time Spy Extreme devrait donner 11000 points, mais cette dernière donnée n'est pas à prendre au pied de la lettre, puisque le même leaker estimait la RTX 4070 au niveau de la RTX 3090 Ti, qui, justement tape 11000 points sur ce benchmark.


    Si NVIDIA utilise un AD104 complet pour sa RTX 4070, cela signifie qu'une RTX 4070 Ti, si elle existe ou prévue, utiliserait un AD103 de RTX 4080 incomplet, un rebut qui aurait droit à une seconde vie. Car cet AD103 devrait, dans sa version 300 destinée à la RTX 4080, posséder 10240 cuda cores FP32".

  6. #7476
    Parce qu'il faut bien rire un peu et aussi parce que ça semble le bon endroit :

    https://www.pcgamer.com/intels-arc-g...e-to-migraine/


    (Merci à Koub pour la news en provenance de pcgamer que je me permet d'emprunter à mon tour.)
    Hutchinson

  7. #7477
    Merci bandit, article intéressant et c'est sympa en vacances de retrouver ce style de truc ici plutôt que de devoir fouiller sur le net. Bon on reste sur la trajectoire globalement observée ces derniers mois : Intel n'arrive pas à lancer ses cartes en nombre, et ils ont tellement traîné que désormais les concurrentes nVidia et AMD sont disponibles en quantité et au prix normal, ce qui fait que personne n'attend impatiemment les cartes d'Intel.

    A suivre...

  8. #7478
    Tu trouves vraiment qu'ils ont traîné ? Depuis le début ça me paraissait un tour de force d'arriver dès la première génération à ce niveau de perf (celui annoncé en tous les cas). Au final, on est déçus parce qu'on s'est monté le bourrichon suite aux annonces marketing, mais ça reste pour moi plutôt pas mal pour une première génération.
    Après, je ne sais pas depuis combien de temps ils etaient sur le sujet.

  9. #7479
    C'est pas les perfs le plus gros souci des GPU intel.

  10. #7480


    Avec le prix des CG, ça rentre dans la catégorie "cadeau de mariage".
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  11. #7481
    C'est du publi-rédactionnel d'un VPC donc ça vaut ce que ça vaut:

    Les résultats trimestriels de Nvidia s'effondrent - les prix des cartes graphiques devraient continuer à baisser

    Nvidia reste assis sur ses GPU. Le fabricant tente de vider ses entrepôts pleins en proposant des offres de rabais.

    La division jeux de Nvidia a chuté de 2,04 milliards de dollars, soit 44%, en l'espace d'un trimestre. Par rapport à l'année précédente, c'est un tiers. Le fabricant de cartes graphiques Nvidia rate ainsi de 19% sa prévision de chiffre d'affaires pour les mois de mai à juillet 2022. Au lieu de 8,1, il s'agit de 6,7 milliards de dollars américains. Nvidia dans son ensemble a pu éviter le pire grâce à sa division Data Center. Elle a progressé de 61% sur un an pour atteindre 3,81 milliards de dollars. C'est ce qu'écrit le fabricant dans son rapport sur les résultats financiers préliminaires. .
    Le principal coupable : le crypto-krach

    Le PDG Jensen Huang attribue les mauvais chiffres de la division Gaming aux conditions macroéconomiques. Il fait probablement référence au crash cryptographique du printemps et de l'été 2022, qui a rendu l'extraction d'Ethereum et d'autres monnaies beaucoup moins attrayante et a poussé les mineurs à acheter moins de cartes graphiques que prévu. De plus, la nouvelle génération de cartes graphiques doit sortir cette année. De nombreux joueurs attendent donc probablement avant d'acheter une nouvelle carte graphique.

    Les stocks importants et les provisions qui en découlent coûteraient environ 1,32 milliard de dollars à Nvidia. Le fabricant entend désormais déstocker en proposant des réductions en collaboration avec ses partenaires. Les prix des cartes graphiques vont donc continuer à baisser.
    https://www.digitec.ch/fr/page/les-r...ntinuer--24471

    Un vendeur qui conseille d'attendre parce que les prix vont baisser, je ne sais pas comment le prendre

  12. #7482
    Je regarde quand même...
    Imaginons qu'on puisse chopper de la RTX 3060 "simple" à 200€.




    Comment ça je rêve ?
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  13. #7483
    Citation Envoyé par Praetor Voir le message
    C'est du publi-rédactionnel d'un VPC donc ça vaut ce que ça vaut:



    https://www.digitec.ch/fr/page/les-r...ntinuer--24471

    Un vendeur qui conseille d'attendre parce que les prix vont baisser, je ne sais pas comment le prendre
    Se méfier, c'est contre son intérêt.
    NVIDIA par le passé n'a jamais "bradé"

    Dans l'attente de voir celà. Il y a tout de même les Rtx 3090 dont les prix se sont effondrés.

  14. #7484
    Citation Envoyé par XWolverine Voir le message
    Tu trouves vraiment qu'ils ont traîné ? Depuis le début ça me paraissait un tour de force d'arriver dès la première génération à ce niveau de perf (celui annoncé en tous les cas). Au final, on est déçus parce qu'on s'est monté le bourrichon suite aux annonces marketing, mais ça reste pour moi plutôt pas mal pour une première génération.
    Après, je ne sais pas depuis combien de temps ils etaient sur le sujet.
    De mémoire il y a quand même eu une "génération 0" avec des GPU bas de gamme à destination des intégrateurs.
    Après, sur le fait qu'ils ont trainé, je pense que c'est à parce que ces premiers GPU à destination du grand public n'en finissent pas de sortir.

  15. #7485
    Citation Envoyé par Herman Speed Voir le message
    Se méfier, c'est contre son intérêt.
    NVIDIA par le passé n'a jamais "bradé"

    Dans l'attente de voir celà. Il y a tout de même les Rtx 3090 dont les prix se sont effondrés.
    Après, c'est le très haut de gamme, on partait de prix absolument délirants. La baisse de prix sera bien plus mesurée à mesure qu'on se rapproche des 300$.

  16. #7486
    Citation Envoyé par 564.3 Voir le message
    Pendant ce temps, les devs de Spiderman Remastered se félicitent qu'il tourne bien sur Steam Deck… ça m'a refait penser à ce message.
    https://twitter.com/insomniacgames/s...03491184939009

    Bon ça n'empêche pas qu'ils peuvent mettre 3 tonnes d'options pour faire ramer une RTX 3090Ti OC.
    C'est assez impressionnant le grand écart de nos jours.
    J'envie la majorité des gens qui jouent sur un écran 1080p, je trouve le jeu optimisé si ça tourne à 60fps sur une GTX1060/Ryzen1600 et à 30fps sur SD.

    Pour le Raytracing, ils parlent d'options "Très élevées" (Ultra ?), possible qu'en élevé on soit à 60fps en RT avec une 3060Ti.

    Je me demande si un jour au lieu de changer de GPU, je ferais pas un passage 1440p > 1080p. J'ai un proche qui joue sur un 27 pouces 1080p et j'étais pas choqué en soit. Idéalement faudrait lui emprunter pour un comparatif côte à côte.
    J'ai l'impression que le gain visuel en action pour du RT ou des résolutions élevés, il est vraiment pas rentable.

  17. #7487
    Le 27" en 1080p t'a surtout une densité très faible : en bureautique ça sera particulièrement flagrant (tu verra les pixels sur tout l'écran), mais en jeu aussi évidemment.
    Pour une config jeu et si tu te place loin de l'écran ça peux le faire ceci dit, mais hors cas particulier (home cockpit) l'intérêt de prendre un écran plus gros si c'est pour avoir besoin de se placer plus loin...

    Après c'est certain, le prix en perf des grosses résolutions a toujours été très coûteux. J'ai été un des premiers joueurs à passer en 24"/1080p, et j'ai souffert pendant quelques années. C'est la raison pour laquelle je ne suis pas passé au 1440p 16:9 d'ailleurs, je n'étais pas prêt à faire la même expérience. Et quand on a commencé à avoir des cartes 4K, là je suis passé sur du UWQHD, mais avec les contraintes reliées : acheter le haut de gamme niveau GPU.

    Au moins, le DLSS et autre amènent une réponse crédible et viable de ce coté là.

  18. #7488
    Assez des fuites : Intel donne lui même des mesures de performance de la A750 sur tout un tas de jeux !

    Au niveau de la configuration utilisée, Intel met sans surprise au charbon un i9-12900k accouplé à 32 Gio de RAM Corsair Dominator sur un Windows 11 Pro 22000.795, pour comparer la A750 de préproduction à une RTX 3060 XC GAMING de chez EVGA (pilotes 516.59).

    Pour mettre les résultats en forme un peu plus graphiquement, voilà ce que cela donne en moyenne : 3 à 5 % de gain par rapport à la RTX ; soit un positionnement équivalent en gamme — à condition que le tarif soit, lui aussi, aligné.
    A voir.
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  19. #7489
    Citation Envoyé par Dross Voir le message
    Le 27" en 1080p t'a surtout une densité très faible : en bureautique ça sera particulièrement flagrant (tu verra les pixels sur tout l'écran), mais en jeu aussi évidemment.
    Pour une config jeu et si tu te place loin de l'écran ça peux le faire ceci dit, mais hors cas particulier (home cockpit) l'intérêt de prendre un écran plus gros si c'est pour avoir besoin de se placer plus loin...

    Après c'est certain, le prix en perf des grosses résolutions a toujours été très coûteux. J'ai été un des premiers joueurs à passer en 24"/1080p, et j'ai souffert pendant quelques années. C'est la raison pour laquelle je ne suis pas passé au 1440p 16:9 d'ailleurs, je n'étais pas prêt à faire la même expérience. Et quand on a commencé à avoir des cartes 4K, là je suis passé sur du UWQHD, mais avec les contraintes reliées : acheter le haut de gamme niveau GPU.

    Au moins, le DLSS et autre amènent une réponse crédible et viable de ce coté là.
    Bon après j'ai une 3070Ti qui m'a permis de faire CP2077 en Ultra+RT+DLSS (1 an après sa sortie). Et effectivement le DLSS est miraculeux, ça floute moins qu'un FXAA mais je passais littéralement de 6 à 60fps en l'activant en mode équilibré. En revanche, les rares jeux où j'ai retrouvé l'option (BF2042 par exemple), et bien l'option était inutile. En fait, ça me rappelle le MFAA.

    Maintenant, si je prends mon jeu hebdo qui est Hell Let Loose, je vois que le jeu tourne aussi bien sur un i5 10th gen + GTX1070 (acheté d'occaz sur le forum à 170€) en 1080p que sur mon Ryzen 5600X+ 3070Ti en 1440p. Bon j'ai jamais vu le jeu tourner côte à côte, mais en 27"/1080p c'est clairement pas choquant alors que la distance à l'écran est sensiblement la même.

    Tout ça pour relativiser sur le fait que le rapport coût / finesse de l'image pour des perfs similaire est désastreux.

  20. #7490
    Attention, le DLSS est notoirement mal implémenté sur BF2042, c'était un truc à ne pas activer ; surtout au lancement.

    Pour le rapport coût/finesse, ne pas oublier que le passage du 1080p au 1440p (en 16/9) c'est presque le double de pixels, ça demande évidemment plus de muscles. Et si tu mettais les deux côte à côte, la différence de finesse te sauterai aux yeux.

    Après, si c'est un aspect secondaire pour toi, il vaux mieux en effet ne plus chercher la hausse de résolution.

  21. #7491
    Continuons de rire de bon cœur :

    https://www.factornews.com/actualite...mou-48670.html


    News issue de factornews et relayée par Koub, merci Koub.
    Hutchinson

  22. #7492
    Mais surtout les cartes Arc sont massivement optimisés pour Vulkan et DX12.

    La stratégie d'Intel pour optimiser les pilotes repose sur une division des jeux en trois groupes :

    Les jeux Tier 1 sont les jeux plus populaires utilisant utiisant DX12 ou Vulkan. Les pilotes sont optimisés en premier pour ces titres

    Les jeux Tier 2 utilisent toujours DX12 ou Vulkan mais sont moins populaires. Les cartes Arc devraient toujours les faire bien tourner mais probablement pas aussi bien que la concurrence

    Les jeux Tier 3 utilisent des anciennes version de DirectX ou OpenGL. Bon courage pour ceux-là.
    OKER. Pas pour moi qui possède de nombreux jeux de plus de 5 ans.

    L'ARC bande mou, ce titre !

  23. #7493
    Citation Envoyé par Herman Speed Voir le message
    OKER. Pas pour moi qui possède de nombreux jeux de plus de 5 ans.
    Oui enfin c'est quand même une carte graphique recente.

    Bon pour le moment on en est encore à spéculer dans le vent, il faudra voir les premiers tests serieux genre CPC hardware. Peut être qu'il faudra encore quelques générations.

    Mais si la carte est suffisament performante, nos "vieux" jeux qui tournaient déjà à la résolution et au rafraichissement natif de notre écran avec un niveau de détail qui nous satisfait, si la carte est deux fois plus performante et deux fois moins bien optimisé, ça nous change rien: on était déjà au maximum, on ne pouvait pas aller plus loin, tant qu'on reste au même niveau...

    Quant aux grosses sorties future, il est à peu près impensable d'imaginer un jeu très exigeant sur le hardware qui ne soit pas compatible DX12 ou VK.

    Donc la stratégie d'Intel de pas trop s'embeter avec les technos legacy en se disant que la puissance brute palliera au manque d'optimisation c'est pas si con. Et de toute façon c'est logique: après tout ce temps hors du marché, c'est plus possible de revenir et supporter 20 ans d'évolutions et de cul de sacs technologiques pour concurrencer des drivers nvidia/ati dont l'insaller prend plus de place que l'integralité d'un cdrom. Et c'est pas forcément un mal de repartir d'une page à peu près blanche de temps en temps.

    edit: je dis 20 ans mais le i740 a en fait pas loin de 25 ans. Un quart de siècle. Tempus fugit. Je me souviens de machines vendu avec une i740... connectée à une Voodoo 2 ! Probablement des constructeurs qui avaient trop cru la hype, précommandé, et se sont retrouvé avec des cartes graphiques tout juste bonne à être utilisé comme cartes 2D.
    Dernière modification par Clad ; 13/08/2022 à 14h32.

  24. #7494
    Vous oubliez qu'une partie importante des réglages sur le panneau de contrôle d'intel ne fonctionne pas, voir fait carrément planter le Pc quand on y touche. C'est bien plus gênant que cette histoire de Tier d'optimisation selon l'API et la popularité du jeu.

  25. #7495
    Citation Envoyé par Clad Voir le message
    Oui enfin c'est quand même une carte graphique recente.

    Bon pour le moment on en est encore à spéculer dans le vent, il faudra voir les premiers tests serieux genre CPC hardware. Peut être qu'il faudra encore quelques générations.

    Mais si la carte est suffisament performante, nos "vieux" jeux qui tournaient déjà à la résolution et au rafraichissement natif de notre écran avec un niveau de détail qui nous satisfait, si la carte est deux fois plus performante et deux fois moins bien optimisé, ça nous change rien: on était déjà au maximum, on ne pouvait pas aller plus loin, tant qu'on reste au même niveau...

    Quant aux grosses sorties future, il est à peu près impensable d'imaginer un jeu très exigeant sur le hardware qui ne soit pas compatible DX12 ou VK.

    Donc la stratégie d'Intel de pas trop s'embeter avec les technos legacy en se disant que la puissance brute palliera au manque d'optimisation c'est pas si con. Et de toute façon c'est logique: après tout ce temps hors du marché, c'est plus possible de revenir et supporter 20 ans d'évolutions et de cul de sacs technologiques pour concurrencer des drivers nvidia/ati dont l'insaller prend plus de place que l'integralité d'un cdrom. Et c'est pas forcément un mal de repartir d'une page à peu près blanche de temps en temps.

    edit: je dis 20 ans mais le i740 a en fait pas loin de 25 ans. Un quart de siècle. Tempus fugit. Je me souviens de machines vendu avec une i740... connectée à une Voodoo 2 ! Probablement des constructeurs qui avaient trop cru la hype, précommandé, et se sont retrouvé avec des cartes graphiques tout juste bonne à être utilisé comme cartes 2D.
    Le problème, c'est les artefacts qui se produisent. Qui ne seront pas corrigés. (Ce n'est pas qu'une question d'optimalisation)

    Je fais aussi du rétro, de l'émulation, donc je resterai sur Nvidia ou Amd, si j'en avais rien à carrer de la rétrocompatibilité PC, je passerai sur MAC génération M1, etc. Totale Tabula Rasa.

    Intel, ce n'est pas la petite startup des semi conducteurs. Ils sont dans les solutions Gpu depuis belle lurette en co processeurs.

  26. #7496
    On en est sur de ça ? C'est evidemment possible mais attendons déjà que ça sorte et d'avoir des vrais tests.

  27. #7497
    Rien qu'en traduisant les test d'Igor's Lab, ça fait peur. DeutschExperten (c)

    https://www.igorslab.de/intel-arc-a3...m-teardown/17/

    Des tests avec des FPS : "C'est la faute aux drivers"





    Sans présenter la vidéo de Gamer Nexus où l'installation de la carte 3D fut une calamité sous Windows.
    Le pire lancement de carte 3D de souvenir depuis la S3 2d/3d.

    Une compagnie comme Intel qui arrive à ce niveau de "non conformité", c'est juste fou.

  28. #7498
    La série 3XX, c'est la série low-cost destinées à la Chine, hein. Ayons quand même un peu d'honnêteté à regardant du côté du haut de gamme avant de faire ce genre de comparaison.

  29. #7499
    C'est la A750 qui serait la rivale d'une RTX3060 par exemple.
    "Déconstruire", c'est "détruire" en insérant des "cons".
    Battle.net (Diablo 3) : Fbzn#2658 ----- / ----- / ----- Steam ID

  30. #7500
    Citation Envoyé par Maalak Voir le message
    La série 3XX, c'est la série low-cost destinées à la Chine, hein. Ayons quand même un peu d'honnêteté à regardant du côté du haut de gamme avant de faire ce genre de comparaison.
    Cela n'explique pas la catastrophe des drivers. La carte A380 est comparée avec une GTX 1060 pour le performances.

    Première recherche prix de voleur d'une GTX 1060 = 280€, il va être nécessaire pour Intel d'être à 200 €.

Page 250 sur 313 PremièrePremière ... 150200240242243244245246247248249250251252253254255256257258260300 ... DernièreDernière

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •