Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 1 sur 330 1234567891151101 ... DernièreDernière
Affichage des résultats 1 à 30 sur 9878
  1. #1
    Cartes graphiques

    Discussions et conseils d'achat - 3ème version




    Eh oui, on passe à la v3.



    Comme tu dis, mon lapin. Merci aux précédents OPs pour la v1 et la v2 !

    Stay tuned !


    Chapitre 1 : Introduction



    IMPORTANT !

    Avant toute chose, sachez qu'il y a un topic annexe pour les discussions autour des sorties des nouvelles générations, des rumeurs, des "fuites" en tout genre et des benchs/spéculations pas encore validés par de vrais tests sur des cartes officiellement commercialisées.
    [Cartes Graphiques] Le topic des rumeurs, cartes NVIDIATI et benchs non certifiés
    Merci à FB74 pour cette bonne initiative ! Cela nous permettra d'alléger un peu le topic principal que voici.

    Ensuite, quelques pré-requis :
    • Les cartes graphiques peuvent être plus ou moins longues et plus ou moins épaisses.
      C'est parfois problématique dans les petits boitiers, surtout en longueur.
      L'épaisseur aussi peut poser problème, en cas d'une config très compacte ou en utilisant plusieurs cartes graphiques sur une carte mère avec des ports PCI-Express.
      Vérifiez donc par-vous même que ça passe, ou si vous demandez de l'aide, spécifiez-nous votre modèle de boitier, et éventuellement de carte mère.
    • Si de rares cartes peu énergivores n'ont pas besoin d'être reliées à l'alimentation (elles sont alors uniquement alimentées par le port PCi-Express), la plupart on besoin de 1 ou 2 connecteur(s) 6 et/ou 8 pins.
      Vérifiez donc que votre alimentation dispose de la connectique nécessaire. Heureusement, de nombreuses cartes graphiques sont vendues avec, dans le bundle, un câble Molex vers 6 ou 8 pins.
      Cependant, cela ne fait pas tout, le problème de la connectique peut être résolu ainsi mais l'alimentation peut néanmoins demeurer trop limite en termes de puissance et de qualité.
      Renseignez-vous, ou spécifiez-nous votre modèle d'alimentation.

    C'est encore mieux si vous allez demander, respectivement, sur le topic des boitiers (merci à Nirm !) et le topic des alimentations.




    Un grand merci, tout d'abord, à ceux qui ont tenu les deux premières versions de ce topic :

    Un grand merci, également, à tous ceux qui ont fait vivre la v1, encore plus la v2, maintenant z'avez intérêt à faire vivre ma v3.




    On garde les mêmes règles, les enfants !

    REGLES
    • Soyez polis (bonjour, merci, pas d'injures, rien qui puisse blesser)
    • Précisez votre budget, l'usage prévu (incluant la taille de l'écran en pixels, ou "définition" et non pas "résolution"), et vos modèles de boitier et alimentation

    A cela je rajoute quelques nouvelles règles :
    • Faites des retours, surtout si vous sortez des sentiers battus, on a trop peu de retours sur beaucoup de marques (EVGA, PNY, Inno3D, KFA, VTX...) !
    • Arrêtez la désinformation : citez vos sources ou donnez des arguments concrets
    • Ce qui me mène à un domaine connexe : arrêtez le fanboyisme explicite, vous préférez AMD ou Nvidia, gardez le pour vous, n'écrivez pas un post juste pour cracher sur l'un ou l'autre.
      Je ne citerai personne, mais j'en connais au moins un qui va se reconnaitre. Pas de ça dans ma v3, ou ça finira mal.


    Merci, et bon surf !

    Dernière modification par Taro ; 08/11/2016 à 09h22. Motif: Modification du titre

  2. #2
    Chapitre 2 : Faire son choix





    ------------------
    TECHNOLOGIES
    ------------------



    Voici une liste, non exhaustive bien que relativement complète, des différentes technologies proposées par les deux concurrents.
    Elles sont groupées par deux lorsque les deux ont leur solution, et sont équivalents.

    Cliquez sur les noms des technologies, ce sont des liens vers des pages (officielles ou non) qui en traitent (ou en font la pub ).


    Jouer en 3D stéréoscopique ?





    Adapter la fréquence de rafraichissement de l'écran à la vitesse de la carte graphique ?





    Consommer peu, voire presque rien, au repos ?


    • AMD ZeroCore Power
    • Nvidia Maxwell (architecture)
      Note : Au sein de cette architecture, la GTX 960 est actuellement la seule et unique carte graphique (toutes les gammes d'AMD et Nvidia confondues) à décoder le codec vidéo H265 au niveau matériel, donc c'est elle qui bosse et pas le processeur. Assez utile pour un HTPC longue durée destiné à balancer de la 4K avec des films au très bon rapport qualité/poids sur le disque.
      Mise à jour : La GTX 950 est maintenant disponible, avec la même fonctionnalité.



    Des cheveux, des fourrures... denses et détaillés ?





    Les nouvelles API de bas niveau ?





    La nouvelle mémoire, la HBM ?


    • AMD HBM (mémoire)
    • Nvidia n'a pas de réponse pour le moment, mais ses prochaines architectures en feront probablement usage.



    Combiner plusieurs cartes graphiques pour le jeu ?





    Le multi-écrans ?




    Ce sous-forum et ce topic n'étant pas nécessairement destinés aux développeurs, nous ne discuterons pas, dans l'OP du moins, des technologies/API que sont OpenCL, OpenACC et Nvidia CUDA, par exemple. Ici, on passe à la caisse, puis on joue.





    ------------------------------
    SELECTION DES CANARDS
    ------------------------------



    Concernant les cartes graphiques, elles sont un peu moins dispersées en termes de qualité de fabrication au sein d'un même fabricant que leurs voisines les alimentations. Généralement, un constructeur propose une qualité quasi constante sur sa gamme. Il n'y aura pas de piège tel que celui des alimentations Corsair : l'une fabriquée par le numéro 1 et le leader en qualité, l'autre sortie d'une usine douteuse et d'une qualité encore moins sûre. C'est pourquoi, plutôt que de recommander des modèles en particulier, ce sera plutôt une marque ou un type de refroidissement.

    Voir le post suivant pour un guide avec les modèles exacts en fonction de l'usage et du budget !


    Chez AMD, R7/R9 200 et 300 :

    Actuellement, que ce soit sur les R7/R9 200 ou 300 (qui sont une énième vague de renommage), c'est Sapphire qui domine. Des constructeurs que l'on recommandait autre fois chez AMD, comme HIS sur les HD 7000, semblent avoir sombré dans l'oubli. Les autres, comme MSI, sont impuissants face à la consommation et la chauffe, il faut l'admettre, assez élevées sur ces cartes. Ainsi, vous trouverez les MSI "Twin Frozr" chaudement recommandés chez Nvidia, mais elles sont à fuir chez AMD. Sapphire, qui avait pourtant été très médiocre sur les HD 7870, tristement surnommées "Black Screen Edition", a montré être capable de dompter les puces AMD avec son refroidissement particulièrement efficace.
    Attention, ces cartes sont généralement longues, ce qui peut gêner selon votre boitier, et consomment plus que la concurrence, vérifiez aussi votre alimentation.



    En bref :
    • Constructeur/modèle : Sapphire Tri-X
    • Les plus : un refroidissement capable de dompter le GPU, de très bons rapports perfs/prix
    • Les moins : de longues cartes, une conso assez élevée




    Chez Nvidia, GTX 900 :

    Trois constructeurs sont à peu près au même niveau du côté Nvidia. Asus, MSI et Gigabyte, avec respectivement les Strix (le DirectCU II relooké travseti en Chouette, je déconne pas), les Gaming (le Twin Frozr V), toutes les deux à 2 ventilos, et les G1 Gaming/Windforce.
    Le premier cité, Asus, a généralement des prix un peu plus hauts, même si ce n'est pas très flagrant.
    Le dernier cité, Gigabyte, a l'inconvénient d'être resté sur des refroidissements à 3 venitlos qui, bien qu'efficaces, ne sont probablement pas innocents dans la grande taille des cartes (facilement 30 centimères, comme les Inno3D iChill/AirBoss), ce qui peut poser problème selon votre boitier. C'est l'équivalent, finalement, de Sapphire pour AMD.
    Asus et MSI ont en commun un atout assez intéressant quand on ne joue pas : les ventilos à l'arrêt total en-deça d'une certaine température !



    En bref :
    • Constructeur/modèle : Asus Strix ou MSI Gaming, voire Gigabyte G1 Gaming ou Windorce
    • Les plus : de bons refroidissements, aidés par une conso réduite, du semi-passif chez Asus et MSI
    • Les moins : un rapport perfs/prix moins aggressif, de longues cartes chez Gigabyte
    Dernière modification par Taro ; 27/08/2015 à 02h10. Motif: La GTX 950 décode le H265

  3. #3
    (Suite du chapitre 2)

    La sélection, modèles précis

    Prix basés sur le site Materiel.net au 29/07/2015.



    ---------------------------------------------------------
    Casual, petits jeux, beaucoup de concessions en 1080p
    ---------------------------------------------------------

    Un HTPC avec de petits jeux, impensable pour les jeux récents en 1080p.
    Note : pour un HTPC destiné à lire du H265, vous pourriez vouloir profiter des capacités de la GTX 960.
    Voire la partie "AMD ZeroCore Power / Nvidia Maxwell" dans "Technologies" dans le post précédent, et la fameuse 960 dans la sélection du post suivant.



    Intel HD Graphics intégré aux processeurs Intel
    / AMD Radeon intégré aux processeurs "APU" AMD
    aucun surcoût


    Sapphire 250X Vapor-X OC environ 100€


    -----------------------------------------------------------
    Jeux moyens, basse conso, HTPC avec option jeux casual
    -----------------------------------------------------------

    Consommation et chauffe réduite, l'idéal pour des jeux casu dans un HTPC un peu amélioré.


    MSI 750 Ti Gaming OC environ 150€
    Note : Un poil plus onéreuse que le modèle équivalent chez Gigabyte, cette carte a l'avantage de ne pas avoir besoin d'être approvisionnée en énergie par l'alimentation.
    En effet, elle se contente de l'électricité fournie par la carte mère via le port PCI-Express. C'est donc la carte idéale pour faire l'upgrade d'un PC du commerce.



    ------------------------------
    Peu de concessions en 1080p
    ------------------------------

    Affrontez la plupart des jeux récents de manière sereine en 1080p. Prévoyez quelques concessions sur les blockbusters les plus lourds (The Witcher 3, GTA 5...).


    Sapphire 380 Dual-X OC environ 210€


    MSI 960 Gaming - version 2 Go environ 236€


    ----------------------------
    La 1080p sans concessions
    ----------------------------

    Jouez tout à fond en 1080p (ou presque, on va éviter l'AA x64) sur les jeux du moment, même les plus gros.


    Sapphire 290 Tri-X environ 310€


    Asus 970 Strix OC (3.5 + 0.5 Go ) environ 410€


    ------------------------
    Jouer au-delà du 1080p
    ------------------------

    Jouez en WQHD, pourquoi pas en 4K, ou sur trois écrans 1080p si ça vous chante.


    Sapphire Fury OC environ 600€


    MSI 980 Gaming environ 580€


    -----------------------------------------------------
    Vous pourriez donner aux restos du cœur, mais bon
    -----------------------------------------------------

    Si chaque type qui s'apprêtait à acheter une 980 Ti G1 Gaming m'en reversait 10% du prix, je finirais peut-être par pouvoir m'en payer une ! Allez quoi, il est pas bô mon topic ?


    Gigabyte Fury-X environ 780€


    Gigabyte 980 Ti G1 Gaming environ 795€
    Dernière modification par Taro ; 27/08/2015 à 02h12.

  4. #4
    Chapitre 3 : Un peu de technique





    Lire cette section n'est absolument pas nécessaire, ni pour comparer les concurrents, ni pour faire son choix.
    Cependant, certaines choses ici sont intéressantes et pourraient vous servir un jour ou l'autre.

    Aux puristes : des raccourcis et des abus de langages se sont échappés du zoo des attachés de presse. Veuillez ne pas en tenir compte.





    Le pipeline graphique

    Pour faire court, ce sont toutes les étapes que fait la carte graphique pour chaque image.

    Comment passer de modèles 3D, de textures, d'effets visuels, d'images, etc... au rendu final qu'il y a sur l'écran, qui n'est qu'un rectangle de pixels ?

    Un peu de lecture à ce sujet pour vous en apprendre plus :
    http://www-igm.univ-mlv.fr/~biri/Ens...hique_impr.pdf
    Une petite recherche avec votre moteur préféré vous donnera de nombreux résultats, et pas nécessairement en anglais comme le prouve ce lien. Tapez simplement "le pipeline graphique".



    Vous comprendrez peut-être alors que les cartes graphiques font plusieurs choses différentes. Traiter des textures et des shaders, ce n'est pas pareil, ça s'optimise différemment. Ainsi, si globalement les gammes s'équivalent chez les rouges et les verts, parfois on a de meilleures performances chez l'un ou l'autre selon le type de traitement. Les jeux faisant appel à un peu de tout, heureusement, la différence est négligeable en jeu.

    En bref : Lisez, vous apprendrez pas mal de chose sur (presque) tous vos jeux.


    La mémoire vidéo, ou VRAM

    Vous n'êtes probablement pas passé à côté en zieutant les modèles. Les noms des cartes sont généralement suivis de la quantité de mémoire dédiée, généralement de 1 Go (ou G à plus de 10 par puce sur les cartes professionnelles (exemple, la Tesla K80 à 12 Go par puce, deux puces, donc 24 Go).

    Avant d'en dire plus, je souhaite éclaircir les gigots.

    Vous avez peut-être entendu parler de binaire. Oui, non ? Pas grave. Vous êtes des humains et vous savez que l'informatique, c'est pas comme notre cerveau ou notre cœur, on l'a inventée. Il n'y a pas d'organique, pas de miracle, pas de choses inconnues dedans. C'est de l'électricité. Bien sûr, avoir de l'électricité, c'est beau, mais ça représente rien.
    C'est parler un peu vite ma lucette, car avec deux possibilités, une tension haute et une tension basse, on peut représenter deux choses. 0 et 1. Du binaire.
    Maintenant, si tu mets plein de tensions, chacune haute ou basse, à la suite, tu as plein de possibilités.
    Et toc, pas belle mon introduction du 32 et 64 bits ? 2^32 = 4294967296 possibilités (ce qui explique, au passage, la limite de 4 Go de RAM sur les systèmes 32 bits).

    C'est bien beau, mais dire "je t'envoie nos photos de vacances, ça pèse 524288000 bits en tout" (exercice 1 : combien cela fait-il de Mo ? Vous avez deux minutes), c'est pas top.
    On a inventé différents échelons, ainsi sont nés les bytes.
    • 1 bit = 0 ou 1, en français comme en anglais
    • 1 octet pour nous, 1 byte pour les anglophones, = 8 bits (et les FAI avec leur "ADSL à 20 méga" se gardent bien de dire "bits", si vous avez le maximum ça vous fait 20/8 = 2.5 Mo/s, ces petits filous, et ça vaut encore pour la fibre mais avec un e-penis plus gros)
    • 1 kilo-octet ou 1 kilo-byte = 1000 octets ou bytes
    • 1 méga-octet ou mega-byte = 1000 kilo-octets ou kilo-bytes
    • 1 giga-octet ou giga-byte = 1000 méga-octets ou mega-bytes
    • etc...

    Les programmeurs préfèrent généralement les kibi-octets, mébi-octets (...) abrégés en Kio, Mio (...) parce qu'ils ne valent pas 1000 fois le précédent, mais 1024, donc une puissance de 2.
    Les programmeurs, c'est un peu con, mais ça aime bien les puissances de 2.

    Vous savez donc maintenant, un peu mieux j'espère, ce que représentent les quantités de mémoire dédiées aux cartes graphiques.
    Quand vous avez une partie graphique intégrée au processeur, elle se contente de gruger de la RAM "normale". Quand vous avez une vraie carte graphique dédiée, elle a sa propre mémoire embarquée.

    Si vous avez lu ce qui concerne le pipeline graphique, les back-buffer et front-buffer (ou frame-buffer) contiennent autant de pixels que l'écran, pour en préparer l'image, voire plus en faisant générer le jeu à une plus grande taille pour ensuite le redimensionner et gagner en qualité (des mots qui sont en relation avec ça : DSR, Supersampling, Ubersampling...). Et en multi-écran, ça douille. En 4K, ça douille. C'est directement impacté par la taille de l'image à dessiner, et plus c'est gros plus il faut de mémoire.

    Mais la quantité, c'est bien beau, mais c'pas la taille qui compte.
    Parfois des cartes d'entrée de gamme, à quelques euros près, existent en 1 Go et en 2/3 Go. Ou une deuxième version 1 Go nettement moins chère.
    C'est parce qu'il y a le type de RAM. Tout comme la DDR4 est censée remplacée la DDR3, la DDR3 a mis la race à la DDR2, etc... Eh bien la mémoire des cartes graphiques doit absolument être en "GDDR5". Parfois écrit DDR5 sur certains sites, mais peu importe. Regardez bien les sites, ces cartes censées êtres attirantes en prix avec beaucoup de mémoire sont accompagnées de DDR3 standard, qui marche bien dans votre PC avec votre processeur, mais la carte graphique elle a besoin de mieux.

    Les points-clés :
    • 2 Go suffisent à jouer dans de bonnes conditions en Full HD (ou "1080p", bref c'est 1920 x 1080 pixels)
    • 3/4 Go (ou 3.5 + 0.5 pour les Gtx 970 ) sont vivement recommandés pour jouer en plus grande résolution (1440p voire 4K) et en multi-écran, ou avec des jeux extrêmement moddés
    • 6/8 Go devraient suffire pour jouer avec un max d'écrans, même grands
    • Les 12 ou 24 Go ça sert dans un usage pro uniquement





    Les API, le bas niveau

    Récemment, avec Mantle à l'initiative d'AMD, dont Vulcan serait un peu l'hériter pour remplacer OpenGL, et même chez Microsoft avec DirectX 12, on a pas mal entendu parler d'API de bas niveau.

    Une API, c'est quoi ? C'est du code. Un truc pour programmeurs. Des outils déjà prêts qui fonctionnent (normalement) et leur évitent de réinventer la roue à chaque jeu.
    Travailler avec des matrices, des vecteurs, des points dans l'espace ? Charger des textures en mémoire, les appliquer sur les objects ? Créer des lumières, des caméras ? On fait ça avec ces API. Selon nos besoins, on complète un peu le travail ou on se contente de ce qu'il y a. Pour faire faire dessiner par la carte graphique nos bôs arbres et rivières, on a besoin des API. On peut créer la nôtre, mais je vous raconte pas la merde que c'est.



    Le concept du bas niveau est récent pour ces API. Ca consiste à retirer pas mal de choses et de sécurités gérées par les API, pour les mettre aux mains des développeurs. C'est un peu comme la différence entre du Java et du C++ : le programmeur a plus de choses à gérer en bas-niveau, peut faire plus de connerie, mais s'il est bon il gèrera mieux les ressources mises à sa disposition que le ferait l'ordinateur à sa place.

    En bref : Les API (DirectX, OpenGL...) permettent de faire dessiner les images par la carte graphique, à partir des modèles, textures et autres éléments. Le bas niveau donne plus de pouvoir aux développeurs, à eux de ne pas faire de connerie, mais ils peuvent aller plus loin dans l'optimisation.





    Cette section est encore en préparation.
    Dernière modification par Taro ; 28/07/2015 à 16h02.

  5. #5

  6. #6

  7. #7
    Je me réjouis d'avance de lire ton OP Taro.

  8. #8
    Citation Envoyé par Kimuji Voir le message
    [Réservé]
    Pas mal celle-là, on me l'avait encore jamais faite

    Citation Envoyé par Thaerlbone Voir le message
    Je me réjouis d'avance de lire ton OP Taro.
    Merci, c'est encourageant, je vais pas le bâcler donc je vais probablement mettre un peu de temps, mais je vais faire de mon mieux pour faire quelque chose de bien.

  9. #9
    On t'attend dans le virage du tournant

  10. #10
    Je ferai de mon mieux

  11. #11

  12. #12
    J'y travaille déjà à fond

  13. #13
    En parlant de cartes graphiques, je cherche à remplacer ma R9 280x Tri-X qui n'arrive pas à faire tourner The Witcher 3 en ultra et souhaite la remplacer par une GTX 980Ti; par la même, je voudrais remplacer ma carte mère au cas où je voudrais faire un SLI.
    Quel modèle me conseillez-vous ?


  14. #14


    J'ai commencé à envoyer la première vague de texte. Des liens et images viendront illustrer et embellir le tout. Là je me concentre sur le contenu.

    Je vais sûrement faire une pause (Déjà ? C'est la DDE ) et reprendre demain.

  15. #15

  16. #16
    @Poneyroux

    Une ASUS Crosshair V Formula Z avec un FX 9370 unlocked et un Crossfire de R9 Fury X pour avoir suffisamment de chaleur pour faire fondre ton cerveau, ou alors une simple lobotomie

    T'aurais pas croisé djorec qui a déteint sur toi (et qui n'a même pas capté l'allusion à l'excellente chanson de Tri Yann) ?

    Citation Envoyé par poneyroux Voir le message
    Y a Pelot d'Hennebot à la limite qui écrivait à sa chère maman qu'il était bien rentré dans Paris

  17. #17
    Citation Envoyé par MegABiloU Voir le message
    ça parle pas de PhysX, je boycott.
    Pas encore.

  18. #18
    Citation Envoyé par Corto Voir le message
    @Poneyroux

    Une ASUS Crosshair V Formula Z avec un FX 9370 unlocked et un Crossfire de R9 Fury X pour avoir suffisamment de chaleur pour faire fondre ton cerveau, ou alors une simple lobotomie

    T'aurais pas croisé djorec qui a déteint sur toi (et qui n'a même pas capté l'allusion à l'excellente chanson de Tri Yann) ?
    Tri Yann l'a popularisée, mais c'est avant tout un chant militaire particulièrement apprécié dans la Marine. Les gars dont j'm'occupe l'avaient d'ailleurs en chant de compagnie cette année
    (Bon c'est même un chant populaire Breton à l'origine d'après les internets.)
    Dernière modification par poneyroux ; 28/07/2015 à 00h22.

  19. #19
    Un CF de Fury X:

    1/ ne chauffe pas assez
    2/ ne consomme pas assez

    Je recommande plutôt un CF de R9 390X MSI.

  20. #20
    Merci Kimuji.
    Est-ce que cette config me permettra de dépasser 70db sans trop de soucis ou mieux vaut-il que j'investisse dans autre chose ?

  21. #21
    Super taff Taro, c'est déjà bien propre!


    Citation Envoyé par Corto Voir le message
    Une ASUS Crosshair V Formula Z avec un FX 9370 unlocked
    Pfeuh même pas de nom Latino_Romain pour faire viril-spartiate.

  22. #22
    Avec des boules Quies, ça passe sans soucis

    - - - Mise à jour - - -

    @Taronyu

    Quelle maîtrise de la mise en page, rien que les photos ça donne encore plus envie de lire le contenu.

    Je suis sûr qu'une ou deux images pour illustrer le pipeline graphique et autres données techniques et je clique sur les liens que tu mets.

    En tout cas bravo pour cette v3.

  23. #23
    Citation Envoyé par Arachnyd Voir le message
    Super taff Taro, c'est déjà bien propre!
    Merci !

    Citation Envoyé par Corto Voir le message
    @Taronyu

    Quelle maîtrise de la mise en page, rien que les photos ça donne encore plus envie de lire le contenu.

    Je suis sûr qu'une ou deux images pour illustrer le pipeline graphique et autres données techniques et je clique sur les liens que tu mets.

    En tout cas bravo pour cette v3.
    Merci ! Oui en effet il manque des images (et encore pas mal de texte) pour la partie technique.

    En parlant du lien, j'ai remarqué qu'il est pas si bien en fait, je trouverai mieux et je le changerai.
    Exemple, page assez concise mais intéressante : la page 7. Ben à droite des textes sont masqués sous d'autres...

    Je reverrai mes anciens cours là dessus au pire.

  24. #24
    @taronyu26
    • Nvidia : Le multi-écran existe, mais je ne crois pas qu'il ait un nom particulier.
    Ça s’appelle Nvidia Surround.

  25. #25
    Félicitations Taro, cette première ébauche d'OP donne déjà très envie.

    Par contre, petit conseil : tu devrais mettre la partie technique en dernier. Bien que très intéressante à mon sens, la grande majorité des personnes qui passeront par ce topic ne viendront que pour le conseil d'un modèle. C'est donc certainement cette partie qu'il va falloir mettre en avant. Sinon je crains que personne ne la consulte et que ton bel OP ne serve à rien.

    En gros, pour moi, ça donnerait :
    Post 1 = Intro (avec des liens vers des tests et comparatifs par exemple)
    Post 2 = Sélection des canards (les modèles pour chaque budget) puis explication des différentes technologies des constructeurs
    Post 3 = Pour aller plus loin (donc la technique)

    C'est une proposition, à toi de voir.

    Mais sinon j'attends avec impatience la suite car la partie technique va beaucoup m'intéresser je pense.














    Et il manque Intel dans les constructeurs de carte-graphique.
    Citation Envoyé par Teocali Voir le message
    Les qualités qui comptent pour être élus ne sont pas les même que pour gouverner. Et c'est tout le défi d'une démocratie dans notre société moderne : réussir a résoudre ce dilemme.

  26. #26
    Citation Envoyé par SuperLowl Voir le message
    Et il manque Intel dans les constructeurs de carte-graphique.
    D'après Steam Survey, les deux premières cartes graphiques possédées par les joueurs sont les Intel HD Graphics 4000 et 3000. Je valide donc ce
    Le topic de Rocket League : vroum vroum hop but.

  27. #27
    Moi j'attends la liste des cartes avec lien des feedback, je peu d'ailleurs te libérer le 4e post pour ça si tu veux.

  28. #28
    Citation Envoyé par Kazek37 Voir le message
    Ça s’appelle Nvidia Surround.
    Ah, ben oui, maintenant que tu le dis. Merci bien !

    Citation Envoyé par SuperLowl Voir le message
    Félicitations Taro, cette première ébauche d'OP donne déjà très envie.

    Par contre, petit conseil : tu devrais mettre la partie technique en dernier. [...]

    Mais sinon j'attends avec impatience la suite car la partie technique va beaucoup m'intéresser je pense.

    Et il manque Intel dans les constructeurs de carte-graphique.
    Merci !

    Oui, tu as raison, à la prochaine modification je les échangerai de place.

    Pour la partie technique, je vais faire de mon mieux pour bien vulgariser tout en ne disant pas trop de conneries.

    Intel ? Constructeur de cartes graphiques ? Jamais ! Je vous préviens, j'ai été entraîné pour résister à toutes les formes de torture...
    ...sauf le coil whine

    Citation Envoyé par Yakaaa Voir le message
    D'après Steam Survey, les deux premières cartes graphiques possédées par les joueurs sont les Intel HD Graphics 4000 et 3000. Je valide donc ce
    Moi je boycott. Faut rectifier ta phrase comme ceci :
    D'après Steam Survey, les deux premières bouses graphiques intégrées possédées par les casuals indignes du hardware sont les Intel HD Graphics 4000 et 3000.

    C'est dingue comme ça sonne juste, dit comme ça.

    Citation Envoyé par MegABiloU Voir le message
    Moi j'attends la liste des cartes avec lien des feedback, je peu d'ailleurs te libérer le 4e post pour ça si tu veux.
    Hum pourquoi pas, je veux bien que tu le libères, au pire s'il est pas utilisé tout de suite, je l'aurai pour plus tard.

  29. #29

  30. #30
    Merci !

    J'ai rajouté la VRAM dans la technique.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •