Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 4 sur 9 PremièrePremière 123456789 DernièreDernière
Affichage des résultats 91 à 120 sur 252
  1. #91
    Citation Envoyé par Grosnours Voir le message
    Non.
    Ce que tu racontes est inexact.
    Et c'est bien la tout le problème, tout le monde, moi compris pensait que c'était exact.

    Je m'explique.
    D'après cet article, Vista 32 est capable de reconnaitre bien plus que 4Go de RAM et d'utiliser 3Go/process.
    Or qu'apporterait passer a Vista 64 ?
    Uniquement être capable d'utiliser 4Go/process, soit 1Go de plus utilisable par thread, et c'est tout.

    Un gain bien peu important pour la plupart des applis, il n'y a guère que les softs de montage ou de retouche (et les jeux avec un memory leak ) qui peuvent utiliser autant de mémoire par thread.

    Conclusion : est-ce que cela vaut le coup pour le particulier moyen (possédant 4Go ou plus) de passer a Vista64 ?
    Non, absolument pas, en tout cas dans un monde ou Microsoft n'aurait pas bridé volontairement son OS.
    Raaaaaah mais non ! Pas d'accord du tout : on parle de mémoire virtuelle ; si tu commences à partager plein de mémoire entre différents processus (faut bien exploiter les multi coeurs) tu pourrais vite saturer ton espace d'adressage sans pour autant vraiment utiliser 2 ou 4 Go de mémoire pour ton processus... Et là ça concerne toutes les applications, y compris les jeux.

  2. #92
    Tiens j'en connais un que ses aventures récentes au merveilleux pays du multi-thread ont laissé traumatisé...

    Bon reformulons :
    En l'état actuel des choses, la plupart des softs tournent en 32b et donc nécessitent au plus 3Go/thread (plutôt 2 même). Et les softs 64b arrivent certes surement mais lentement.
    Donc pour une utilisation de toutes façons tournées vers le 32b (les jeux au hasard), Vista32 débridé et Vista64 = kif-kif.

    Encore une fois, cela ne remet pas en cause le fait de conseiller de passer en 64b (le plus tôt sera le mieux car marre de la compatibilité ascendante, l'avenir, enfin bref on peut toujours trouver des bonnes raisons), et d'ailleurs je viens juste de le faire, mais met juste en lumière qu'il faut le faire pour des raisons valables, et pas des lieux communs qui s'avèrent faux.

  3. #93
    Donc pour une utilisation de toutes façons tournées vers le 32b (les jeux actuels au hasard)
    Fixed

  4. #94
    Certes, certes.

    N'empêche je suis tout surpris que ca n'étonne personne cet article.
    Soit je suis le dernier au courant, soit j'accorde une valeur démesurée a un truc anecdotique, soit vous êtes tous trop des roxors blasés, soit vous faites tous parti du complot de Redmond !

  5. #95
    Sauf que le Vista débridé utilise une bidouille qui n'est pas recommandée par MS pour autorisé plus de 2Go par processus.

    Et comme le dit newbie06, cette astuce fonctionne actuellement. Mais je pense que le passage au 64bits va être grandement accéléré par l'arrivée de Seven qui sera fourni avec les 2 DVD et, justement, le fait que tout le monde pense que 32bits = 4Go max.

    Mes Lego - Tof : Canon EOS 40D + Tamron 17-50mm F/2.8 + Canon Seepdlite 430 EX II | VDS MadCatz Arcade Fight Stick TE

  6. #96
    Citation Envoyé par Grosnours Voir le message
    Certes, certes.

    N'empêche je suis tout surpris que ca n'étonne personne cet article.
    Soit je suis le dernier au courant, soit j'accorde une valeur démesurée a un truc anecdotique, soit vous êtes tous trop des roxors blasés, soit vous faites tous parti du complot de Redmond !
    Le PAE est connu depuis trèèèèèèèèèèèèèèèèèèèèèèèè ès longtemps (comme le dit le gars dans l'article) et la bidouille pour adressé plus de 2Go par processus aussi.
    Le premier fonctionne niquel (depuis le temps qu'il existe, encore heureux ).
    Pour le 2ème MS ne le recommande pas car avec XP, l'OS pourrait avoir du mal à gérer. Je ne sais pas ce qu'il en avec Vista et sa nouvelle gestion de la mémoire.

    Et dans tous les cas, le 64bits doit s'imposer. Le 32bits a fait sont temps depuis belle lurette. J'ai l'impression de me retrouver à l'époque du passage de DOS (16bits) / Win3.11 (16bits mais 32bits d'adressage mémoire (oui, on pouvait adresser 4Go avec Win 3.11 for Workgroup)) vers Windows 95 (32bits). C'était en 1995 !

    Mes Lego - Tof : Canon EOS 40D + Tamron 17-50mm F/2.8 + Canon Seepdlite 430 EX II | VDS MadCatz Arcade Fight Stick TE

  7. #97
    Non mais je ne conteste pas que, fort schématiquement, le 32b c'est caca et le 64b c'est la joie et la bonne humeur, ni la nécessité de passer au 64b.

    Mais mon honnêteté intellectuelle (oui je sais, je sais, laquelle?) me pousse a éviter d'utiliser des arguments s'ils sont bidons (OS 32bits=4Go maximum parce ce que c'est mécanique, 2^32, blabla).
    D'où ma véhémence, je me sens tout penaud d'avoir utilisé ce genre d'arguments, même si c'est pour une bonne cause.

  8. #98
    J'ai utilisé ses arguments en connaissance de cause.

    Il faut dire aussi que l'utilisation du PAE et de l'augmentation de la mémoire pour un processus nécessite quelques notions sur Windows. Donc en considérant que Windows cible aussi Tata Janine et que le 32bits peux supporter et utiliser plus de 4Go, mais pas dans sa configuration de base, si plus de 4Go, go 64bits.

    Mes Lego - Tof : Canon EOS 40D + Tamron 17-50mm F/2.8 + Canon Seepdlite 430 EX II | VDS MadCatz Arcade Fight Stick TE

  9. #99
    Bien, je me suis un peu documenté, dans le cas du noyau linux, un module PAE existe, toutefois les noyaux génériques 32bits sembles la plupart du temps ne pas l'inclure, du moins dans les distributions grand publique.

    http://linux.com/archive/feature/119287
    Citation Envoyé par pseudoridicule Voir le message
    Bah ouais, tu malaxes et t’avale.

  10. #100
    PAE = pentium pro puisque vous semblez vous posez la question... Ca fait donc plus de 15ans.
    Mes propos n'engagent personne, même pas moi.

  11. #101
    C'est pas le PAE que je découvrais (ca fait un bail que je connait en effet), mais plutôt son utilisation pour gérer plus de 4Go sur les OS 32b. Je connaissais surtout son utilisation pour gérer plus de 2Go par process.

  12. #102
    PAE = adressage sur 36bits (voir 40 je crois sur certains Xeons)...

    L'OS adresse des plages de 4Go, via PAE tu as 16 pages de 4Go dispo. Sauf qu'il faut pas trop changer de pages : c'est couteux.
    Mes propos n'engagent personne, même pas moi.

  13. #103
    Je veux redevenir X86, merci


  14. #104
    Citation Envoyé par Nos Voir le message
    Je veux redevenir X86, merci
    Pas de problème, si tu cherches un peu, il y a une procédure pour ça désormais.
    Mes propos n'engagent personne, même pas moi.

  15. #105
    Citation Envoyé par Nos Voir le message
    Je veux redevenir X86, merci

    Pour le titre, ou pouvoir poster dans cette partie ?

  16. #106
    Pour la boite à MP
    Conspiracy forever - Lordz of Ragequit for the win - Choupinou un jour, Choupinou toujours

  17. #107
    Citation Envoyé par Neo_13 Voir le message
    Pas de problème, si tu cherches un peu, il y a une procédure pour ça désormais.
    Zut, il faut chercher...

    ---------- Post ajouté à 20h14 ----------

    Citation Envoyé par Ezechiel Voir le message
    Pour la boite à MP
    Spoiler Alert!
    Balance


  18. #108
    Citation Envoyé par Nos Voir le message
    Zut, il faut chercher...

    ---------- Post ajouté à 20h14 ----------



    Spoiler Alert!
    Balance
    Tableau de bord -> Mes groupes.

  19. #109
    Attention question . Par rapport à la différence de performances entre DDR2 et DDR3, celle-ci est assez faible. Comment peux-t'on améliorer les performances en utilisant de la DDR3 ? Est-ce qu'il faut trafiquer du côté codage du programme, de l'OS ou est ce dépendant du hardware (contrôleur mémoire ?) ? Ou tout ça à la fois ?

    Le but de la question est de savoir si cette différence de performances entre DDR2 et DDR3 va rester telle quelle ou va s'accroître avec le temps.
    Dernière modification par Frypolar ; 01/10/2009 à 21h56. Motif: y a pas idée de faire des fautes aussi connes -_-

  20. #110
    Si je ne me trompe pas (et je ne me trompe jamais ), les deux principales différences entre DDR2 et DDR3 sont la conso électrique (et donc de la tension de fonctionnement) et la bande passante.
    Il suffit de voir le résultat d'un i7 920 face a un i7 860 en terme de bande passante mémoire. Wow, il y a un vrai fossé.
    Problème, pour l'instant il faut se lever de bonne heure pour trouver des applis qui vont utiliser des BP de plus de 10Go/s.

    Donc pour répondre a ta question, la DDR3 brillera quand ce genre d'applis seront plus nombreuses.

  21. #111
    Ah d'accord, c'est juste que très peu de programmes sont capables de tirer parti de la DDR3. Un jeu (récent) ça se situerait où sur une échelle d'utilisation de BP ? Plutôt gourmand à s'empiffrer ou régime weight watcher parce qu'il le vaut bien ?

  22. #112
    Je disais plutôt light. C'est surtout la mémoire vidéo qui est sollicité je crois.

  23. #113
    Effectivement, c'est dans le domaine du graphisme que les BP sont les plus élevées. Autrement dit, la VRAM. D'ailleurs c'est bien pour cela que tu trouves des barrettes spéciales (de la GDDR et pas de la DDR) avec une excellente BP (160 Go/s quand même).

    Et je verrais plus des applis avec calcul intensif (et parallèle) comme étant des grosses consommatrices de BP, plutôt que des jeux.

  24. #114
    Bon, j'ai lu un truc sur le forum Advanced, et comme je peux pas poster la bas, bah je poste là, enfin c'était un donc lien vers un article de semiaccurate qui dit que le prototype de Fermi montré récemment n'était en fait qu'un PCB de carte basée sur le GT200 un peu modifié/bidouillé sans GPU dessus (voir ce post) et comme ça vient du même endroit que le "Les yields sur GT300 sont en dessous de 2%", je me demandais un peu quoi en penser.

    Quand on lit l'article, c'est clair que l'auteur ne porte pas Nvidia dans son coeur (ça j'avais compris), mais bon, ça a l'air un minimum justifié quand même.

    Enfin, même si dans l'absolu on s'en fout puisque c'était juste pour accaparer la presse qu'ils ont fait leur annonce, ça ne remet sans doute pas en cause l'architecture de Fermi, mais je trouve ça d'une non classe totale.
    Citation Envoyé par François
    L'ordinateur cantique, c'est l'avenir.

  25. #115
    Hop une petite news la dessus du comptoir (en français). Après, reste à savoir si beaucoup de modèles présentés comme ça en conférence de presse ne sont pas des fakes en fin de compte.
    Dernière modification par RenardChenapan ; 02/10/2009 à 21h56.

    L'hyperthreading vaincra !

  26. #116
    Citation Envoyé par RenardChenapan Voir le message
    Hop une petite news la dessus du comptoir. Après, reste à savoir si beaucoup de modèles présentés comme ça en conférence de presse ne sont pas des fakes en fin de compte.
    Des fois, j'ai l'impression que les gens ne lisent pas ce que j'écris.
    Et ça me rend très triste.
    Citation Envoyé par François
    L'ordinateur cantique, c'est l'avenir.

  27. #117
    Fixed Je voulais dire, un lien dans la langue de Molière pour les extrémiste
    Dernière modification par RenardChenapan ; 04/10/2009 à 11h36.

    L'hyperthreading vaincra !

  28. #118
    Citation Envoyé par Thamior Voir le message
    Bon, j'ai lu un truc sur le forum Advanced, et comme je peux pas poster la bas, bah je poste là, enfin c'était un donc lien vers un article de semiaccurate qui dit que le prototype de Fermi montré récemment n'était en fait qu'un PCB de carte basée sur le GT200 un peu modifié/bidouillé sans GPU dessus (voir ce post) et comme ça vient du même endroit que le "Les yields sur GT300 sont en dessous de 2%", je me demandais un peu quoi en penser.

    Quand on lit l'article, c'est clair que l'auteur ne porte pas Nvidia dans son coeur (ça j'avais compris), mais bon, ça a l'air un minimum justifié quand même.

    Enfin, même si dans l'absolu on s'en fout puisque c'était juste pour accaparer la presse qu'ils ont fait leur annonce, ça ne remet sans doute pas en cause l'architecture de Fermi, mais je trouve ça d'une non classe totale.
    OK, je vais confirmer un truc : les yields de GT300 sont DE TOUTES FACONS à chier.

    On peut pas graver 3 milliards de transistors à bonne fréquence et esperer un bon yield...


    Une bonne façon d'estimer ce qu'on peu faire niveau yield acceptable, c'est de regarder ce que faisait intel 6-12mois plus tot. Et Intel ne fait toujours pas 3 milliards de transistors.
    Mes propos n'engagent personne, même pas moi.

  29. #119
    Citation Envoyé par Neo_13 Voir le message
    Une bonne façon d'estimer ce qu'on peu faire niveau yield acceptable, c'est de regarder ce que faisait intel 6-12mois plus tot. Et Intel ne fait toujours pas 3 milliards de transistors.
    Tu es sûr qu'ils ont toujours 6-12 mois d'avance sur les process par rapport à la concurrence ? Je pensais que ça c'était beaucoup tassé. M'enfin c'est pas comme si j'y connaissais grand-chose en process

    Tiens ça me fait penser à Tukwila et ses 2 milliards de transistors qui ne se pointe toujours pas.

    Pour prendre un autre indicateur : le Power7 d'IBM aura 1.2 milliard de transistors, et ça n'est surement pas la même gamme de prix que Fermi.

  30. #120
    Ouais, j'aurais dit entre 6mois et un an... Ca s'est tassé : c'était plus avant. :D
    Mes propos n'engagent personne, même pas moi.

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •