J'ai fais ma demande...
J'approuve. Il y a le mot FPGA dans son profil.
(et puis les additionneurs propagate-generate, c'est la classe)
Salut les x86 !
J'aurais une 'tite question, juste par curiosité
Je travaille entre autres sous Stata (logiciel de statistiques +/- équivalent à SAS). Dans leur documentation concernant les data types (long, float, etc.) il y a quelque chose que je ne comprends pas :
Ma question : pourquoi c'est pas 0.1 tout court ?Stata stores numbers in binary, and this has a second effect on numbers less than 1. 1/10 has no perfect binary representation just as 1/11 has no perfect decimal representation. In float, .1 is stored as .10000000149011612. Note that there are 7 digits of accuracy, just as with numbers larger than 1. Stata, however, performs all calculations in double precision. If you were to store 0.1 in a float called x and then ask, say, "list if x==.1", there would be nothing in the list. The .1 that you just typed was converted to double, with 16 digits of accuracy
(.100000000000000014...), and that number is never equal to 0.1 stored with float accuracy.
Pourquoi il stocke en float, convertit en double pour faire genre un test logique bidon, puis reconvertit en float ensuite ?
Toute explication m'aidera à lutter contre les cauchemars d'incompréhension à venir... Merci d'avance
PS : je me souviens d'un post de Neo_13 sur les arrondis "foireux" (car non précisés explicitement) de Excel, mais là ca touche carrément l'imprécision ?!
Ce n'est pas 0.1 parce que les flottants sont en base 2, et comme 0.1 n'est pas un représentable par une somme de puissances de 2 tu ne sais pas le représenter exactement.
Exercice : montrer que 0.1 = somme(i = 1 -> infini) { 1/2^(4*i) + 1/2^(4*i+1) }
Il stocke en single pour gagner de la place, mais calcule en double pour ne pas trop perdre en précision. Dans ton cas, Stata n'a pas un opérateur de comparaison avec un epsilon ?Pourquoi il stocke en float, convertit en double pour faire genre un test logique bidon, puis reconvertit en float ensuite ?
Bienvenue dans le monde des flottantsPS : je me souviens d'un post de Neo_13 sur les arrondis "foireux" (car non précisés explicitement) de Excel, mais là ca touche carrément l'imprécision ?!
Ah ben oui, j'avais oublié la base 2...
Avec une petite simulation j'ai vu que la formule de l'exercice (w00t) atteint 0 avec une précision grosso modo égale à celle de Stata au bout de 13 itérations... Mais d'où tu as sorti ça ? Pour la démonstration, je repasserai plus tard
Autre petite question : qu'est-ce donc que l'epsilon ?
Indice : rappelle-toi de la division apprise en CM1. Mais en binaire.
Je rajoute ma question à moi : pourquoi 13 itérations et pas 11 ou 17?
C'est une constante qui apparaît dans le modèle standard de l'arithmétique flottante.Autre petite question : qu'est-ce donc que l'epsilon ?
Dans le cas général, quand tu fais une opération a ⊕ b, ou ⊕ représente l'addition flottante et a et b deux flottants, ton résultat est affecté d'une erreur d'arrondi relative e par rapport au résultat exact telle que a ⊕ b = (a + b)(1+e).
Pour chaque type flottant, il existe une constante ε telle que |e|≤ε. En double précision (binary64 pour faire pédant) et en arrondi au plus près, ε=2^(-54).
Ça marche aussi pour les autres opérateurs. Ce qui est bien pratique pour calculer des bornes d'erreur sur des expressions complètes.
Ça c'est si on suppose l'absence d'underflow, sinon faut rajouter une erreur absolue bornée par la constante eta. Mais c'est tellement la merde qu'en pratique, on préfère supposer l'absence d'underflow.
Dernière modification par Møgluglu ; 10/03/2011 à 20h41.
Ouh làlà, les divisions euclidiennes ca fait tellement longtemps que j'en ai plus fait ! Un autre indice svp, Père Fouras ?
J'ai reproduit les itérations pas-à-pas avec Excel. A la 14e itération il me renvoyait un beau 1 avec au moins 32 zéros derrière la décimale, tandis qu'à la 13e itération la précision était à vue de nez (on va dire à +/- 10^5 ) assez proche de celle indiquée par Stata.Je rajoute ma question à moi : pourquoi 13 itérations et pas 11 ou 17?
Excel.
Merci pour l'infoC'est une constante qui apparaît dans le modèle standard de l'arithmétique flottante.
Dans le cas général, quand tu fais une opération a ⊕ b, ou ⊕ représente l'addition flottante et a et b deux flottants, ton résultat est affecté d'une erreur d'arrondi relative e par rapport au résultat exact telle que a ⊕ b = (a + b)(1+e).
Pour chaque type flottant, il existe une constante ε telle que |e|≤ε. En double précision (binary64 pour faire pédant) et en arrondi au plus près, ε=2^(-54).
Ça marche aussi pour les autres opérateurs. Ce qui est bien pratique pour calculer des bornes d'erreur sur des expressions complètes.
Ca me fait marrer l'histoire des bornes d'erreur ; déjà que nous autres statisticiens devons calculer des intervalles de confiances en fonction de la distribution de jeux de données, si là on peut même plus faire confiance aux chiffres bruts 'fin bon ca reste dans un ordre de grandeur acceptable pour le commun des mortels...
Y'aurait pas un bon lien web sur cette histoire d'epsilon ??
Avec un tel teasing, je ne peux que demander ce que c'est que l'underflowÇa c'est si on suppose l'absence d'underflow, sinon faut rajouter une erreur absolue bornée par la constante eta. Mais c'est tellement la merde qu'en pratique, on préfère supposer l'absence d'underflow.
edit : wiki parle de l'underflow, je vais jeter un oeil
Pourtant c'est facile l'arithmétique en binaire...
La table de multiplication est pas trop dure à apprendre.
Ça marche aussi avec Excel. Pour i=13, quel est l'ordre de grandeur du dernier terme de la suite?J'ai reproduit les itérations pas-à-pas avec Excel. A la 14e itération il me renvoyait un beau 1 avec au moins 32 zéros derrière la décimale, tandis qu'à la 13e itération la précision était à vue de nez (on va dire à +/- 10^5 ) assez proche de celle indiquée par Stata.
Newbie a été vicieux d'écrire la série avec des divisions. Je le verrai plus comme ça :
somme(i = 1 -> infini) { 2^(-4*i) + 2^(-4*i-1) }
Note que tu peux aussi modéliser tes erreurs d'arrondi par des variables aléatoires et les intégrer dans ton modèle statistique. C'est une hérésie mathématique, mais en pratique ça marche pas plus mal que pas mal d'autres méthodes.Ca me fait marrer l'histoire des bornes d'erreur ; déjà que nous autres statisticiens devons calculer des intervalles de confiances en fonction de la distribution de jeux de données, si là on peut même plus faire confiance aux chiffres bruts 'fin bon ca reste dans un ordre de grandeur acceptable pour le commun des mortels...
L'ordre de grandeur des erreurs est trompeur. Si tu ne fais pas gaffe tu peux facilement te retrouver à faire des calculs tels qu'une petite variation en entrée aura un impact significatif sur le résultat.
Typiquement, la soustraction de deux nombres très proches.
Enfin en stats je sais pas.
Le Higham, et en particulier le chapitre 2 :Y'aurait pas un bon lien web sur cette histoire d'epsilon ??
edit : wiki parle de l'underflow, je vais jeter un oeil
http://books.google.com/books?id=epi...pg=PP1&pg=PA35
La tradition veut aussi qu'à mesure qu'une discussion sur l'arithmétique se déroule sur un forum, la probabilité que quelqu'un balance une référence au Goldberg tend vers 1:
What every computer scientist should know about floating-point arithmetic
En bon français, c'est un dépassement de capacité vers le bas. On vie dans un monde fini. La précision des flottants est finie, leur dynamique est finie aussi, donc de temps en temps on arrive au bout, et ça devient complicay.Avec un tel teasing, je ne peux que demander ce que c'est que l'underflow
Bordel, qui a laissé la porte du forum advanced ouvertes ???
Hello, je souhaiterai intégrer x86 ! Puisque les demandes via la tableau de bord sont apparemment trop discrètes.
You want to grab a politician by the scruff of the neck and drag him a quarter of a million miles out and say, "Look at that, you son of a bitch." — Edgar Mitchell, Apollo 14 astronaut
Bonjour à tous, j'aurais bien aimé intégrer la section x86 afin de pouvoir poser quelques question pointues (et avec des couteaux).
La plupart concerneront le développement de jeu et leur optimisations (cpu, gpu).
- Mon projet de jeu : EXIL : Des morts, de la plateforme, des colosses et des saucisses.
!Portfolio! - Twitter - Google+ - LinkedIn
moi aussi j'aimerai atteindre ce status hautement privilégié et pouvoir ricaner des petite gens !
Passionné par tout ce qui me reste plus de 20 secondes dans les mains.
Hello à tous,
Je suis tombé sur une news du site SemiAccurate (suite à l'arrêt de la production TSMC 28 nm qui m'avait intéressé dans 2 autres articles), dont je n'ai pas trop compris le fond...
Quelqu'un du milieu pourrait en tirer la substantifique moelle svp ? Notamment sur le dernier paragraphe que je trouve bizarre...
Merci !For Nvidia, this hard fought win at Apple just went up in smoke for the reasons we have been warning readers about since last summer. The largest single order for the GPU maker this year was scaled way way back, but we can’t say the exact percentage. By the time there are new bids for the next generation laptops, Haswell will essentially kill off the segment that Apple would have used, meaning this market is dead forever. It may sound dramatic, but this is the end of the mid-range GPU segment as a standalone part. This most lucrative slice of the market is now on its last legs.S|A
PS: Mogluglu, je vois que je ne me suis pas encore penché sur ta grosse réponse de l'autre fois
Ben ça semble plutôt clair: apple avait dit: on fout des keplers dans tous nos pc, et ils sont en train de revenir dessus. Ils vont laisser les gpu discret (donc nvidia) que sur le haut de gamme, tous le bas et certain moyen de gamme passe en gpu intégré au processuer. Quand on voit les perf d'ivy bridge ils auraient tord de ce priver.
ce qui amene Semiaccurate à dire: le gpu moyen de gamme est mort à court terme, les gpu intégré sont suffisant, il reste que le haut de gamme à ati/nvidia.
Après j'ai une bonne grippe donc je peux être totalement à coté de la plaque...
Je suis d'accord avec Hellsing, mais il y a un ton légèrement dramatique puisque ce sont les GPU milieux de gamme qui génèrent le plus de profits.
C'est le drame parce que si il n'y a plus l'argent du milieu de gamme pour financer la recherche, il n'y aura plus de haut de gamme non plus, donc plus de cartes dédiées.
Oui, est ça va être la famine dans le monde et les gens vont manger les amis décédés pour survivre...
Ca me rappelle l'autre conne vice-truc d'orange ou sfr qui disait qu'à cause de free, ils allaient perdre de l'argent et que des employés de chez eux allaient donc se retrouver au chômage à cause de free.
Parce qu'on parle bien de la disparition du segment des CG avec un gpu de 3 ans et 4Go de ram, non ? Donc ce sont plutôt les consommateurs qui vont arrêter de perdre de l'argent, depuis quand est-ce une mauvaise chose ?
Edit : Et laisse moi te rappeler que ce qu'"ATI" perd, AMD le récupère...
Dernière modification par keulz ; 13/03/2012 à 23h49.
C'est pas sur : quand t'achètes un APU sont prix ne correspond pas à ce que tu payerais en prenant un CPU + GPU.
Sans compter que nVidia n'a pas cette forme de récupération ce qui explique sa diversification.
Et les GPU sur lesquels les constructeurs se font le plus de marges, c'est le segment 100 - 200€ de mémoire : donc au final les consommateurs sont perdant puisque à terme nous n'auront plus que le choix entre un GPU intégré aux perf' moyennes ou aux haut de gamme à plus de 400€...
Pas d'accord : clairement les GPU intégrés sont limités par les contrôleurs mémoire et la vitesse des RAM standard. Fatalement t'as tes coeurs et un GPU qui se partagent une même ressource, c'est potentiellement la cata. Déjà qu'avec 4 coeurs tu peux être limité par le contrôleur mémoire et ta RAM, ajouter un GPU va forcément agraver le problème.
C'est pas uniquement pour faire beau sur des slides marketing que les GPU non intégrés ont des bus larges et une bande passante de malade .
Donc avant de jouer à des jeux récents dans une résolution correcte (pour moi correct c'est FullHD minimum, pour d'autre c'est ptet moins), il va falloir attendre que ces GPU aient leur propre contrôleur et leur propre RAM (stacked RAM ?).
Vraiment pas assez à mon goût (cf. test Anand). Loin du moyen de gamme quand même : une GT440 c'est 70 euros donc même pas du moyen de gamme, et ça reste bien au-dessus d'Ivy Bridge.Matte les test des ivy bridges, le gpu intégré envoi du steak quand même!
On finira bien par arriver à quasiment tous se contenter d'un GPU intégré, mais c'est vraiment pas pour de suite
Nan mais je rêve, tu dis que le consommateur va y perdre parce que les produits au plus mauvais rapport qualité prix (de ce que tu dis) vont disparaître ? T'as des actions chez nvidia toi !
Et non, il ne va pas y avoir de trou entre des APU bas de gamme et des GPU haut de gamme. Faut arrêter de les prendre pour des idiots, ils ne vont pas laisser un gros vide sur le plus gros segment du marché.
Non mais tu vois le principe. Et on en est franchement aux début des APU. Reste de la marge de progression.
Ouai, enfin les CG à 50€ ne font pas franchement tourner des jeux en fullhachday non plus, hein.
Et puis faut se remettre dans le contexte, on parle d'une action d'apple...
Il n'y a quand même pas beaucoup de pauvres qui jouent sur un apple sans pouvoir se payer mieux qu'une CG à 100€...
Donc ça ne sert à rien de s'emballer.