Crunchez vos adresses URL
|
Calculez la conso électrique de votre PC
|
Hébergez vos photos
Affichage des résultats 1 à 27 sur 27
  1. #1
    Par John Gustafson : http://www.johngustafson.net/present...re2016-JLG.pdf

    Bon, j'ai pas franchement tout pigé, mais c'est résumé comme ça :

    A complete break from IEEE floats may be worth the disruption.
    • Makes every bit count, saving storage/bandwidth, energy/power
    • Mathematically superior in every way, as good as integers
    • Rigor without the overly pessimistic bounds of integer arithmetic

    Qu'en pensez-vous ? Møgluglu ?
    Dernière modification par Alexko ; 22/08/2016 à 16h58.
    Mon blog (absolument pas à jour) : Teχlog

  2. #2
    "Unums version 2.0"... Oh non, Gustafson a encore révolutionné l'arithmétique.

    Ça a l'air un système de représentation des nombres super cool avec plein de bonnes propriétés. Sauf... qu'il ne sait pas calculer avec autrement qu'en tabulant tous les résultats pour toutes les entrées possibles pour tous les opérateurs même l'addition. Donc lolno.

    Sinon, en parlant d'arithmétique certifiée, la norme IEEE 1788 pour l'arithmétique d'intervalles est sortie. Ça décrit des opérations sur des intervalles de flottants, mais pas que (c'est compatible avec IEEE 754, mais pas basé dessus).
    Le truc original est la notion de décoration, qui permet de savoir par exemple si les bornes d'un intervalle sont exactes ou si c'est une approximation, ou si les bornes exactes sont inclues dans l'intervalle ou non.
    Du coup on peut avoir la plupart des propriétés des Unums de Gustafson et de ses algos en construisant sur de l'arithmétique d'intervalles IEEE 1788.

  3. #3
    Je n'ai pas tout compris. En fait, je n'ai presque rien compris

    Le vieux 754 a encore de beaux jours devant lui, non ?

    Ça me rappelle un début de bibliothèque que j'avais écrit, qui consistait à stocker les nombres sous la forme de fractions (numérateur, dénominateur), en implémentant les opérateurs et en restant en fraction sur toute la durée du programme.
    A la fin seulement, je faisais une approximation vers un nombre flottant pour comparer les résultats.
    Au final, pas de gain par rapport à du double classique sur des opérations simples (addition, soustraction, multiplication et division)... Mais en récupérant la fraction approximée en float par contre c'était le même résultat qu'en double.

    Par contre, je n'étais pas au fait du 1788, je vais m'y intéresser.
    Sombrero d'or since 2015/12/03
    Citation Envoyé par GdabZ Voir le message
    On est au milieu d'une génération de consoles à la rue qui va être remplacée par d'autres modèles à la rue.

  4. #4
    Citation Envoyé par taronyu26 Voir le message
    Je n'ai pas tout compris. En fait, je n'ai presque rien compris
    Le mec qui a inventé la loi de Gustafson dans les années 80 a récemment inventé un nouveau système de représentation des nombres. Ou plus exactement, de représentation d'ensemble de nombres. Il a écrit un bouquin dessus et il dit à tout le monde que c'est super cool. Seul problème, les calculs comme l'addition est la multiplication avec ce système sont tellement compliqués que la seule solution qu'il ait trouvé, c'est de faire des grandes tables d'addition et de multiplication avec tous les résultats possibles de toutes les additions/multiplications possibles qu'on apprend par cœur comme dans une pièce de Ionesco.

    Le vieux 754 a encore de beaux jours devant lui, non ?
    Oui, d'autant qu'il a été révisé en 2008, c'est pas ce qu'on peut appeler vieux.

    Par contre, je n'étais pas au fait du 1788, je vais m'y intéresser.
    La norme n'est malheureusement pas donnée, mais je peux trouver quelques drafts récents.
    Il y a une implèm de référence aussi : https://github.com/nehmeier/libieeep1788

  5. #5
    Merci pour ces explications. En effet si le mec doit stocker toutes les tables c'est pas applicable à un système informatique actuel.
    Pour le 754 j'ai utilisé un "vieux" affectif, je sais qu'il a subi des révisions, mais quelque part la première version commence tout de même à dater
    Sombrero d'or since 2015/12/03
    Citation Envoyé par GdabZ Voir le message
    On est au milieu d'une génération de consoles à la rue qui va être remplacée par d'autres modèles à la rue.

  6. #6
    Tiens en rangeant ma biblio je suis tombé sur ce papier :
    Toronto and McCarthy, Practically Accurate Floating-Point Math, CSE 14.
    http://cs.umd.edu/~ntoronto/papers/t...ting-point.pdf

    C'est une bonne intro à la compréhension et au débuggage numérique de programmes en virgule flottante qui est injustement ignorée, et c'est plus moderne que le Goldberg. Je prendrais soin de le sortir à chaque discussion qui atteint le point Goldberg.

  7. #7
    Le point Goldberg ? C'est le point Godwin des x86 ?
    Sombrero d'or since 2015/12/03
    Citation Envoyé par GdabZ Voir le message
    On est au milieu d'une génération de consoles à la rue qui va être remplacée par d'autres modèles à la rue.

  8. #8
    Exactement. Depuis 25 ans, on observe empiriquement qu'à mesure qu'une discussion sur l'arithmétique virgule flottante se poursuit, la probabilité que quelqu'un finisse par citer le papier de David Goldberg, What every computer scientist should know about floating-point arithmetic tend vers 1.

  9. #9
    Ah, c'est de lui?
    Je l'ai toujours sur mon bureau, mais sous "What every computer programmer should know about memory" de l'ami Drepper, qui attend aussi d'être lu sérieusement.

  10. #10
    Tu tries les papiers par titre ? La pile "What Every Computer X Should Know About Y", la pile "Z Considered Harmful" sur le bureau, les rangées "The Art of X" et "Y: A Quantitative Approach" sur l'étagère... Pas con pour s'y retrouver.

  11. #11
    Je fais une grande pile avec les docs Intel et Agner fog sur les côtés pour pas que ça déborde, et la monographie de Knuth au dessus pour tout compresser.
    C'est bien mais faut pas claquer la porte trop fort

    Je ne vois pas de meilleure stratégie pour ne jamais avoir à les lire pour de vrai

  12. #12
    Citation Envoyé par Møgluglu Voir le message
    Exactement. Depuis 25 ans, on observe empiriquement qu'à mesure qu'une discussion sur l'arithmétique virgule flottante se poursuit, la probabilité que quelqu'un finisse par citer le papier de David Goldberg, What every computer scientist should know about floating-point arithmetic tend vers 1.
    Merci pour l'info. Voici donc une des (nombreuses ?) coutumes des autochtones de la section x86
    Sombrero d'or since 2015/12/03
    Citation Envoyé par GdabZ Voir le message
    On est au milieu d'une génération de consoles à la rue qui va être remplacée par d'autres modèles à la rue.

  13. #13
    t-t-t-t.

    T'as pas encore vu le bizutage

  14. #14
    C'est quoi le bizutage? Écrire son manuscrit?
    On ne parlera jamais assez des RISC liés à la vente d'ARM.

  15. #15
    J'irai jusqu'à faire du pole-dance en chantant de l'assembleur s'il le faut.
    Sombrero d'or since 2015/12/03
    Citation Envoyé par GdabZ Voir le message
    On est au milieu d'une génération de consoles à la rue qui va être remplacée par d'autres modèles à la rue.

  16. #16

  17. #17
    Le x87 c'est pas l'utilisation de 80 bits pour effectuer les opérations arithmétiques entre des nombres flottants 64 bits ("double") ? Ou je confonds ?
    Sombrero d'or since 2015/12/03
    Citation Envoyé par GdabZ Voir le message
    On est au milieu d'une génération de consoles à la rue qui va être remplacée par d'autres modèles à la rue.

  18. #18
    Si justement. Avec le jeu de registres spéciaux en barillet de révolver.
    De quoi se tirer une balle


    Justement, je me demandais s'il y avait un support natif des flottants 128 bits? Je crois que non sur x86...

  19. #19
    Aucun vrai CPU ne gère le flottant binaire 128 bits (Binary128) en matériel. Certaines ISA le définissent, mais ça n'a pas été implémenté en attendant une preuve que ça serve à quelque chose.

    Par contre les processeurs IBM à partir du Power 6 et du z10 gèrent le format flottant Decimal128 en matériel, pour des raisons principalement religieuses. Intel ne le fait pas, pour des raisons tout aussi religieuses.
    (Il y a un topic décimal si on remonte un peu.)

  20. #20
    Citation Envoyé par vectra Voir le message
    Justement, je me demandais s'il y avait un support natif des flottants 128 bits? Je crois que non sur x86...
    Si par natif tu veux dire "hardware" (c'est probablement moi qui n'utilise pas les bons termes )... nope

    Il y a bien sûr un support "software" sinon ce serait impossible d'utiliser des long double en C++ par exemple
    Sombrero d'or since 2015/12/03
    Citation Envoyé par GdabZ Voir le message
    On est au milieu d'une génération de consoles à la rue qui va être remplacée par d'autres modèles à la rue.

  21. #21
    Citation Envoyé par Thamior Voir le message
    C'est quoi le bizutage? Écrire son manuscrit?
    Celui des autres?

  22. #22
    Pour revenir au sujet initial, il va y avoir un grand comdébat entre John "The End of Error" Gustafson et William "How Futile are Mindless Assessments of Roundoff in Floating-Point Computation" Kahan à Arith : http://arith23.gforge.inria.fr/program.html
    Vu les participants, ça va surement envoyer du lourd. Dommage, j'aurais bien aimé y être avec un seau de popcorn.

  23. #23
    Si le topic de l'actu vous manque et que les JO vous paraissent trop fair-play, le deathmatch a été filmé :
    https://www.youtube.com/watch?v=LZAeZBVAzVw


    (Les slides de la première heure de la vidéo si vous voulez zapper : celles du challenger et celles du champion).

  24. #24
    Typographiquement, le challenger est meilleur que le champion en tout cas. Il pique les yeux ce débat d'experts.

  25. #25
    C'est Kahan en même temps, il utilise un téléphone à fil, écrit ses papiers à la machine à écrire, lit son courrier papier et pas son mail, sa seule concession à la modernité est qu'il a remplacé la règle à calcul dans la poche de sa veste par une calculatrice (voir à 1:15:00).
    (On la voit pas bien mais comme il dit qu'elle résout des équations, c'est peut-être bien son HP-34C.)

    Ma partie préférée :
    Spoiler Alert!

    Kahan : Gustafson suffers from a misconception about floating point shared by Von Neumann.
    Gustafson : It pleases me very much to share misconceptions with John von Neumann.

    (Oui, en début de carrière Kahan s'était engueulé avec Von Neumann, dans les années 50.)
    Dernière modification par Møgluglu ; 17/08/2016 à 23h19.

  26. #26
    Le probleme est que Kahan a gagne avant meme que le debat ne commence .
    fefe - Dillon Y'Bon

  27. #27
    Oui, j'en viendrais presque à plaindre Gustafson. Il écrit des trucs intéressants dans son bouquin, mais c'est tellement survendu que ça perd toute crédibilité. Surtout qu'il redéfinit les termes existants et évite soigneusement toute référence à l'état de l'art pour donner l'impression qu'il a tout inventé, ce qui est assez agaçant pour les académiques.

    Globalement j'ai l'impression qu'il a du mal à trouver son public. Le bouquin est vendu comme destiné à des non-spécialistes (ce qui lui sert d'excuse pour éviter la biblio et les maths rigoureuses), mais il ne fournit qu'un code Mathematica à côté. S'il veut intéresser le programmeur lambda, il devrait commencer par écrire une bibliothèque utilisable en C/Java/Python/C#...

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •