Crunchez vos adresses URL
|
Rejoignez notre discord
|
Hébergez vos photos
Page 1 sur 2 12 DernièreDernière
Affichage des résultats 1 à 30 sur 58
  1. #1
    Bonjour à tous,

    Je voulais parler un peu de l'optronique, qui semble traverser une période de fébrilité depuis quelques années. Déjà envisagée avant l'informatique quantique, l'informatique "optique" semble sur le point de devenir une réalité.
    Je suis pas mal les news du site futurascience, et j'avais déjà vu en labo quand j'étais étudiant quelques guides d'ondes qui passaient des centaines de gigahertz sur du silicium.
    Du coup, j'ai bien envie de savoir si vous avez quelques informations sur l'optronique, qui semble être la solution pour relancer la loi de Moore.

    L'optronique consiste à augmenter la fréquence des signaux dans le processeur (ou sur les bus de données, dans un premier temps) pour passer dans le domaine de la lumière (qui commence aux alentours de 3THz).
    Avantages:

    • la fréquence de commutation (plusieurs THz),
    • le spectre optique qui permet une bande passante bien plus élevée (on parle de plusieurs Tb/s) et surtout (mais pour beaucoup plus tard),
    • un nouveau paradigme de calcul non plus binaire, mais basé sur des réseaux d'interférences. Et là ca claque très fort, puisqu'on ne stocke plus 1 bit binaire par fil, mais une "couleur" du spectre qui en contient [mettre ici un nombre énorme]. Ca signifie aussi que les opérations basiques (addition, multiplication, ...) n'ont plus besoin de plusieurs portes logiques ET/OU, mais simplement d'un modulateur optique qui va additionner les deux spectres qui lui arrivent.


    Les gros défis qui se posent pour le moment sont les suivants (d'après ce que j'ai pu lire):

    • dans un premier temps, l'objectif n'est pas de réaliser des calculs avec la lumière; IBM et Intel semblent songer à utiliser les guides d'ondes pour transmettre des informations d'un point à un autre (entre deux coeurs sur une puce, entre le processeur et le chipset,...). Il parait qu'ils ont tous les deux sorti de leurs labos des micro-commutateurs optiques qui relèguent les transistors au rang de jouet: news IBM et news Intel. Le problème est que ca consomme encore beaucoup et que c'est encore trop gros. Au final, l'objectif c'est d'accélérer les capacités des bus internes de la machine pour limiter les latences entre les caches. Ca donnera déjà un énorme coup de fouet!
    • la suite, c'est le calcul purement optique. Là c'est un énorme travail qui semble toujours en cours. Comme pour l'informatique quantique, il faut revoir tout un tas de paradigmes, puisque le calcul ne se fera plus sur du binaire mais sur des longueurs d'ondes. Une startup Israelienne propose déjà un DSP qui se base là dessus, avec un guide d'onde qui et c'est assez impressionnant : 5eme page du PDF ici, ils indiquent dans leur tableau que certaines opérations sont accélérées 100 000 fois.
      Une autre citation du PDF:
      The optical core of the EnLight256 is comprised of lasers, detectors, optical modulators and Lenses. In a single clock period (8nsec) it can multiply a 256-byte vector by a 256 x 256 byte Matrix. This sums-up to 256x256x125x106= 8x10^12 MAC operations per second.
      Le problème, c'est qu'ils sont obligés d'utiliser autant de lasers que de données qu'ils veulent transporter. C'est un des défis à réaliser; Intel semble se pencher dessus aussi.


    Si vous avez des commentaires, des infos, des idées, n'hésitez pas!

    De la doc:
    http://en.wikipedia.org/wiki/Optical_computer
    La compote?

  2. #2
    Mouai, ça fait 25 ans qu'on nous parle de l'ordinateur optique.

    Faire des guides d'ondes pour la lumière dans un substrat, qui va ensuite activer des transistors optiques, le principe est sympa.
    Par contre la réalisation et à bas cout c'est une autre histoire (rien que le Ga-As coute un rein alors ça...).

    Par contre ton article sur la start up israélienne date quand même de 2003 et j'en ai pas entendu parler depuis.


    Le silicium a encore de beau jours devant nous : on vient d'avoir le retour d'une de nos puces qui mouline à 80 ghz en process 65nm bicmos, et ça marche impec.

  3. #3
    Intel veut transmettre entre bloc en Die-through par le bulk en optique, si j'ai bonne mémoire, mais le cpu optique pour le calcul, c'est comme DNF : when it's done, mais ça fait tellement longtemps que plus personne n'y crois. Ou Hurd pour les moins gamer et les plus geeks.
    Mes propos n'engagent personne, même pas moi.

  4. #4
    Bon, je sais, je déterre un peu beaucoup le topic, mais c'est pour la bonne cause.

    Lors de la NDH2010 j'ai eu la chance de parler pendant prés de 4H avec George Hotz sur le sujet des CPUs et de l'optronique (Jusque là, rien d'exceptionnel.).

    Donc lors de cet échange en est ressortie quelques interrogations concernant l'optronique et dont j'aimerais discuter avec vous :-D

    1°/-Si l'ont souhaite créer un CPU en Optronique, il vas être nécessaire de créer un CPU qui ce sert de l'optronique en totalité afin d'éviter les goulots d'étranglement et autres limitations du à la transformation du signal électrique en signal lumineux.

    Et donc la question à ce point est la suivante: Existe t'il des composants aptes à remplacer les transistors dans la gamme des composants optronique?

    2°/-Admettons que l'on veuille ce servir de l'optronique que pour les communications inter-cores des CPUs, on vas bien augmenté la taille de la route entre les cores mais quid du fait que potentiellement les cores ne seront alors plus assez puissants pour traiter les flots de données qui arrive?

    3°/-Le design actuel des CPUs n'a pas réellement évoluer depuis un moment, est ce qu'à votre connaissance INTEL ou AMD ou autres travailles sur des design novateurs?

    Voila j'espère que certains s'intéresse encore à ces sujet ^^

  5. #5
    Citation Envoyé par DR I Voir le message
    2°/-Admettons que l'on veuille ce servir de l'optronique que pour les communications inter-cores des CPUs, on vas bien augmenté la taille de la route entre les cores mais quid du fait que potentiellement les cores ne seront alors plus assez puissants pour traiter les flots de données qui arrive?
    Si on arrive à être limité uniquement par la puissance des cores et pas par l'interconnect, ça sera déjà une révolution.

    Le coût du routage et le coût de la logique n'évoluent pas de manière proportionnelle.
    En première approximation, quand tu passes d'une génération de process à l'autre, tu peux mettre 2 fois plus de transistors dans un carré de surface équivalente. Par contre, les distances ne se raccourcissent que d'un facteur racine de 2.

    Donc tu as une évolution quadratique de la logique et linéaire du routage. Du coup on va se retrouver bloqué par des problèmes de routage bien avant les problèmes de puissance de calcul. Après il y a plein d'autres facteurs qui vont dans le même sens, notamment en conso...

    3°/-Le design actuel des CPUs n'a pas réellement évoluer depuis un moment,
    Tu vas faire hurler des gens ici avec des affirmations comme ça.

  6. #6
    Bah en fait ce que je me disais, c'est que, à l'heure actuel, le routage ne nous coute plus rien (enfin presque, car comme tu le dit, le routage a des couts lineaires) et en plus, les problématiques de routages sont résolu depuis longtemps (fibre optiques et technologies assimilés, plus dernières trouvailles en F.

    Je me suis mal exprimé pour le design.
    Ce que je voulais dire c'est que technologiquement parlant on a bien évolué, mais le design en lui même a savoir la "forme" n'a pas trop évolué, de un à plusieurs coeurs qui sont plus ou moins identiques.

    Je serais bien tenté de donner un exemple d'archi mais j'ai peur que ça fasse débat. :D

  7. #7
    Citation Envoyé par DR I Voir le message
    Bah en fait ce que je me disais, c'est que, à l'heure actuel, le routage ne nous coute plus rien (enfin presque, car comme tu le dit, le routage a des couts lineaires) et en plus, les problématiques de routages sont résolu depuis longtemps (fibre optiques et technologies assimilés, plus dernières trouvailles en F.
    Si je ne suis pas trop bourré — ça devrait aller, je n'ai bu que du jus d'orange ce soir — c'est l'inverse : le routage devient de plus en plus problématique. Ce que Møgluglu dit, c'est que depuis le "début" de l'informatique, le coût de la logique a baissé quadratiquement, tandis que les composants ne se "rapprochent" que d'un facteur racine de 2.

    Citation Envoyé par DR I Voir le message
    Je me suis mal exprimé pour le design.
    Ce que je voulais dire c'est que technologiquement parlant on a bien évolué, mais le design en lui même a savoir la "forme" n'a pas trop évolué, de un à plusieurs coeurs qui sont plus ou moins identiques.

    Je serais bien tenté de donner un exemple d'archi mais j'ai peur que ça fasse débat. :D
    Attention, hurlements, 3, 2, 1…

  8. #8
    Citation Envoyé par Møgluglu Voir le message
    Tu vas faire hurler des gens ici avec des affirmations comme ça.
    Tu veux plutot dire que les microarchitectures donnent l'impression de ne plus evoluer mais que bizarrement le nombre de transistors consacre aux coeurs continue a s'accroitre mais que que ceux-ci sont certainement la pour faire de la decoration...

    On peut prendre l'approche inverse et dire que rien n'a ete invente en architecture depuis l'IBM S360 du milieu des annees 1960 (superscalaire, caches, ordonnancement dynamique...).

    C'est une question de perspective. La microarchitecture d'un processeur qui sort en 2010 en evolution d'une archi de par exemple 2006 contient plus de differences qu'une architecture faite a partir de 0 du milieu des annees 1990. L'essentiel du monde ne le sait pas car ne serait ce que donner des noms aux ameliorations correspondrait a reveler des secrets aux concurrents... (et ca s'applique a tous les acteurs de l'industrie que je connaisse)

    Je me plaits a repeter que l'architecture des core Intel actuel est la meme que celle du P6. C'est vrai si tu regardes d'assez loin, si tu regardes de suffisament pres, a frequence egale le PPRO et un core iX actuel sont differents d'un facteure >>2 en performance et ce n'est pas par magie mais par changements microarchitecturels.

    Donc on peut avoir a la fois l'impression qu'il n'y a aucune evolution de microarchitecture, et que cette evolution soit si importante et complexe que l'equipe d'architecture qui gerait un projet comme le PPRO (a partir de 0) faisait 6 personnes, alors qu'une equipe d'architecture actuelle a plus de 50 architectes (et en 15 ans ils ne sont pas tous devenus nuls ).

    ---------- Post ajouté à 02h27 ----------

    Citation Envoyé par Alexko Voir le message
    Si je ne suis pas trop bourré — ça devrait aller, je n'ai bu que du jus d'orange ce soir — c'est l'inverse : le routage devient de plus en plus problématique. Ce que Møgluglu dit, c'est que depuis le "début" de l'informatique, le coût de la logique a baissé quadratiquement, tandis que les composants ne se "rapprochent" que d'un facteur racine de 2.



    Attention, hurlements, 3, 2, 1…
    A chaque nouveau process, tes interconnections scalent d'un facteur 0.75x (les IO externes c'est plus proche de 0.9x) alors que ta logique scale d'un facteur 0.75*0.75x . La relation n'est pas quadratique vs racine, mais je pense que c'est ce que tu essayais de dire .
    Dernière modification par fefe ; 02/08/2010 à 06h01.
    fefe - Dillon Y'Bon

  9. #9
    Je ne fais que répéter ce que dit Møgluglu ! Faut dire qu'avec un pseudo pareil, il fallait s'y attendre…

    En fait ce serait plutôt exponentiel vs géométrique, non ?

  10. #10
    Citation Envoyé par Alexko Voir le message
    En fait ce serait plutôt exponentiel vs géométrique, non ?
    C'est pas la même chose, exponentiel et géométrique?
    En fait les 2 sont exponentiels, mais d'exposant différent. Oui, je me suis mal exprimé : à chaque génération, relativement aux longueurs des fils, la densité des transistors évolue au carré. (Ou pas, et c'est moi qui suis bourré à 9h du matin.)

    Dans la pratique ce n'est pas à ce point-là, mais ce n'est pas linéaire. C'est la loi de Rent :
    http://en.wikipedia.org/wiki/Rent%27s_rule

    Et mon pseudo il t... non rien.

  11. #11
    Tu veux plutot dire que les microarchitectures donnent l'impression de ne plus evoluer mais que bizarrement le nombre de transistors consacre aux coeurs continue a s'accroitre mais que que ceux-ci sont certainement la pour faire de la decoration...

    On peut prendre l'approche inverse et dire que rien n'a ete invente en architecture depuis l'IBM S360 du milieu des annees 1960 (superscalaire, caches, ordonnancement dynamique...).

    C'est une question de perspective. La microarchitecture d'un processeur qui sort en 2010 en evolution d'une archi de par exemple 2006 contient plus de differences qu'une architecture faite a partir de 0 du milieu des annees 1990. L'essentiel du monde ne le sait pas car ne serait ce que donner des noms aux ameliorations correspondrait a reveler des secrets aux concurrents... (et ca s'applique a tous les acteurs de l'industrie que je connaisse)

    Je me plaits a repeter que l'architecture des core Intel actuel est la meme que celle du P6. C'est vrai si tu regardes d'assez loin, si tu regardes de suffisament pres, a frequence egale le PPRO et un core iX actuel sont differents d'un facteure >>2 en performance et ce n'est pas par magie mais par changements microarchitecturels.

    Donc on peut avoir a la fois l'impression qu'il n'y a aucune evolution de microarchitecture, et que cette evolution soit si importante et complexe que l'equipe d'architecture qui gerait un projet comme le PPRO (a partir de 0) faisait 6 personnes, alors qu'une equipe d'architecture actuelle a plus de 50 architectes (et en 15 ans ils ne sont pas tous devenus nuls ).
    Exactement, je voulais parlais du design sans être à la loupe, forcement, le fait de mettre des caches, de faire que les transistors soit placés de tel manière et plus comme avant sont des avant significative dans la micro-architecture des procs, mais au final, c'est comme pour une voiture, certe on rajoute des technologies propres qui fait que la génération précédente est moins puissante mais c'est toujours les mêmes ingrédients utilisés.

    Tu faisais l'analogie avec le P6 (Pentium D??) et effectivement si on regarde, le "cablage" de la logique à changé, les microcode aussi surement, ils ont augmenté le cache, changé le "cablage" de l'ordonanceur etc, mais meme si ce sont des changements important et notable (oui parce que effectivement les archis intel c'est pas des boeufs) ces architectures ne sont pas radicalement différentes, la preuve, les chaines de construction sont plus ou moins identique.

    Si je ne suis pas trop bourré — ça devrait aller, je n'ai bu que du jus d'orange ce soir — c'est l'inverse : le routage devient de plus en plus problématique. Ce que Møgluglu dit, c'est que depuis le "début" de l'informatique, le coût de la logique a baissé quadratiquement, tandis que les composants ne se "rapprochent" que d'un facteur racine de 2.
    Ah non mais j'ai pas dit que le cout de l'espace à combler était pas à prendre en compte, mais simplement que justement, l'interconnexion est une des technos qui à le plus de solutions déjà existantes ou quasiment.
    Et que donc par définition, l'interconnect n'était plus autant cher, car la R&D sur la technos des FB par exemple commence à être éprouvé.

    Alors que sur la logique, il faut qu'ils cravachent durent afin de sortir un truc plus puissant et qui consomme moins et qui sera plus petit etc.

  12. #12
    Si vous avez un moment à perdre, je vous conseille toujours de voir la vidéo de "Things CPU Architects Need To Think About" disponible sur http://www.stanford.edu/class/ee380/ C'est l'un des architectes du P6 qui fait une présentation et d'un point de vue culture générale ça entre assez bien dans cette discussion. Bon, ça date déjà de 2004 mais ça reste sympa.

    Note: pensez à l'Atom en regardant la vidéo, c'est presque prémonitoire.
    Dernière modification par Minuteman ; 02/08/2010 à 12h58.
    "La vaseline, c'est un truc que j'utilise systématiquement" - vf1000f24

  13. #13
    Citation Envoyé par DR I Voir le message
    Exactement, je voulais parlais du design sans être à la loupe, forcement, le fait de mettre des caches, de faire que les transistors soit placés de tel manière et plus comme avant sont des avant significative dans la micro-architecture des procs, mais au final, c'est comme pour une voiture, certe on rajoute des technologies propres qui fait que la génération précédente est moins puissante mais c'est toujours les mêmes ingrédients utilisés.
    Excepté que des constructeurs qui font des voitures 50% plus puissante chaque année depuis 25 ans, y'en a pas beaucoup (ou alors ils sont partis de très bas ).

    Le fait que les performances augmentent sans que les changements ne soient visibles est bien ce qu'il peut arriver de mieux. C'est quand on se retrouve obligé de casser l'abstraction et repenser les couches logicielles et système que ça montre qu'on est dans la merde.
    Et c'est précisément ce qui se passe aujourd'hui. Avec la multiplication des coeurs, par exemple.

    P6=Pentium Pro, Pentium II et assimilés.

    la preuve, les chaines de construction sont plus ou moins identique.
    Là, c'est une autre partie du forum que tu vas faire hurler.


    Ah non mais j'ai pas dit que le cout de l'espace à combler était pas à prendre en compte, mais simplement que justement, l'interconnexion est une des technos qui à le plus de solutions déjà existantes ou quasiment.
    Et que donc par définition, l'interconnect n'était plus autant cher, car la R&D sur la technos des FB par exemple commence à être éprouvé.
    Je dirais que si on parle autant de la R&D dans ce domaine, c'est justoment parce qu'on bloque dessus, et qu'il faut chercher des nouvelles idées parce que ce qu'on savait faire jusqu'ici ne marche plus...
    Alors que la loi de Moore, c'est considéré comme acquis, qu'on ait 2 fois plus de transistors tous les ~18 mois depuis 40 ans... (ça ne veut pas dire que c'est facile, mais au moins c'est possible)

  14. #14
    Les chaines de productions identiques ? A part l'utilisation du polysilicone et de la lumiere a travers des masques pour tracer les pistes et transistors dans avec un conducteur, il y a des changements dramatiques quasiment tous les 2 ans. Tes commentaires laissent plus transparaitre une meconaissance du domaine qu'autre chose.

    Les materiaux employes ont change tres recement par exemple (dielectrique, metaux), le nombre d'etapes necessaire a la production d'un waffer continue d'augmenter. Crois moi, si c'etait juste la meme chose en projetant un masque plus fin, ils ne changeraient pas la taille de 0.75x tous les 2 ans, ils auraient saute directement au transistor le plus petit possible... La complexite implique des couts de production aussi exponentiels.

    Encore une fois on peut avoir l'illusion que ca ne change pas parce que le principe fondamental (transistor CMOS) lui n'a pas change, mais les lois de la physique non plus... L'absence de revolutions ne veut pas dire absence de changements.

    ---------- Post ajouté à 17h46 ----------

    Citation Envoyé par Møgluglu Voir le message
    Alors que la loi de Moore, c'est considéré comme acquis, qu'on ait 2 fois plus de transistors tous les ~18 mois depuis 40 ans... (ça ne veut pas dire que c'est facile, mais au moins c'est possible)
    La loi de Moore n'a rien d'une loi physique, c'est plus le fait que l'acteur le plus avance de l'industrie dans ce domaine suit cette cadence qui fait qu'elle est respectee qu'autre chose. Au debut c'etait une observation empirique, ensuite c'est devenu une philosophie .

    L'analogie ne marche pas parce que ces 2 industries n'en sont pas a une phase comparable de leur developpement mais si on voulait vraiment faire la comparaison entre l'automobile et les semiconducteurs, on transformerait probablement 1 an semiconducteur en 5 ans automobiles (au risque de faire hurler Neo). On pourrait aussi arriver a la conclusion que les voitures n'ont pas change en 100 ans: 4 roues, un volant, un frein , un accelerateur et un embrayage, un moteur a explosion et une boite de vitesse...

    Au final la plupart des sites web publiant sur le sujet de l'architecture peut definitivement donner l'impression d'une stagnation, mais je pense que c'est plus une incapacite des editeurs a assimiler la complexite actuelle des choses (et le fait que ces infos sont souvent jalousement gardees comme des secrets) que le fait qu'elles ne changent plus...
    Dernière modification par fefe ; 02/08/2010 à 18h57.
    fefe - Dillon Y'Bon

  15. #15
    OK je vois ce que vous voulez dire.

    Concernant la forme en elle même des CPUs pourquoi ne pas créer un CPU en 3D?

  16. #16
    Parce qu'un CPU est deja en 3D . La 3 eme dimension est d'une complexite moindre que les 2 autres, mais tu as effectivement plusieurs niveaux/couches (on va dire de 6 a 15 suivant le type de chip, generalement moins de 10 dans les CPUs). Qui plus est tu peux entasser les dies, ce qui se fait beaucoup dans l'embarque (en general ils empilent la memoire sur le CPU). Au final la 3 eme dimension est surtout utilisee pour le routage d'informations, mais regarder une coupe de CPU te permettra de verifier que c'est deja en 3D (une recherche rapide sur google m'a amene la: http://poli.cs.vsb.cz/edu/arp/down/v...yroba-cpu.html )
    fefe - Dillon Y'Bon

  17. #17
    J'ose à peine imaginer les outils de placement/routage avec des transistors sur plein de couches, déjà qu'ils ont du mal en 2D

    Certains proposent de stacker un coeur avec de la RAM, là c'est déjà beaucoup plus facile.

    Et sinon, oui, le routage est un énorme problème.

  18. #18
    Dans le cadre de CPU "puissants" il y a aussi tut simplement le problème de la dissipation thermique qui t'empêche de stacker beaucoup.
    "La vaseline, c'est un truc que j'utilise systématiquement" - vf1000f24

  19. #19
    Citation Envoyé par fefe Voir le message
    Parce qu'un CPU est deja en 3D . La 3 eme dimension est d'une complexite moindre que les 2 autres, mais tu as effectivement plusieurs niveaux/couches (on va dire de 6 a 15 suivant le type de chip, generalement moins de 10 dans les CPUs). Qui plus est tu peux entasser les dies, ce qui se fait beaucoup dans l'embarque (en general ils empilent la memoire sur le CPU). Au final la 3 eme dimension est surtout utilisee pour le routage d'informations, mais regarder une coupe de CPU te permettra de verifier que c'est deja en 3D (une recherche rapide sur google m'a amene la: http://poli.cs.vsb.cz/edu/arp/down/v...yroba-cpu.html )

    Merci, mais j'avais déja vue ce reportage d'intel.

    Non mais je pensais pas à des piles, je pensais plus à un cube par exemple.
    Bah oui je me doute bien que c'est difficile, vue la miniaturisation du truc ça doit être carrément tendu à placer.

    Bon en tous cas, de ce que je viens de comprendre au travers de vos commentaires, c'est que finalement le problème ce situe moins dans la puissance hardware que dans la façon de concevoir les logiciels qui sont peut être en retard sur le hardware??

    Mauvaise, ou bien difficultés à concevoir des programmes qui vont utiliser à bon escients le parallélisme des procs (peut-être aussi que tout n'est pas parallélisable aussi.).

  20. #20
    Citation Envoyé par newbie06 Voir le message
    J'ose à peine imaginer les outils de placement/routage avec des transistors sur plein de couches, déjà qu'ils ont du mal en 2D

    Certains proposent de stacker un coeur avec de la RAM, là c'est déjà beaucoup plus facile.

    Et sinon, oui, le routage est un énorme problème.
    Attend encore un peu, et tu verras des transistors en 3D .

    Sinon faire un cube ne serait pas particulierement interressant etant donne que beaucoup d'objets destines a accueillir ces CPUs cherchent a etre fins . Bien entendu tu peux empiler plus de couches qu'aujourd'hui sans atteindre les limites de finesse imposees par ces boites, mais tu t'en approches deja dangereusement dans certains produits actuels...

    Le die stacking de RAM est par exemple present dans le A4 de Apple present sur le dernier iPhone et l'iPad.
    fefe - Dillon Y'Bon

  21. #21
    Citation Envoyé par DR I Voir le message
    Bon en tous cas, de ce que je viens de comprendre au travers de vos commentaires, c'est que finalement le problème ce situe moins dans la puissance hardware que dans la façon de concevoir les logiciels qui sont peut être en retard sur le hardware??

    Mauvaise, ou bien difficultés à concevoir des programmes qui vont utiliser à bon escients le parallélisme des procs (peut-être aussi que tout n'est pas parallélisable aussi.).
    Rejeter la faute entiere au software serait aussi une erreur, mais effectivement le retard du soft a plus d'impact aujourd'hui que par le passe. Les cycles de developpement deja tres longs (3-5 ans) des CPUs actuels restent plus courts que ceux des systemes d'exploitation comme windows, et du meme ordre que des outils compliques comme ceux d'Adobe. Il est donc de fait tres difficile d'avoir le soft en adequation avec le hard a un instant donne a moins de developper les 2 conjointement (ce qui n'arrive que rarement). Le resultat est que le soft a du mal a exploiter correctement le hard, et le hard a du mal a fournir les bonnes interfaces au soft pour se faire.

    A tout cela tu ajoutes la formation des programmeurs, qui est en generale calque sur des donnees anciennes (ce que le professeur connait de l'existant, suivant le professeur le retard sera compris entre quelques annees et 30 ans), et les contraintes de developpement de produits logiciels, pour lesquels la performance est rarement une priorite.
    Donc on a des programmeurs formes a programmer sur des architectures antiques et a qui on ne demande pas de penser a la performance. Je ne sais pas si on peut rejeter la faute sur qui que ce soit, mais c'est un etat de fait.
    fefe - Dillon Y'Bon

  22. #22
    Bien, recentrons un peu le sujet du coup.

    Ou en est ont à l'heure actuel question optronique? y'a pas trop d'infos qui circulent à l'heure actuel concernant d'éventuelles avancées sérieuses.

    Ne serait il pas intéressant de créer un groupe afin de créer ou du moins de prototyper, un "CPU" de façon différente?
    Un genre de groupe de réflexion en quelques sortent.

  23. #23
    Les recherches pour employer des systemes optroniques pour les IO off-chip progressent et feront probablement leur premieres apparitions vers le milieu de cette decennie vu le rythme auquel les IO classique scalent et le rythme auquel l'integration optronique avance. Ca ne sera pas une revolution dans le sens ou cela permettra juste de continuer a faire des increments a un cout raisonable. La possibilite de reduire le nombre de pins sortant de chips de plus en plus denses est ce qui permettra a cette techno de devenir mainstream. En pratique ce ne sera pas une nouvelle maniere de penser le systeme, juste une solution incrementale a des problemes de plus en plus difficiles.

    Quant-au tout optique, je n'ai aucune visibilite la dedans, donc a part dire que je ne vois rien venir ni vraiment l'interet, je ne peux pas dire grand chose .
    Dernière modification par fefe ; 03/08/2010 à 04h08.
    fefe - Dillon Y'Bon

  24. #24
    Ok, merci pour les infos.
    Quand tu parle d'I/O off-chip, tu parles bien des canaux de com?

    Ce qu'on avait vue avec Geo lors de la NDH au sujet de la lumière c'est que finalement l'électricité était quasiment aussi rapide, sauf que le mode de déplacement fait que ça induit des dégagements de chaleurs et autres contraintes qui s'alourdissent avec la miniaturisation.

    L'avantage de l'optronique c'est qu'il supprime quelques "points de chaleur" mais en contre partie il induit des concepts plus complexe que ceux actuellement à la base des CPUs (Transistor, deux etats, 0 ou 1) car avec la "lumiere" ou plutot l'etude des photons, ils (les chercheurs) seraient potentiellement capable de créer des machines non plus binaires mais à multi-etat.

    Autant je comprend assez bien le principe du binaire en chaine afin de retranscrire des informations, autant le coup du multi-etat, je vois pas trop l'intérêt et surtout comment s'en servir?

  25. #25
    Pour cette histoire de multi-état, si j'ai tout compris, on en revient à des principes qui sont déjà utilisés dans le wifi N: sur une plage de fréquence, on peut avoir plusieurs signaux en parallèle (chacun dans son slot fréquentiel), ce qui au final revient à avoir un signal multi fréquences qui contient plusieurs bits d'information à chaque instant T.

    En wifi, pour séparer les différents signaux, tu passes par des filtres électroniques passifs ou actifs, mais assez complexes.

    L'avantage, c'est qu'en optique on dispose d'outils passifs pour démoduler et combiner plusieurs signaux. Les prismes, les réseaux, les interféromètres, ....

    De plus, la longueur d'onde est bien plus faible qu'en HF "classique", ce qui signifie que tes dispositifs d'interférence peuvent être réduits à une taille minuscule:

    longueur d'onde wifi (2,4GHz) : 12.5 cm
    longueur d'onde visible: entre 1200 et 400 nm
    La compote?

  26. #26
    Citation Envoyé par fefe Voir le message
    Le die stacking de RAM est par exemple present dans le A4 de Apple present sur le dernier iPhone et l'iPad.
    Rien a voir avec ce que j'avais en tete. On ne sait pas faire mieux que ca http://www.ifixit.com/Misc/iphone_pr...rossection.jpg ?

  27. #27
    Citation Envoyé par newbie06 Voir le message
    Rien a voir avec ce que j'avais en tete. On ne sait pas faire mieux que ca http://www.ifixit.com/Misc/iphone_pr...rossection.jpg ?
    Je ne sais pas si on sait faire mieux, mais en tout cas dans le monde des CPUs a haut power (ou haute perf) on ne fait meme pas ca... Pas encore de die stacking en mass production chez AMD/IBM/Intel a ma connaissance.
    fefe - Dillon Y'Bon

  28. #28
    Citation Envoyé par Gui13 Voir le message
    Pour cette histoire de multi-état, si j'ai tout compris, on en revient à des principes qui sont déjà utilisés dans le wifi N: sur une plage de fréquence, on peut avoir plusieurs signaux en parallèle (chacun dans son slot fréquentiel), ce qui au final revient à avoir un signal multi fréquences qui contient plusieurs bits d'information à chaque instant T.

    En wifi, pour séparer les différents signaux, tu passes par des filtres électroniques passifs ou actifs, mais assez complexes.

    L'avantage, c'est qu'en optique on dispose d'outils passifs pour démoduler et combiner plusieurs signaux. Les prismes, les réseaux, les interféromètres, ....

    De plus, la longueur d'onde est bien plus faible qu'en HF "classique", ce qui signifie que tes dispositifs d'interférence peuvent être réduits à une taille minuscule:

    longueur d'onde wifi (2,4GHz) : 12.5 cm
    longueur d'onde visible: entre 1200 et 400 nm
    Ok ça confirme ce que je pensais, c'est pas vraiment comme les Ordis quantiques.
    Ici on a bien plusieurs canaux émis en même temps et pas un seul élément à plusieurs états.

    Bien autre point, en optronique on fait des saisie de données à l'instant T c'est bien on sait donc faire des calculs etc, par contre, quid du stockage d'information en optronique?

    On ne sait pas stocker la lumière, donc comment on fait? on fait intervenir un élément biologique? (comme pour certaines leds)?

  29. #29
    Citation Envoyé par DR I Voir le message
    la preuve, les chaines de construction sont plus ou moins identique.
    D'ailleurs, les usines automobiles sont plus ou moins identiques à celles du début du 19e siècle... (avant l'invention du moteur quoi, parce que que ce soit la forge, la fonderie ou l'usinage, tout existait.

    Pour le reste, les transistors optiques, c'est de la pignole pour geek et lecteur de science et vie junior depuis 20ans.

    L'interco through bulk pour l'inter bloc, ça par contre, c'est la classe.

    Et le multi état, ben au lieu de 2^N, tu fait 3^N pour du 3 états, 4^N pour 4 états, etc.

    Et celui qui voit la lumière à 1200nm a de bons yeux.
    Mes propos n'engagent personne, même pas moi.

  30. #30
    Oui plutot 300-700nm pour le visible , 1200nm c'est de l'infra rouge pas proche.
    fefe - Dillon Y'Bon

Règles de messages

  • Vous ne pouvez pas créer de nouvelles discussions
  • Vous ne pouvez pas envoyer des réponses
  • Vous ne pouvez pas envoyer des pièces jointes
  • Vous ne pouvez pas modifier vos messages
  •