Bonjour à tous,
Je voulais parler un peu de l'optronique, qui semble traverser une période de fébrilité depuis quelques années. Déjà envisagée avant l'informatique quantique, l'informatique "optique" semble sur le point de devenir une réalité.
Je suis pas mal les news du site futurascience, et j'avais déjà vu en labo quand j'étais étudiant quelques guides d'ondes qui passaient des centaines de gigahertz sur du silicium.
Du coup, j'ai bien envie de savoir si vous avez quelques informations sur l'optronique, qui semble être la solution pour relancer la loi de Moore.
L'optronique consiste à augmenter la fréquence des signaux dans le processeur (ou sur les bus de données, dans un premier temps) pour passer dans le domaine de la lumière (qui commence aux alentours de 3THz).
Avantages:
- la fréquence de commutation (plusieurs THz),
- le spectre optique qui permet une bande passante bien plus élevée (on parle de plusieurs Tb/s) et surtout (mais pour beaucoup plus tard),
- un nouveau paradigme de calcul non plus binaire, mais basé sur des réseaux d'interférences. Et là ca claque très fort, puisqu'on ne stocke plus 1 bit binaire par fil, mais une "couleur" du spectre qui en contient [mettre ici un nombre énorme]. Ca signifie aussi que les opérations basiques (addition, multiplication, ...) n'ont plus besoin de plusieurs portes logiques ET/OU, mais simplement d'un modulateur optique qui va additionner les deux spectres qui lui arrivent.
Les gros défis qui se posent pour le moment sont les suivants (d'après ce que j'ai pu lire):
- dans un premier temps, l'objectif n'est pas de réaliser des calculs avec la lumière; IBM et Intel semblent songer à utiliser les guides d'ondes pour transmettre des informations d'un point à un autre (entre deux coeurs sur une puce, entre le processeur et le chipset,...). Il parait qu'ils ont tous les deux sorti de leurs labos des micro-commutateurs optiques qui relèguent les transistors au rang de jouet: news IBM et news Intel. Le problème est que ca consomme encore beaucoup et que c'est encore trop gros. Au final, l'objectif c'est d'accélérer les capacités des bus internes de la machine pour limiter les latences entre les caches. Ca donnera déjà un énorme coup de fouet!
- la suite, c'est le calcul purement optique. Là c'est un énorme travail qui semble toujours en cours. Comme pour l'informatique quantique, il faut revoir tout un tas de paradigmes, puisque le calcul ne se fera plus sur du binaire mais sur des longueurs d'ondes. Une startup Israelienne propose déjà un DSP qui se base là dessus, avec un guide d'onde qui et c'est assez impressionnant : 5eme page du PDF ici, ils indiquent dans leur tableau que certaines opérations sont accélérées 100 000 fois.
Une autre citation du PDF:
Le problème, c'est qu'ils sont obligés d'utiliser autant de lasers que de données qu'ils veulent transporter. C'est un des défis à réaliser; Intel semble se pencher dessus aussi.The optical core of the EnLight256 is comprised of lasers, detectors, optical modulators and Lenses. In a single clock period (8nsec) it can multiply a 256-byte vector by a 256 x 256 byte Matrix. This sums-up to 256x256x125x106= 8x10^12 MAC operations per second.
Si vous avez des commentaires, des infos, des idées, n'hésitez pas!
De la doc:
http://en.wikipedia.org/wiki/Optical_computer