PrécédentSommaire

Extrême limite

Selon la loi de Moore, les performances des circuits numériques doublent tous les 18 mois. Cela vient d'une réduction de la taille des transistors qui les composent, permettant à la fois un plus grand nombre de composants par puce et une fréquence de fonctionnement plus élevée. En 1995, quelqu'un estimait qu'en 2020 un seul ordinateur serait aussi puissant que tous ceux de la région parisienne au moment où il l'écrivait. Mais il est impossible que cela continue indéfiniment car des limites seront inévitablement atteintes.

Il y en a qui sont dues à la thermodynamique : au-dessus du zéro absolu les atomes du circuit sont agités et cela produit un bruit de fond électrique. Les tensions de fonctionnement des transistors doivent être suffisamment grandes par rapport à ce bruit pour ne pas être confondues avec lui. Il y a aussi les limites de la physique quantique : plus l'échelle est réduite et moins les phénomènes quantiques sont négligeables, comme l'effet tunnel qui finira par causer des fuites de courant entre des éléments qui devraient être isolés. Il est nécessaire d'y ajouter les limites technologiques : pour changer la taille il faut modifier des paramètres de fabrication des transistors (jusqu'où ?) et si le nombre d'atomes qui les composent diminue trop il ne sera plus possible de fabriquer des puces en série avec un taux de réussite viable (comme il faut tenir compte d'une répartition statistique de certains atomes un grand nombre est un avantage).

Donc il y aura un moment où l'évolution sera stoppée dans cette voie. Mais avant de passer à des techniques radicalement différentes - on parle d'éventuels ordinateurs quantiques où chaque élément traiterait bien plus que l'information 0 ou 1 manipulée par nos machines - il y aura peut-être une période où ce progrès aura une autre forme. Avec une densité fixe, la solution pourrait être de modifier complètement l'architecture pour augmenter malgré tout les performances. Pourquoi celle de Von Neumann s'est-elle maintenue depuis les balbutiements de l'informatique ? Parce qu'elle était maîtrisée dès l'origine et que tant qu'il sera possible d'avancer en la conservant, les gros investissements nécessaires à différents niveaux pour passer à tout autre chose seront jugés être mieux utilisés pour travailler à son amélioration. Comme on ignore la forme que prendront ces futurs processeurs on ne peut pas prévoir l'impact que cela aura aussi bien sur la conception des systèmes que sur la programmation et les langages employés. Mais il est probable que cette mutation devra avoir lieu.