Un pronostic vérifié depuis 50 ans
La première loi formulée en 1965 par Gordon Earle Moore, co-fondateur d’Intel, prédit la croissance du nombre de composants (transistors, résistances et condensateurs) présents sur un circuit micro-électronique selon un doublement annuel. En 1975, avec des données plus nombreuses, le diagnostic de Moore fut : une croissance exponentielle, avec doublement tous les deux ans. C’est un résultat empirique obtenu avec du papier logarithmique, qui tient depuis 50 ans, ce qui est exceptionnel dans l’histoire des prévisions techniques. Peter J. Denning et Ted G. Lewis, dans un numéro récent des Communications of the ACM [1] (CACM), reprennent les données qui sous-tendent cette loi et d’autres moins connues, explorent d’autres modèles statistiques, et examinent les conséquences que l’on peut en déduire.
Fin des lois de Moore ?
Du doublement de la densité des circuits électroniques on infère souvent, un peu trop vite mais en gros c’est vrai, le doublement des performances des ordinateurs qui les utilisent. En fait c’est surtout vrai depuis que les unités centrales de calcul (CPU) des ordinateurs tiennent sur un seul circuit, le microprocesseur, soit le milieu des années 1980 pour les petits ordinateurs et le milieu des années 1990 pour tous les ordinateurs. Aujourd’hui (2017) la densité est telle qu’il y a plusieurs (8, 16, 32...) unités centrales (cores) par circuit, plus pas mal de mémoire. Mentionnons aussi le recours aux cartes graphiques, qui sont en fait de petits calculateurs vectoriels SIMD (Single Instruction Multiple Data) pas très rapides mais capables d’appliquer simultanément une même opération à un grand nombre de variables, ce qui a de nombreuses applications, pour le calcul scientifique mais pas seulement, et qui procure ainsi d’excellentes performances finales.
Dans un autre article des CACM [2], Samuel Greengard observe qu’avec la miniaturisation des composants vient l’augmentation de la fréquence, qui elle-même entraîne l’augmentation de la dissipation thermique. Au-delà de 150 W/cm2 il faut envisager des procédés de refroidissement coûteux, par eau comme dans les années 1960, et peut-être un jour avec l’azote liquide. Aux alentours de 1980 on parlait des jonctions Josephson et du recours à la supraconductivité au voisinage du zéro absolu, cette idée revient périodiquement et finira peut-être par s’imposer. En attendant, les fabricants sont convenus d’arrêter la course à la fréquence aux alentours de 3,7 GHz. La géométrie des composants, caractérisée par la longueur de la grille du transistor, est aujourd’hui (2017) à 10nm en production et à 7nm pour les prototypes.
Robert Dennard d’IBM a proposé en 1974 une méthode pour réduire la taille des transistors en maintenant constante la densité de puissance, qui est la dissipation thermique par unité de surface. La densité de puissance est proportionnelle à la vitesse de commutation et au nombre de transistors par unité de surface. Réduire la taille des transistors permet d’augmenter la fréquence d’horloge parce que les portes logiques commutent plus vite et que les fils qui les relient sont plus courts, ce qui serait de nature à augmenter la dissipation thermique, mais cet effet est compensé par la diminution de la tension.
La technique contrainte par l’économie
Lors de la mise en production d’une nouvelle gamme caractérisée par une géométrie plus fine, il faut savoir que non seulement il a fallu construire une nouvelle usine avec un parc de nouvelles machines bien plus chères que celles de la génération précédente (cf. article sur l’usine de Crolles), mais au début plus de 80 % de la production va directement à la poubelle tant il faut du temps pour obtenir les bons réglages. Ce qui nous amène aux aspects économiques de cette industrie, parce qu’ils sont indissociables des aspects techniques : non seulement les investissements sont considérables, mais ils représentent la majeure partie de la mise de fonds, et ils sont pour l’essentiel réalisés avant d’avoir vendu un seul exemplaire de circuit. Dans ces conditions le droit à l’erreur n’existe pas, c’est la dure loi de ce que l’Institut de l’Iconomie a nommé, justement, iconomie, et que j’ai décrit sous le nom de Révolution cyberindustrielle. Cette révolution industrielle place l’économie sous le régime de la concurrence monopolistique.
Gordon Moore a mentionné une autre loi, moins connue que celle qui porte son nom et due à Arthur Rock [3] : le coût de l’usine qui permet de fabriquer les microprocesseurs de dernière génération double approximativement tous les quatre ans, du fait principalement de la complexité de plus en plus grande des procédés photo-lithographiques déployés (cf. encore article sur l’usine de Crolles, avec quelques illustrations). Il en découle que le volume du marché de la nouvelle génération, à prix égal, doit être au moins le double de celui de la précédente, juste pour financer les nouvelles unités de production.
Les lois de Moore et de Rock édictent des croissances exponentielles, qui semblent bien ne pas pouvoir tenir éternellement. Peter J. Denning et Ted G. Lewis envisagent d’autres modèles, et notamment les lois logistiques, utilisées par les biologistes pour modéliser la croissance d’une population qui finit par occuper tout le territoire à sa disposition, ainsi que par les spécialistes de marketing pour représenter la croissance d’un marché qui finit par saturer la clientèle potentielle. La loi logistique croît comme une loi exponentielle jusqu’à un point d’inflexion au-delà duquel elle adopte un modeste profil logarithmique, voire stationnaire. On pourrait à ce propos penser aussi à la théorie des populations stationnaires de Lotka. Ces réflexions sont d’autant plus pertinentes qu’elles associent à l’étude purement technologique celle des phénomènes économiques et sociaux dont l’évolution technique est inséparable. Les graphiques qui illustrent l’article sont accessibles en ligne ici.
Accélérer les procédés actuels
Peter J. Denning et Ted G. Lewis envisagent les procédés de nature à accélérer les processeurs réalisés selon les technologies existantes. Il est possible de s’affranchir de l’asservissement des opérations des ordinateurs actuels à une fréquence d’horloge qui scande les calculs : les tentatives en ce sens sont déjà anciennes mais n’ont pas connu de succès (cf. un article de ce site consacré à la question des horloges).
Faire travailler plusieurs processeurs en parallèle pour effectuer plus vite une tâche donnée est une voie largement empruntée, selon une grande variété de procédés techniques, et avec beaucoup de succès depuis des décennies. Les lois d’Amdahl et de Gustafson permettent de calculer les gains de vitesse que l’on peut espérer de ces procédés. J’ai regroupé dans un article à part les considérations un peu plus techniques relatives à ces sujets.
Kurzweil avant le transhumanisme
Peter J. Denning et Ted G. Lewis nous rappellent les travaux de Ray Kurzweil avant qu’il ne sombre dans le délire transhumaniste [4] ; dans son livre de 1999 The Age of Spiritual Machines celui-ci avait retracé l’histoire du traitement de l’information autour de cinq technologies qui avaient marqué les étapes de sa croissance exponentielle : la carte perforée et les machines électro-mécaniques (perforatrice, tabulatrice, etc.) ; le relais qui permet de faire la même chose mais beaucoup plus vite et plus simplement ; le tube à vide qui inaugure l’électronique ; le transistor qui permet de faire la même chose mais beaucoup plus vite et plus simplement ; le circuit intégré qui annonce le microprocesseur, la révolution cyberindustrielle et l’avènement de l’iconomie.