La capitalisation boursière d’une entreprise prédit son avenir
La presse généraliste découvre ces jours-ci l’ascension spectaculaire du spécialiste des circuits électroniques d’affichage graphique et d’intelligence artificielle Nvidia. En fait c’est au troisième trimestre 2021 qu’apparaît dans le classement des dix premières capitalisations mondiales Nvidia, qui n’est quand même pas tout à fait un nouveau venu. Notons qu’Intel, fabricant de microprocesseurs et d’autres types de circuits, en est sorti en 2004, et que sa capitalisation est aujourd’hui de 180 milliards de dollars, soit 7,5% de celle de Nvidia.
Nvidia ne fabrique rien, il conçoit des circuits et des cartes graphiques, en y ajoutant d’ailleurs des processeurs dont la conception est licenciée auprès du concepteur ARM. En 2020 Nvidia a voulu acheter ARM, très complémentaire de sa propre activité, pour 40 milliards de dollars, mais les autorités anti-trust américaines y ont fait obstacle. La capitalisation boursière d’ARM est aujourd’hui de 137 milliards de dollars.
On pourra objecter que la capitalisation boursière n’est qu’une opinion, alors que le chiffre d’affaires est un fait ; mais le second est un fait d’aujourd’hui, et la première une opinion sur l’avenir, collective de surcroît : le Nobel d’économie Jean Tirole estime que la capitalisation boursière d’une entreprise donne une prédiction de sa performance à moyen terme meilleure que son chiffre d’affaires [1].
Voici la table des capitalisations boursières des premières entreprises mondiales (List of public corporations by market capitalization). On observera que les quatre cinquièmes d’entre elles relèvent de la filière électronique-informatique (j’y inclus évidemment Tesla) :
en milliards de dollars | |
Apple | 2 944 |
Microsoft | 2 796 |
Alphabet | 1 764 |
Amazon | 1 570 |
Nvidia | 1 223 |
Meta | 909 |
Tesla | 790 |
Berkshire Hathaway | 784 |
Eli Lilly | 553 |
TSMC | 539 |
Le classement par chiffres d’affaires est bien sûr différent, et la filière électronique-informatique y est moins dominante, mais puisque Jean Tirole a donné son avis, je crois pouvoir le suivre.
À compter de sa fondation par l’immigré taïwanais Jen-Hsun (maintenant Jensen) Huang à Santa Clara en 1993 les activités de Nvidia dans le domaine des composants graphiques se sont développées avec beaucoup de succès, mais comment s’explique l’essor explosif des deux ou trois dernières années ?
Une convergence technique inattendue
Pour comprendre ce succès extraordinaire et inattendu il faut se reporter douze ans en arrière et nous transporter dans un domaine a priori complètement étranger au monde graphique : l’intelligence artificielle, et plus précisément sa branche connexioniste, qui utilise des systèmes à base de réseaux de neurones. Depuis 2010 existe une compétition mondiale de reconnaissance d’images, ImageNet. En 2012 une équipe écrase tous ses concurrents : celle de Geoffrey Hinton et de ses étudiants de l’Université de Toronto. Yann Le Cun raconte : « Leur secret ? Un réseau convolutif de grande taille inspiré de ceux que j’avais conçus, programmé pour tourner sur un GPU (Graphics Processing Unit, processeur graphique), une carte destinée aux rendus graphiques, très efficace pour faire tourner les réseaux convolutifs. C’est la ruée. L’année suivante, tous les candidats ont adopté la nouvelle méthode. La révolution est en marche. Grâce à des processeurs graphiques plus puissants et des logiciels open source qui facilitent la recherche, les réseaux convolutifs révolutionnent la vision par ordinateur. » En 2018 Yann Le Cun, Yoshua Bengio et Geoffrey Hinton recevront le Prix Turing pour cette avancée décisive. Tout cela est résumé dans mon compte-rendu du livre de Yann Le Cun.
Les GPU sont destinés à traiter des problèmes graphiques, et ils se révèlent très efficaces pour faire fonctionner les réseaux convolutifs, inspirés de travaux sur la vision des mammifères. Ce n’est pas une simple coïncidence : l’affichage d’une image sur un écran d’ordinateur est constitué de pixels minuscules, et il est hautement probable que deux pixels adjacents correspondent à une même zone de l’objet dont l’image est affichée, ou du moins au même objet ; de ce fait ces deux pixels seront probablement soumis au même traitement informatique, par exemple au même déplacement sur l’écran. L’organisation matérielle adaptée à ce type de traitement est dite Single instruction multiple data (SIMD), et elle est présente dans la plupart des GPU. Et comme on vient de le voir, il en va de même pour les réseaux convolutifs, inspirés du cortex visuel.
D’autre part, les unités arithmétiques des processeurs généralistes utilisent des nombres entiers de 32 ou 64 chiffres binaires (bits) : les traitements graphiques n’ont pas besoin d’une telle précision, 8 ou à la rigueur 16 bits suffisent à définir un pixel en niveaux de gris, à multiplier par 3 pour la couleur. De même les entrées et les sorties des neurones artificiels sont des entiers ou des nombres fractionnaires de peu de chiffres binaires. Mais il faut en traiter beaucoup en parallèle, ce qui demande beaucoup de processeurs pas forcément très rapides et pas forcément très précis, mais nombreux donc, cependant que le reste du traitement est assuré par des unités multiprocesseurs classiques (chez Nvidia elles seront de conception ARM, d’où la complémentarité entre les deux entreprises), et l’ensemble organisé de telle façon que la circulation des données entre les différentes unités soit la plus rapide possible.
On discute beaucoup des meilleurs moyens d’interconnecter cette multitude de composants, il y a une grande effervescence technique dans le domaine, comme on le verra en lisant cet article qui donne des détails sur l’organisation physique des composants Nvidia.
Voici d’autre part un graphe de l’évolution des revenus de Nvidia, par catégorie de produit, un article sur l’explosion des architectures de calcul, et un autre sur la situation de monopole d’ASML.
Une parfaite illustration de la concurrence monopolistique
Les médias généralistes proclament que Nvidia serait en train de terrasser Intel, naguère leader mondial du microprocesseur. La vérité est un peu plus compliquée, Intel et Nvidia ne sont pas exactement sur le même terrain, et entre les deux il y a ARM, sans oublier TSMC qui fabrique pour Nvidia.
Mais c’est cela la concurrence monopolistique : en gros jusqu’en 2007 Intel dominait sans partage le marché des microprocesseurs, ses produits animaient les ordinateurs personnels et portables comme les serveurs, avec une concurrence épisodique et bien contrôlée (par de multiples procès) d’AMD. À partir de 2007 l’invention de l’iPhone, immédiatement suivi des smartphones Android, a déclenché l’essor des microprocesseurs d’architecture ARM, plus petits, moins gourmands en énergie, essentiellement fabriqués par Samsung et par TSMC ; très vite ARM aura le monopole des téléphones et des tablettes. Et à la fin de 2022 arrive ChatGPT, qui lance Nvidia (accompagné d’ARM) dans la course. On voit que chaque nouvel entrant réussit à s’imposer parce qu’il ouvre un nouveau marché, dont son prédécesseur n’avait même pas soupçonné l’existence : les microprocesseurs se sont diversifiés en variétés différentes qui se taillent chacune un monopole temporaire sur un segment des besoins ; les entreprises anciennes, trop sûres d’elles et devenues peu innovantes, sont en danger d’être expulsées du marché. C’est un exemple parfait de la concurrence monopolistique.
Que va faire Intel ?
Intel est vraiment en difficulté. Minée par des années de gestion « au service de l’actionnaire » jusqu’en 2021, la firme a pris un retard technologique considérable, s’est retirée de marchés prometteurs et a persisté sur des voies sans débouchés. Le marché des ordinateurs personnels pour les particuliers est menacé par les performances sans cesse accrues des smartphones. Celui des ordinateurs de bureau stagne. Quant aux serveurs, de plus en plus souvent ils sont équipés de processeurs d’architecture... ARM : en effet sur un serveur on n’a en général pas besoin de faire tourner logiciels de jeu ou de traitement de texte, et de plus en plus souvent on utilise Linux plutôt que Windows. Alors les grands opérateurs du Cloud, Amazon, Google, Microsoft, s’orientent de plus en plus vers des Systems on a Chip (Soc) d’architecture ARM.
Alors, comme jadis pour sauver General Motors en pleine débandade, comme hier pour sortir Boeing du ravin du 737 MAX, le gouvernement américain met la main à la poche, à hauteur de 8,5 milliards de dollars, pour renflouer Intel. Cela ne suffira pas, il faudra y revenir, mais ce n’est pas grave : ce sont les Européens et les Asiatiques qui paieront, en achetant des bons du Trésor américain.