Site WWW de Laurent Bloch
Slogan du site

ISSN 2271-3905
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets moins techniques.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

La filière informatique
Le point de la situation
Article mis en ligne le 21 mai 2018
dernière modification le 27 mars 2021

par Laurent Bloch

Cet article a été élaboré dans le cadre de l’Institut de l’Iconomie et du Blog binaire de Monde, il est publié ici avec l’accord des éditeurs. Il propose une suite et une actualisation de certaines données de mon livre paru aux éditions Economica, Révolution cyber-industrielle en France.

*Panorama de l’industrie informatique

L’essor de l’informatique a déclenché une révolution industrielle qui modifie en profondeur la société et l’économie. La France, surtout par ses élites dirigeantes, y avance de mauvaise grâce, et à divers degrés il en va de même de l’Europe, ce qui risque de causer son déclin, alors qu’elle a tous les atouts en main pour y réussir. L’article ci-dessous, écrit pour le Blog Binaire du Monde et remanié en mars 2021, dresse un tableau de cette industrie, qui se propose de convaincre le lecteur de l’urgence de s’y intéresser et surtout d’agir en conséquence.

* La filière informatique

** La filière micro-électronique et informatique

Pour comprendre le fonctionnement d’un secteur économique il peut être utile de raisonner en termes de filière :

 pour produire un service ou une application informatique il faut avoir produit auparavant des logiciels et des ordinateurs ;
 pour que ces logiciels fonctionnent sur ces ordinateurs il faut avoir produit auparavant un système d’exploitation ;
 pour construire les ordinateurs il faut avoir fabriqué auparavant des composants électroniques ;
 pour fabriquer des microprocesseurs il faut disposer de logiciels de conception spécialisés, de très haute complexité ;
 par ailleurs l’industrie microélectronique repose sur des matériels de photolithographie et d’optique ;
 enfin au début de la filière il faut extraire du silicium de qualité adéquate et le préparer sous la forme convenable.

Prendre cette séquence depuis le début (extraction et conditionnement du silicium), puis suivre son parcours à travers ses étapes successives, c’est décrire la filière.

Une fois la filière caractérisée, on peut identifier les points où se crée le maximum de valeur ajoutée. Ce sont aussi ceux qui coûtent le plus cher en investissements, où se manifeste la plus forte intensité capitalistique. C’est important du point de vue de la politique économique, parce que détenir des capacités de production dans ces domaines est un facteur essentiel d’indépendance économique et donc de souveraineté. Ce point a été bien expliqué par le rapport de la sénatrice de la Seine Maritime Catherine Morin-Desailly, rendu en 2013, mais il n’en a malheureusement guère été tenu compte.

Le système technique contemporain (cf. Bertrand Gille, Histoire des techniques, Gallimard, 1978) s’appuie sur les techniques de l’informatique (micro-électronique, logiciel, Internet) : la mécanique, la chimie et l’énergie, sur lesquelles s’appuyait le système technique antérieur, n’ont pas disparu mais elles se sont informatisées et progressent principalement, ainsi que la biologie, grâce à leur informatisation. Les futurs vainqueurs de la compétition économique sont les pays dont la classe dirigeante possède une intuition exacte de ce phénomène : c’est aujourd’hui un des points forts de la Chine.

Aujourd’hui la chaîne de valeur de la filière micro-électronique - informatique peut être schématisée ainsi :

Les hauteurs relatives des colonnes du graphe ci-dessus sont des approximations déduites de sources diverses sur les secteurs économiques considérés, notamment des rapports annuels aux actionnaires des principales entreprises concernées.

Nous allons examiner maintenant les points cruciaux de cette filière. Nous omettrons la fabrication de barreaux de silicium monocristallins, non que ce soit simple ni dépourvu d’intérêt, mais un peu éloigné de notre propos.

Cependant, en préambule, il faut souligner le caractère spécifique de cette industrie, identifié par l’Institut de l’iconomie et Michel Volle ; ses coûts fixes, nous allons le voir, sont considérables, ses coûts marginaux voisins de zéro : « le coût marginal d’un logiciel est pratiquement nul : une fois écrit, on peut le reproduire des millions de fois, sans coût supplémentaire significatif, par téléchargement ou impression de disques. [...] Le coût marginal d’un composant microélectronique, processeur ou mémoire, est lui aussi pratiquement nul. [...] Le transport d’un octet ou d’un document supplémentaire ne coûte pratiquement rien sur l’Internet » (Michel Volle). Les conséquences de cette fonction de production sont drastiques : sur chaque segment de ce marché se développe « une concurrence monopolistique extrêmement violente, chaque entreprise luttant pour conquérir et conserver une position de monopole temporaire (qui peut durer quelques années ou dizaines d’années) ».

** Fabrication de microprocesseurs

Les ordinateurs actuels, les téléphones mobiles, tablettes et autres objets connectés, ainsi que les automobiles, machines à laver, matériels de cuisine, avions, enceintes acoustiques, etc., sont équipés de microprocesseurs, c’est-à-dire de composants électroniques qui réunissent sur une seule puce (chip) tous les circuits constitutifs d’un ordinateur, ainsi éventuellement que des circuits auxiliaires, par exemple pour un téléphone un émetteur-récepteur radio, des circuit WiFi, Bluetooth, photo et vidéo, etc. (on parle alors de System on Chip, ou SoC) Une telle puce mesure au maximum deux ou trois centimètres carrés, et dans ce cas elle comportera des milliards de transistors, mais pour des usages plus banals elle sera nettement plus petite, et son prix de vente par quantités pourra alors tomber en dessous de cinq euros.

Une famille de microprocesseurs est caractérisée par son architecture, c’est-à-dire son jeu d’instructions. Il existe actuellement cinq architectures principales sur le marché :

 Intel x86, qui équipe la quasi totalité des ordinateurs ;
 ARM, qui équipe la quasi totalité des téléphones mobiles, objets
connectés et matériels embarqués ;
 IBM Power qui équipe certains ordinateurs IBM ;
 IBM z/Architecture qui équipe les ordinateurs IBM z/Series, héritiers de la gamme IBM 360 ;
 RISC-V, une architecture libre et ouverte, disponible sans royalties, qui se propose d’être au matériel ce que les logiciels libres sont au logiciel.

La fabrication de microprocesseurs est le secteur de la filière informatique qui nécessite les investissements les plus lourds, plusieurs dizaines de milliards d’euros pour une usine à la pointe de la technique.

** La fabrication des ordinateurs

La complexité des ordinateurs contemporains réside entièrement dans leur microprocesseur et dans leurs logiciels. Leur fabrication est une opération d’assemblage entièrement automatisée : la fabrication d’un ordinateur chez le constructeur Dell prend moins de trois minutes. Ce sont donc des objets bon marché et à faible valeur ajoutée, Les seuls problèmes à résoudre sont la chaîne d’approvisionnement, la logistique, la politique d’achats et la distribution (sans oublier quand même que placer tous les composants d’un ordinateur portable dans un boîtier léger, robuste et élégant n’est pas si facile que cela).

** Les système d’exploitation

Le système d’exploitation présente à l’utilisateur une vision simplifiée et compréhensible du fonctionnement de l’ordinateur. Il fournit également une interface standardisée avec les logiciels d’application et commande les interactions avec les équipements périphériques et le réseau. Sans lui l’ordinateur ne serait qu’un tas de ferraille et de plastique inutilisable.

Le système d’exploitation est après le microprocesseur l’étape la plus capitalistique de la filière informatique. Écrire un système d’exploitation complet de A à Z, ce que personne n’a fait depuis longtemps, emploierait 1000 à 2000 ingénieurs pendant six à sept ans, si l’on extrapole à partir des expériences du passé et des réalisations partielles contemporaines. Les réalisations contemporaines sont partielles parce qu’elles partent d’une base existante, soit propriété historique de la firme (cas de Microsoft et d’IBM), soit logiciel libre disponible sans frais dérivé de systèmes Unix/Linux (cas d’Apple et de Google).

Hormis quelques systèmes très spécialisés ou résiduels et ceux qui sont des logiciels libres (Linux, OpenBSD, FreeBSD, NetBSD), il n’existe que quatre fournisseurs de systèmes d’exploitation :

 IBM avec z/OS, dérivé de l’OS/360 annoncé en 1964 ;
 Microsoft avec Windows, dont la version initiale a été publiée en 1996 ;
 Apple avec iOS et macOS nés en 1998 sur un noyau Unix BSD ;
 Google avec Android lancé en 2007 et basé sur un noyau Linux.

En nombre de systèmes installés Google est d’assez loin le leader mondial, puisqu’Android équipe plus de 80 % des smartphones et effectue les deux tiers des accès au Web. Ici encore l’Europe est pratiquement absente.

** Réseau, informatique en nuages, centres de données

Le déploiement du réseau physique sur lequel repose l’Internet nécessite des investissements considérables. L’essentiel des communications à longue distance repose sur des faisceaux de fibres optiques transocéaniques, construits hier par des consortiums d’opérateurs et d’industriels, aujourd’hui de plus en plus souvent par des plates-formes comme Google ou Amazon. Le prix d’un tel faisceau peut approcher le milliard de dollars.

C’est un des rares domaines où la France occupe encore une position de premier plan. L’enjeu du moment est le déploiement de réseaux sans fil 5G, indispensables pour les objets connectés, et là aussi les sommes engagées se comptent en milliards. Mais l’économie de l’Internet est un sujet en soi que nous ne développerons pas davantage ici.

* L’informatique, première industrie mondiale

** Le poids de l’informatique

La dépense mondiale 2019 en informatique est estimée par le cabinet Gartner à plus de 4200 milliards de dollars, en y incluant les services de télécommunications, à peu près totalement informatisés depuis plus d’une décennie, ainsi que l’industrie des semi-conducteurs (source : Semiconductors Industry Association) dont les débouchés principaux sont les matériels informatiques et de télécommunications :

Systèmes de centres de données 205
Logiciels d’entreprise 456
Matériels (ordinateurs, autres) 682
Services informatiques 1030
Services de communication 1364
Semi-conducteurs 481
Total 4218

Le cabinet IDC, qui calcule différemment, prévoit 4100 milliards en 2020.

Bien sûr 2020 va être une mauvaise année à cause de l’épidémie Covid-19, pour ces secteurs comme pour l’ensemble de l’économie. Avant cette crise mondiale le taux de croissance annuel de l’industrie informatique était de l’ordre de 7 %.

À titre de comparaison, le chiffre d’affaires de l’industrie automobile mondiale est de l’ordre de 2500 milliards de dollars, selon les définitions adoptées et les enquêtes effectuées. Mais ce qui est certain, c’est la baisse de chiffre d’affaires de l’industrie automobile dans son ensemble en 2018 et en 2019, baisse qui s’accentuera fortement en 2020.

Toujours pour donner des points de repère, ce chiffre est supérieur au PIB de la France (2925 milliards de dollars en 2018), lui-même voisin de celui du continent africain.

** Effort de recherche et développement

Acquérir une position significative et la conserver dans cet univers de technologies complexes issues de la recherche scientifique la plus avancée exige des efforts de recherche et développement soutenus. Voici la hiérarchie des entreprises de ce point de vue (en 2018 et en milliards de dollars, source : Nick Skillicorn).

Ce tableau des dépenses de recherche et développement d’aujourd’hui donne une idée de la puissance relative des différents secteurs aujourd’hui et encore plus demain.

Amazon 28,8
Alphabet (Google) 16,2
Volkswagen 15,8
Samsung 15,3
Microsoft 14,7
Huawei 13,6
Intel 13,1
Apple 11,6
Roche 10,8
Johnson & Johnson 10,6
Daimler 10,4
Merck US 10,2
Toyota 10,0
Novartis 8,5
Ford 8,0
Facebook 7,8
Pfizer 7,7
BMW 7,3
General Motors 7,3
Robert Bosch 7,1
Honda 7,1
Sanofi 6,6
Bayer 6,2
Siemens 6,1
Oracle 6,1

Nota Bene : avec 841 millions d’euros en R&D en 2018 Orange est classée au 225ème rang.

L’Europe a déserté la filière informatique - micro-électronique, qui commande l’avenir, pour se focaliser sur des applications (« intelligence artificielle », « cloud souverain », « usages », etc.), ignorant que le succès et la compétitivité dans les applications dépendent de la maîtrise des technologies fondamentales qui sont leur principale ressource. Elle ne reste guère aux premiers rangs que dans l’automobile, fleuron de l’industrie du passé en déclin rapide.

* Industrie des semi-conducteurs

Le monde numérisé d’aujourd’hui repose sur la science et la technologie informatiques. Pour faire de l’informatique il faut des ordinateurs. Les ordinateurs d’aujourd’hui sont des objets bon marché à faible valeur ajoutée, la fabrication d’un ordinateur chez le constructeur Dell prend trois minutes. Les entreprises qui en utilisent beaucoup (de l’ordre de deux millions chez Google, de l’ordre de 400 000 chez le français OVH) les assemblent elles-mêmes.

La valeur ajoutée se concentre en deux produits : le microprocesseur et le système d’exploitation.

Vouloir être une puissance dans le monde numérique sans capacité de production de microprocesseurs et de système d’exploitation, c’est comme vouloir être une puissance maritime sans chantiers navals : être à la merci de ceux qui voudront bien vous les vendre au prix qu’ils décideront. Être une colonie du monde numérique.

L’Europe en général, et la France en particulier, disposent de capacités dont les instances politiques ont peu conscience et et dont elles mesurent mal l’importance.

** Le marché mondial des semi-conducteurs

En 2018 le marché mondial des semi-conducteurs a représenté 480 milliards de dollars, dont 47 % pour l’[industrie américaine]. Si on se limite aux produits de pointe, c’est-à-dire les microprocesseurs de géométrie inférieure à 28 nm [1], la production est concentrée dans six entreprises qui ont des usines dans six pays (données 2019) :

(milliards $) CA Effectif Processus date annoncée
Intel 66 107 100 10 nm  ?
7 nm 2021
GlobalFoundries 5,5 16 000 14 nm en production
TSMC 36 47 000 5 nm en production
UMC 4,1 12 000 14 nm en production
STMicroelectronics 9,7 45 500 28 nm en production
Samsung 73 5 nm en production

On notera dans ce tableau l’absence du Japon, qui a dominé le marché à la fin des années 1980 et au début des années 1990, et de la Chine, qui supporte les conséquences des restrictions à l’exportation des matériels de fabrication des semi-conducteurs (cf. ci-dessous, mais le projet récent du taïwanais TSMC de construire une usine en Chine continentale pourrait bouleverser le marché). Global Foundries est issu de la branche fabrication d’AMD, et a été racheté par le fonds souverain émirati Mubadala (Abu Dhabi), ce qui fait de STMicroelectronics le dernier acteur européen du domaine.

Le gouvernement chinois a décidé en 2016 d’investir 140 milliards de dollars dans le développement de son industrie des semi-conducteurs. Nul doute qu’un tel effort porte des fruits, et lorsque la Chine aura accès à la technologie de pointe STMicroelectronics devra adapter sa stratégie à cette nouvelle situation.

À la fin de 2020 Huawei a annoncé les moyens qu’il envisageait pour contourner l’embargo sur les technologies micro-électroniques que le gouvernement américain imposait à ses entreprises et aux entreprises d’autres pays en relations commerciales ou techniques avec des entreprises américaines : ces annonces ont permis de savoir que les industriels chinois étaient à cette date capables de produire des microprocesseurs de géométrie 40 nm, et très bientôt 28 nm. On ignore avec quel taux de réussite, parce que, lors de son lancement, une chaîne de production de tels circuits a encore besoin de nombreux réglages, ce qui entraîne un taux de déchets qui peut atteindre 90 %, ou pour employer le jargon du métier un taux de yield de 10 %, ce pourquoi les circuits récents coûtent très cher.

** Conception micro-électronique assistée par ordinateur

Un microprocesseur moderne comporte plusieurs milliards de transistors sur deux ou trois centimètres carrés, il est impensable de concevoir son organisation géométrique et électrique « à la main ». Ont donc été conçus pour ce faire des langages de description de circuits (VHDL, Verilog) et des logiciels de conception assistée par ordinateur.

Les principales (et à peu près seules) entreprises de CAO électronique sont les américains Synopsys (acquéreur du taïwanais SpringSoft, à eux deux 3,3 milliards de dollars de chiffre d’affaires et 13 000 employés), Cadence (2,3 milliards, 7600 employés) et Mentor Graphics (acquis par Siemens, 1,3 milliard, 6000 employés).

Ces systèmes de CAO sont très onéreux, sans parler du temps d’ingénieur passé à les mettre en œuvre. À part le japonais Zuken, beaucoup plus petit, et quelques laboratoires de recherche, ces trois entreprises sont en situation d’oligopole. Elles opèrent sur un marché de niche assez étroit mais hautement stratégique : sans elles pas d’informatique, donc pas d’Internet, adieu Facebook, Twitter, Google et Amazon.

** Équipements de fabrication de semi-conducteurs

L’industrie des équipements de fabrication des semi-conducteurs comporte deux sous-secteurs : la fabrication des matériaux et des appareils auxiliaires, et la fabrication proprement dite des semi-conducteurs. Ce dernier sous-secteur est encore plus concentrée que l’industrie des semi-conducteurs, pour le haut de gamme en pratique trois fournisseurs se partagent le marché : le néerlandais ASML qui en détient les deux tiers, les japonais Nikon et Canon.

La technique de base de fabrication d’un microprocesseur est la photo-lithographie, qui consiste à dessiner littéralement au moyen d’un faisceau de rayons ultra-violets les transistors du circuit sur une tranche de silicium traitée chimiquement. Les opérations successives sont analogues à celles de l’exposition et du développement d’une pellicule de photo argentique. Comme une géométrie de 14 nm et inférieure est nettement en dessous de la limite de la longueur d’onde de la lumière (ultra-violette en l’occurrence), les masques sont à grande échelle, réduits par des procédés optiques, puis en jouant finement sur le phénomène de réfraction des rayons lumineux dans l’eau, ce qui nécessite des réglages délicats.

Un processeur contemporain comporte de l’ordre de trente couches de circuits superposées (une couche de transistors et des couches d’interconnexion), ce qui amène à renouveler trente fois l’opération de photo-lithographie, pour un total final de deux à trois milliards de transistors sur une surface de 2 cm2. Le niveau technologique de la fabrication est qualifié par la finesse du dessin, représentée conventionnellement par la longueur de la grille du transistor. En 2020, les fabrications de pointe ont une géométrie de 5 nm.

La conception de tels dessins est effectuée au moyen de logiciels spécialisés, très onéreux et pratiquement tous d’origine américaine (cf. ci-dessus).

Les matériels de photo-lithographie, nommés scanners, coûtent plusieurs dizaines de millions d’euros l’unité, 250 millions d’euros pour les matériels les plus récents (5 nm), il n’y a que trois industriels qui en produisent (ASML, Canon, Nikon), et il faut savoir que le néerlandais ASML détient 67 % du marché mondial de ces équipements stratégiques. La partie la plus délicate du scanner est une optique de haute précision, les objectifs pèsent plusieurs centaines de kilos et coûtent plusieurs millions d’euros, il n’y a que trois fournisseurs : l’allemand Zeiss, Canon et Nikon. Tous ces matériels sont considérés comme hautement stratégiques et soumis à des restrictions d’exportation, mais le taïwanais TSMC a obtenu l’accord de son gouvernement pour construire en Chine continentale une usine de technologie à tranches de 300 mm et à géométrie de 16 nm.

Pour une unité de production de circuits à 20 ou 30 couches, afin d’assurer un fonctionnement correct de la chaîne de fabrication, il faut autant scanners, pour un coût de l’ordre du milliard d’euros. Ces matériels doivent fonctionner en salle blanche, sur pilotis anti-sismiques de 40 m de profondeur pour éliminer les vibrations. La dernière usine Samsung a coûté 14 milliards de dollars. Nous recommandons la visite de l’usine STMicroelectronics de Crolles.

En 2021 la Chine et les États-Unis ne produisent pas de scanners.

** Matériaux et appareils auxiliaires

L’industrie des matériaux et appareils auxiliaires (ce que les économistes nomment les intrants) pour la fabrication des semi-conducteurs comporte essentiellement les produits suivantes :

 les cristaux de silicium et leur découpage en tranches (wafers) de 20, 30 et désormais 40 cm de diamètre ;
 traitement des tranches de silicium ;
 les masques de photo-lithographie.

Ce sont des fabrications de haute précision qui font appel à des techniques de pointe, néanmoins la valeur ajoutée de ce sous-secteur est sans commune mesure avec celle des équipements de fabrication des semi-conducteurs proprement dits.

Les clients de ce sous-secteur sont soit l’industrie des équipements de fabrication des semi-conducteurs, soit directement l’industrie des semi-conducteurs.

** Wafers, test et conditionnement

Il convient de mentionner trois entreprises américaines qui fournissent des machines qui interviennent dans la production des tranches (wafers) de silicium destinées à l’implantation des processeurs : Applied Materials, LAM Research et KLA Corporation.

Ces entreprises interviennent également pour effectuer les tests en sortie de chaîne de production et pour le conditionnement (packaging) des circuits avant livraison au client.

Ces opérations peuvent sembler moins prestigieuses que la gravure des circuits, mais elles n’en mettent pas moins en œuvre des procédés de grande complexité et difficiles à maîtriser.

** La fabrication des microprocesseurs

La fabrication des circuits électroniques (à l’exception de certains circuits destinés à l’électronique de puissance), et plus particulièrement des microprocesseurs, repose sur un procédé de photolithographie : le circuit, qui pour les processeurs à la pointe de la technique, comporte des milliards de transistors dont la grille ne mesure pas plus de 5 nm, est dessiné sur un masque, à plus grande échelle pour rester dans les longueurs d’onde de l’ultra-violet. Ce masque est introduit dans un scanner, et il va servir à projeter cette image réduite sur la tranche de silicium (wafer) pour constituer le circuit, comme le développement d’un négatif de photo argentique fait apparaître sur un papier sensible une image en noir et blanc. Une tranche de silicium de 30 cm de diamètre peut porter 640 circuits d’un centimètre carré.

Un microprocesseur comporte en général une couche de transistors, sur les autres couches sont implantés les circuits métalliques d’interconnexion.

Un scanner coûte plusieurs dizaines de millions d’euros, voire 250 millions d’euros pour la technologie 5 nm, la plus en pointe en 2020. Un microprocesseur est un sandwich d’une trentaine de couches : il faut donc quelques dizaines de scanners pour une chaîne de production. Ces matériels doivent fonctionner dans une salle blanche munie de dispositifs antisismiques, parce que la moindre vibration serait fatale à la production en cours.

La construction d’une usine de microprocesseurs modernes coûte plus de dix milliards de dollars, et son fonctionnement en régime permanent demande la présence de plusieurs milliers d’ingénieurs et techniciens. La mise au point d’un procédé de fabrication et le réglage des machines demande du temps et de la qualification et ce n’est qu’au bout de plusieurs années que la fabrication atteint un taux de réussite (yield) proche de 100 %.

*** La mise de départ

L’effort pour la conception d’un nouveau microprocesseur se compte en six ou sept années, mille à deux mille ingénieurs, et quinze à vingt milliards de dollars pour la construction de l’usine, investissement qui sera à renouveler pour la gamme suivante.

Plusieurs approches sont possibles pour produire des microprocesseurs. On peut en concevoir les plans (à l’aide des logiciels de CAO mentionnés ci-dessus), construire des usines, fabriquer et vendre : il n’y a plus guère qu’Intel pour assurer ainsi la totalité de la chaîne de production.

L’entreprise britannique ARM, achetée en 2020 par l’entreprise américaine de cartes graphiques Nvidia (achat actuellement contesté devant les tribunaux et les autorités de régulation), s’adonne exclusivement à la conception de microprocesseurs, dont elle concède l’exploitation des plans (électroniques) à des entreprises licenciées, telles que Samsung, Qualcomm, Apple, Nvidia (qui a préféré acheter le tout !) ou le franco-italien STMicro. L’architecture ARM est la plus répandue dans le monde parce que cette entreprise a le monopole des processeurs pour téléphones mobiles, tablettes et autres objets connectés.

Le perfectionnement d’un procédé de fabrication micro-électronique dépend de sa miniaturisation, mesurée par la longueur de la grille d’un transistor. À ce jour TSMC, le leader mondial (35 milliards de dollars), et Samsung sont les seuls à produire en géométrie 5 nm (nanomètres), Intel tente de produire en 10 nm. Suivent trois entreprises qui ont abandonné la course à la miniaturisation mais continuent à alimenter le marché en produits plus rustiques : Global Foundries, STMicro, UMC. STMicro produit en 28 nm, les récentes annonces de Huawei ont confirmé que l’industrie chinoise n’avait pas franchi la barrière des 45 nm, mais qu’elle devrait produire en 28 nm dès 2021.

Mentionnons aussi les entreprises qui ne fabriquent que des mémoires ou des circuits spécialisés, plus simples que les microprocesseurs mais dont le marché est en plein essor, : Hynix, Micron, Texas Instruments.

*** Questions de propriété intellectuelle

Qualcomm, Nvidia, Broadcom sont des entreprises sans usines : elles ne fabriquent rien mais déposent des brevets importants et conçoivent et vendent les circuits qui sont dans tous nos téléphones et tous nos ordinateurs. Qualcomm, très bien placée sur le marché des circuits pour téléphones mobiles, ne fabrique rien [2]. Elle achète à ARM la licence de ses processeurs, conçoit le plan d’un SoC (System on Chip) qui comporte plusieurs processeurs et circuits annexes (mémoire, audio, vidéo, etc.) dont elle confie la fabrication à une fonderie de silicium, qui possède une usine. Une fonderie peut concevoir ses propres circuits, comme le fait Samsung, ou ne faire que fabriquer des circuits, comme le leader mondial taïwanais TSMC.

L’informatique mondiale dépend donc de trois ou quatre entreprises et de moins de dix usines. Par exemple, le dernier modèle d’iPhone fonctionne grâce à un SoC (System on Chip) conçu par Apple autour d’un processeur conçu par ARM, et fabriqué par TSMC à Taïwan, le tout assemblé en Chine continentale. La Chine n’est pas (encore) en mesure de fabriquer des microprocesseurs à l’état de l’art et les États-Unis sont en perte de vitesse.

*** Un cas particulier : les matériels à usage militaire et aérospatial

Les processeurs à usage militaire et aérospatial doivent résister à des rayonnements cosmiques ou d’origine nucléaire, ce qui exclut les géométries trop fines mais exige des blindages spéciaux. La France possédait des capacités dans ce domaine, avec Altis Semiconductors, mais cette entreprise a disparu, ce qui laisse l’industrie aérospatiale et militaire européenne sous la dépendance de fournisseurs américains, pour lesquels les licences d’exportation conformes à la législation américaine ITAR (International Traffic in Arms Regulations) sont de plus en plus difficiles à obtenir.

L’industrie micro-électronique est un secteur d’intensité capitalistique considérable, hautement stratégique, et à peu près déserté par la France et par l’Europe. Il existe une exception : STMicro, dont les usines dans la région de Grenoble font travailler plus de 30 000 personnes.

** La chaîne de valeur des semi-conducteurs

*** Les points stratégiques de l’industrie micro-électronique

Résumons les étapes les plus stratégiques de la chaîne de valeur des semi-conducteurs :

 conception de circuits : pour une architecture de microprocesseur entièrement nouvelle, compter 1000 ingénieurs pendant 7 à 10 ans ; cette activité repose presque uniquement sur la compétence des ingénieurs, des chercheurs et des techniciens ;

 fabrication des composants des matériels de photo-lithographie : la partie la plus délicate est l’optique ; un objectif coûte plusieurs millions d’euros, sa fabrication recourt à des procédés très pointus ;

 fabrication des matériels de photo-lithographie : autour des objectifs il faut une mécanique de haute précision et des logiciels complexes ; un scanner pour géométrie de 14 nm coûte plusieurs dizaines de millions d’euros, pour du 5 nm compter 250 millions d’euros pièce ;

 fabrication des microprocesseurs : une usine où la précision demandée aux machines est de l’ordre du nanomètre doit être exempte de la moindre micro-poussière (une simple bactérie sous le masque de photo-lithographie fait tout échouer), de la moindre vibration, de la moindre variation de température ; les usines de ce type sont construites sur pilotis anti-sismiques, avec un système de climatisation et de filtrage de l’air de la hauteur d’un immeuble de dix étages.

Nous allons examiner comment se situent l’Union européenne et la France sur ces quatre points.

*** Positions européennes et françaises dans la filière micro-électronique

Le meilleur acteur européen dans ce domaine est le britannique ARM, qui a doublement quitté l’Europe du fait de son rachat en 2016 par le fonds japonais SoftBank (pour 31 milliards de dollars), puis en 2020 par le spécialiste américain des cartes graphiques Nvidia, et de la sortie du Royaume Uni de l’UE. Il n’y a pas d’autre entreprise comparable en Europe, mais quand même des clusters de compétences non négligeables, notamment dans l’agglomération grenobloise autour de STMicroelectronics, du LETI (Laboratoire d’électronique et de technologie de l’information rattaché au CEA), de laboratoires rattachés à l’université ou au CNRS, et des entreprises plus petites et plus spécialisées qui collaborent à leurs activités.

Outre l’usine STMicroelectronics de Crolles il convient de citer le néerlandais NXP, issu de Philips, qui a racheté l’activité microélectronique de Motorola et qui produit notamment des circuits pour le marché automobile et des transports en général. Siemens maintient également une activité dans ce domaine, et a racheté Mentor Graphics, éditeur de logiciels de conception de circuits.

Signalons également l’activité de Bull (groupe Atos) dans le domaine des supercalculateurs, qui n’est pas tout à fait le même domaine, mais qui nécessite des compétences assez voisines.

Des trois entreprises au monde qui fabriquent des optiques de photo-lithographie de classe 28 nm ou moins, une est européenne, l’allemand Zeiss.

Le cluster grenoblois est très actif dans le secteur des matériels annexes, qui sont aussi des fabrications de pointe, même si à valeur ajoutée moins grande : masques de photo-lithographie, wafers (tranches de silicium), traitement physico-chimique de surface, etc.

Des trois industriels significatifs de ce domaine, le leader mondial est le néerlandais ASML qui détient 67 % du marché mondial des scanners pour 11 milliards d’euros de chiffre d’affaires (à noter qu’Intel fabrique une partie des scanners qu’il installe dans ses usines, et qu’il possède 15 % du capital d’ASML).

Il y a deux usines de classe 28 nm ou moins sur le territoire de l’UE : à Dresde l’usine Global Foundries, propriété du fonds émirati ATIC, et l’usine STMicroelectronics de Crolles (entre Grenoble et Chambéry). Cette dernière est donc la seule unité de production pleinement européenne. Après une période difficile (le marché des semi-conducteurs est très volatil), STMicroelectronics semble sur la voie du redressement, mais pourrait faire l’objet d’une OPA.

***Microprocesseurs à usage militaire et aérospatial

Il convient de signaler le cas particulier des microprocesseurs à usage militaire et aérospatial, qui obéissent à des normes particulières, notamment pour ce qui concerne la résistance aux radiations (rayonnements cosmiques, nucléaires, etc.). Inutile d’insister sur l’intérêt d’une telle capacité en termes de souveraineté et de position stratégique. L’entreprise française Altis Semiconductors, dont le site de production principal était l’usine de Corbeil-Essonnes, rachetée en 2010 à IBM et Infineon, produisait de tels composants, mais n’a pas eu les moyens de suivre la course à la densité des composants et ses produits sont dans la gamme des wafers de 200 mm et des portes de 130 nanomètres, encore utiles pour des systèmes embarqués à bord de véhicules ou de machines mais périmés pour les systèmes de pointe. L’entreprise n’en possède pas moins de sérieux atouts sur des marchés spécialisés, tels que les cartes à puce, le contrôle industriel, les micro-contrôleurs embarqués à bord de véhicules automobiles ou ferroviaires, les produits à destination du grand public et, sans doute le plus intéressant, les composants pour le domaine militaire.

Ainsi que le signalait un numéro récent du site Intelligence Online, l’industrie militaire française dépend aujourd’hui, pour ses produits les plus avancés, de composants de conception américaine, pour lesquels les licences d’exportation conformes à la législation américaine International Traffic in Arms Regulation (ITAR) sont de plus en plus difficiles à obtenir, ce qui a failli remettre en cause certains contrats (les satellites Falcon Eye qu’Airbus Defence & Space et Thales Alenia Space ont vendus aux Émirats arabes unis en 2014). STMicroelectronics, qui détient les moyens de production nécessaires, se cantonne au domaine civil. Il n’aurait pas été déraisonnable d’imaginer que des investissements publics permettent à Altis, une entreprise qui a largement fait ses preuves mais qui est aujourd’hui en redressement judiciaire, de mettre son outil de production au niveau voulu pour les besoins des industries de défense et de l’aérospatial. Altis a finalement été rachetée par l’allemand X-Fab.

** Le point sur les positions européennes

Lorsque l’on examine les position européennes dans le domaine des industries microélectroniques et voisines, il apparaît que malgré quelques lacunes et faiblesses l’UE possède un potentiel non négligeable, qui pourrait être renforcé. Le principal obstacle à un tel développement semble résider dans le faible niveau de conscience des décideurs publics et privés, tant en ce qui concerne l’existence de ce potentiel que son caractère stratégique et la nécessité de le faire fructifier. À l’heure où le gouvernement chinois investit 140 milliards de dollars dans le développement de son industrie des semi-conducteurs, il serait catastrophique pour l’avenir des pays de l’UE d’abandonner la nôtre : de nombreux décideurs semblent croire que ce secteur peut être abandonné à l’Asie, or c’est là que réside le principal gisement de valeur de l’industrie d’aujourd’hui et de demain.

* Systèmes d’exploitation

** Fonction du système d’exploitation

Le système d’exploitation (Operating System en anglais, ou OS) est un logiciel destiné à présenter à l’utilisateur d’un ordinateur (utilisateur qui peut d’ailleurs être un autre programme) une vue simplifiée et stylisée de cet ordinateur ; cette vue simplifiée peut être vue comme une machine virtuelle. En effet, le système d’exploitation d’un ordinateur doit effectuer des opérations sur des disques durs, écrans, imprimantes et autres dispositifs matériels, dits périphériques, dont il existe une grande variété. Il est indispensable d’interposer une couche d’abstraction entre ces matériels et l’utilisateur : je peux recopier le texte de mon programme sur mon disque dur sans savoir combien celui-ci possède de pistes et combien il peut stocker de caractères par piste. Le système d’exploitation cache ces détails, qui n’ont aucun intérêt pour moi mais que l’ingénieur qui écrit le sous-programme chargé d’écrire sur le disque doit connaître (ce sous-programme se nomme un pilote d’appareil périphérique, en anglais driver). Incidemment, la prise réseau est un périphérique comme un autre.

De même, le système d’exploitation cache à l’utilisateur les méthodes grâce auxquelles il peut exécuter simultanément sur son ordinateur plusieurs logiciels : naviguer sur le Web, y copier des données pour les recopier dans la fenêtre du traitement de texte, imprimer un autre texte, etc.

Tous les autres programmes sont des sous-programmes du système d’exploitation.

** Complexité et taille du système d’exploitation

On mesure en général la taille d’un programme par le nombre de lignes qu’il comporte (lignes de code). Un programmeur peut écrire, en moyenne et en comptant le temps passé à la documentation de son programmes, aux réunions de projet, etc., entre 5 et 10 000 lignes de code par an, avec peut-être des pointes à 30 000 sur une courte période ; cela dépend de la complexité du projet, du nombre d’intervenants à coordonner, etc.

Un système d’exploitation tel que Windows compte 30 à 40 millions de lignes de code, ce qui a demandé au moins 3 000 années-homme et en fait beaucoup plus parce qu’un projet de cette taille nécessite une division du travail et donc des tâches de planification, coordination et réception des travaux. Le système d’exploitation est sans doute l’objet technique le plus complexe de notre époque.

De surcroît il doit évoluer en permanence. Chaque jour arrivent sur le marché de nouveaux matériels tels que les cartes graphiques, caméras, disques durs, mémoires Flash, qui nécessitent l’écriture de nouveaux pilotes. L’apparition de nouveaux virus et la découverte de nouvelles failles de sécurité obligent à corriger e système d’exploitation : sa maintenance exige une équipe importante.

** Marché des systèmes d’exploitation

Le marché mondial des systèmes d’exploitation commerciaux se répartit aujourd’hui entre trois fournisseurs : Microsoft avec Windows, Apple avec macOS et iOS, et Google avec Android, auxquels s’ajoutent quelques systèmes spécialisés qui occupent des niches minuscules.

À côté des systèmes commerciaux on trouve des systèmes distribués comme logiciels libres et qui obéissent à des règles de diffusion et de commercialisation différentes.

Le logiciel libre obéit à quatre règles :

 liberté d’utiliser le logiciel ;
 liberté de copier le logiciel ;
 liberté d’étudier le logiciel ;
 liberté de modifier le logiciel et de redistribuer les versions modifiées.

Le principal système d’exploitation libre est Linux mais il faut mentionner également les trois versions d’Unix BSD. macOS et iOS sont basés sur BSD pendant qu’Android utilise un noyau Linux : les systèmes commerciaux tirent ainsi parti du logiciel libre. Pour l’accès au réseau tous les systèmes ont repris les logiciels libres du protocole TCP/IP développés à Berkeley.

Les systèmes d’exploitation libres sont par contre très répandus dans les centres de calcul administrés par des professionnels : les 500 supercalculateurs les plus puissants au monde fonctionnent sous Linux. Le principal obstacle à la diffusion des systèmes d’exploitation libres dans le grand public est que lorsqu’un particulier achète un ordinateur celui-ci est déjà équipé d’un système commercial dont le remplacement par un autre système est une opération technique délicate.

** Opportunités pour l’Europe

L’Europe est aujourd’hui absente du marché des systèmes d’exploitation commerciaux, ce qui est grave parce que c’est un des deux principaux postes de création de valeur de la filière informatique (l’autre est celui des microprocesseurs). L’absence de l’Europe se traduit par la disparition des compétences correspondantes.

La meilleure possibilité de redresser cette situation réside dans le recours aux systèmes d’exploitation libres, pour lesquels subsistent des compétences européennes.

Utiliser ce levier de redressement passe par des politiques publiques : choix des logiciels libres dans les administrations et le système éducatif, encouragement aux développeurs, etc.

En France la Gendarmerie nationale est sur cette voie mais l’Éducation nationale et la Défense se sont inclinées devant Microsoft.

** Recommandations de politique

 Mise en place d’une task force européenne consacrée au logiciel libre, appuyée sur les ministères chargés de l’Éducation nationale, de l’Industrie et de l’Administration publique, avec pour mission le soutien à la R&D en logiciel libre et l’incitation à l’usage des logiciels libres par les services publics.

 Introduction dans l’enseignement secondaire, au plus tard dans le deuxième cycle de l’enseignement secondaire (CITE 3 dans la Classification Internationale type de l’éducation 2011) puis progressivement dans l’enseignement primaire (CITE 1), d’un enseignement obligatoire de toutes les spécialités de l’informatique : programmation, système d’exploitation, réseau.

 La constitution par les voies habituelles d’un corps enseignant d’informatique ne pourra pas atteindre immédiatement les effectifs nécessaires : il est donc recommandé d’instaurer un dispositif de formation pédagogique adapté afin de recruter des informaticiens professionnels prêts à se consacrer à l’enseignement.

 Création d’un Institut européen pour la promotion de l’informatique, de son enseignement et des logiciels libres dans les pays membres. Il existe déjà des structures consacrées à ces questions, par exemple le laboratoire IRILL (Initiative pour la recherche et l’innovation sur le logiciel libre) de l’université Paris VII-Denis-Diderot, dirigé par le professeur Roberto di Cosmo.

* Calcul haute performancee, mégadonnées (Big Data & HPC)

** Mégadonnées (Big Data) : deux familles de traitements

L’informatique contemporaine permet le traitement d’importants volumes de données et en outre les systèmes en ligne en produisent de plus en plus. L’accès à ces données, les droits de propriété qui s’y appliquent, la capacité de les traiter sont devenus des enjeux de souveraineté.

Pour le traitement de ces mégadonnées (Big Data), deux cas sont à distinguer :

 Analyse de données : pour prendre un exemple, en biologie les chercheurs doivent de façon répétée comparer une séquence biologique avec l’ensemble de toutes les séquences contenues dans une immense base de données. Chaque comparaison est indépendante des autres, elles peuvent être effectuées séparément. Si l’on dispose par exemple de cent serveurs, il est possible de partager la base de données en cent sous-bases et de répartir le travail entre les serveurs. Il en va de même lorsque Google analyse les recherches de ses utilisateurs, ou Amazon les achats de ses clients. Les banques, les compagnies d’assurance, la grande distribution, les services publics font ce genre d’analyse de données. Ce type de travail est effectué efficacement avec de grandes fermes de serveurs de modèle courant.

 Calcul intensif : à l’inverse de l’analyse de données, les calculs de météorologie, d’océanographie, d’aérodynamique et de façon générale tout ce qui a trait à la mécanique des fluides, ainsi que l’astrophysique et les simulations de toutes sortes, notamment dans le domaine nucléaire ou pour les essais de collision, reposent sur des opérations d’algèbre linéaire pour lesquelles toutes les données doivent être simultanément en mémoire. De tels calculs nécessitent des super-ordinateurs, constitués d’une grande quantité de cœurs de processeur [3] (typiquement plusieurs milliers, jusqu’à 40 460 pour le supercalculateur chinois Sunway TaihuLight qui détenait encore récemment (2016) le record de puissance de calcul) qui partagent une mémoire commune, ce qui nécessitent des dispositifs d’interconnexion et de commutation d’une grande complexité.

Chaque fois que ce sera possible on se ramènera au premier cas de figure, moins onéreux et plus facile à industrialiser. Les super-ordinateurs jouent un rôle important dans plusieurs domaines de recherche et d’applications, notamment militaires. Ils ne constituent qu’un marché de niche (40 milliards de dollars en 2019), mais il ne faut pas sous-estimer leur importance stratégique et le prestige qui en découle. Le Français Bull-Atos maintient une activité de constructeur dans ce domaine, avec 31 systèmes parmi le TOP500 où il est le seul européen.

** Convergence de l’analyse de données et du calcul intensif

Une évolution se dessine, caractérisée par la convergence des deux types de travaux que nous avons décrits [4]. De plus en plus les adeptes du calcul intensif ont aussi d’énormes volumes de données à manipuler, et les analystes de ces mégadonnées doivent leur appliquer des algorithmes coûteux en temps de calcul. De surcroît les calculs sont de plus en plus souvent distribués sur un grand nombre de processeurs, éventuellement dispersés géographiquement (« en nuage ») et pas forcément identiques, ce qui remet au premier plan des problèmes à résoudre les algorithmes de synchronisation de programmes concurrents et la gestion de hiérarchies de mémoire entre la mémoire locale, d’accès rapide mais de capacité limitée, et la mémoire dispersée dans les nuages, de capacité virtuellement illimitée mais d’accès plus lent.

L’avenir de cette convergence est-il vers les super-ordinateurs ou vers l’informatique en nuage avec d’immenses fermes de serveurs banals ? C’est une question de logiciel. Les tendances récentes penchent plutôt vers la seconde solution (cf. ci-dessous), mais les super-ordinateurs resteront utiles pour certains types de travaux : simulations dans le domaine du nucléaire, mécanique des fluides (aérodynamique, météorologie, climatologie, océanographie), crash tests, sismologie pour la recherche pétrolière, etc...

** Le calcul à haute performance (HPC)

Le sigle HPC désigne usuellement les applications des super-ordinateurs, dont les performances font l’objet d’un palmarès international publié chaque annéefootnote :[ https://www.top500.org/lists/2020/11/ ] avec un grand rebondissement médiatique. Nous empruntons à ce site officiel les tableaux et graphiques ci-dessous :

RangNomOrdinateurConstructeurPaysNb. cœursArchitecture
1 Fugaku Fugaku Fujitsu Japon 7 630 848 A64FX 48C 2,2GHz ARM
2 Summit Power System AC922 IBM USA 2 414 592 POWER9 22C 3,1GHz
3 Sierra Power System AC922 IBM USA 1 572 480 POWER9 22C 3,1GHz
4 TaihuLight Sunway MPP NRCPC Chine 10 649 600 Sunway SW26010 260C 1.45GHz
5 Selene Nvidia DGX A100 Nvidia USA 555 520 AMD Epyc x86-64 2,26GHz
6 Tianhe-2A TH-IVB-FEP NUDT Chine 4 981 760 Intel Xeon E5-2692v2

// <<<

Vendeur Nb. de systèmes installés Part du palmarès (%) Nb. de cœurs installés
Lenovo 182 36.4 13 313 744
Inspur 66 13.2 3 061 336
Sugon 51 10.2 3 974 964
HPE 43 8.6 5 339 200
Cray/HPE 32 6.4 5 618 128
Atos 31 6.2 3 802 552
Dell EMC 16 3.2 2 417 060
Fujitsu 15 3 9 511 856
IBM 9 1.8 3 509 888
Penguin Computing 8 1.6 516 792
Nvidia 7 1.4 1 018 336
NEC 6 1.2 322 600
Huawei 6 1.2 261 380
NUDT 3 0.6 5 342 848
Intel 2 0.4 159 044
IBM / NVIDIA / Mellanox 2 0.4 1 860 768
Cray Inc./Hitachi 2 0.4 271 584

Ces 500 super-ordinateurs « tournent » tous sous une variante du système d’exploitation Linux, ce qui confirme la position dominante de ce logiciel libre tant dans le calcul à haute performance que dans l’équipement des centres de calcul et de données.

169 de ces machines sont installées en Chine, 18 en France, 25 en Allemagne, 28 au Japon, 165 aux États-Unis, 11 au Royaume-Uni, avec un total de 91 pour l’Union Européenne (en comptant le Royaume-Uni).

Par type d’activité, 95 de ces machines sont dans le monde académique, 111 dans la recherche, 43 dans les services gouvernementaux, 244 dans le monde industriel.

Les processeurs Intel sont omniprésents, mais on dénombre 13 AMD, 23 IBM, 4 ARM et 7 SPARC de fabrication Fujitsu et quelques « inconnus », tels que les Sunway du numéro 4. Rappelons que Bull est le seul européen de ce classement, avec des machines à base de processeurs Intel.

Les principales difficultés (liées) auxquelles doivent faire face les ingénieurs de tels systèmes sont la dissipation thermique et la consommation électrique. Parmi les solutions envisageables figure le recours à des processeurs de conception plus sobre, comme ceux conçus par le britannique ARM, racheté en 2016 par le fonds japonais Softbank, puis en 2020 par l’Américain Nvidia.

** Marché du calcul à haute performance

Le haut du classement des 500 supercalculateurs les plus puissants est occupé en majorité par des acteurs publics (monde académique, agences gouvernementales), tandis que le monde industriel (qui représente la moitié de l’ensemble) a tendance à se tourner vers des matériels moins spectaculaires, moins dispendieux et plus faciles à mettre en œuvre (Hewlett Packard et Lenovo sont aux premiers rangs des fournisseurs de telles solutions). Les matériels qui occupent les premières places ont visiblement un rôle de prestige : il s’agit d’afficher une excellence technologique supposée.

Nous avons interrogé un éditeur de logiciels destinés à des calculs scientifiques intensifs et à des modélisations coûteuses en temps de calcul. Sa réponse est que ses logiciels sont conçus de façon à pouvoir être utilisés sur des supercalculateurs par les clients qui le souhaitent, mais que pour son propre usage il n’utilise pas ces matériels et ne prévoit d’en utiliser. Les solutions qui ont sa préférence reposent sur des fermes de serveurs banals, conformément au premier type de solution exposé au début de ce texte : l’informatique en nuage lui semble la voie de l’avenir.

* Informatique en nuage et réseaux de distribution de données

(Cloud Computing & CDN)

** Principes de l’Informatique en nuage (Cloud Computing)

L’informatique en nuage (en anglais Cloud Computing) est un service d’hébergement informatique en réseau dont la première apparition fut le lancement en 2006 par Amazon de son offre Amazon Web Services (AWS). Il s’agissait pour Amazon de commercialiser la puissance de calcul inutilisée des serveurs déployés de par le monde pour son propre usage et qui n’étaient utilisés qu’à 10 % de leur capacité, car ils étaient dimensionnés pour pouvoir faire face aux pointes saisonnières notamment lors des fêtes de fin d’année.

L’originalité de l’informatique en nuage comparée aux offres traditionnelles d’hébergement de données, de sites Web ou de serveurs de calcul réside dans les cinq caractéristiques suivantes :

 déploiement et arrêt des services à la demande, en self-service, généralement par une interface Web et quasi instantanément ;

 accès par réseau à haut débit ;

 mutualisation de ressources non localisées : infrastructures, réseau, logiciel, stockage ;

 allocation et désallocation rapide des ressources (« élasticité ») ;

 facturation à la consommation, typiquement heure par heure.

Cette souplesse est procurée par quatre technologies déjà bien connues mais dont les performances ont fait récemment des progrès considérables : l’informatique répartie, un réseau à haut débit omniprésent, le système de noms de domaines (DNS), enfin des plates-formes efficaces pour machines virtuelles (une machine virtuelle est un logiciel programmé pour se comporter comme un ordinateur physique, par rapport auquel il a l’avantage de pouvoir être déplacé, avec ses données, par le réseau) : un ordinateur physique peut héberger des dizaines de machines virtuelles.

L’informatique en nuage peut être offerte selon trois formes :

 IaaS (Infrastructure as a Service) : le client se voit livrer une machine (virtuelle) nue, c’est-à-dire sans système d’exploitation installé mais avec de l’espace disque et une ou plusieurs interfaces réseau (virtuelles) ; il installe sur cette machine le système et les logiciels de son choix et fait son affaire des mises à jour, notamment de sécurité ;

 PaaS (Platform as a Service) : le client reçoit une machine virtuelle dotée du système d’exploitation qu’il aura choisi sur le catalogue du fournisseur, ainsi que de quelques programmes utilitaires (base de données, serveur Web par exemple) ; le fournisseur assurera les mises à jour des logiciels qu’il aura installés, le client sera responsable de la gestion des données et des logiciels d’application qu’il aura installés lui-même ;

 SaaS (Software as a Service) : le client reçoit les droits d’accès à un système entièrement configuré avec les logiciels choisis sur le catalogue du fournisseur (par exemple paie, messagerie, blog, wiki ou gestion financière) : il n’a plus qu’à les utiliser avec ses propres données.

Grâce à la virtualisation des serveurs et du réseau, l’utilisateur de services en nuage ne sait où se trouvent ni ses données, ni l’ordinateur qui les exploite : leur emplacement physique peut changer à tout instant, même en cours de travail.

La plupart des services en réseau destinés au grand public ou aux entreprises, tels que Google Apps, Facebook, Dropbox, etc., fonctionnent en nuage (cloud) : on ne sait où sont ni les données, ni les ordinateurs qui les créent et les transforment.

** Réseaux de distribution de données (Content delivery networks, CDN)

Les protocoles de l’Internet, TCP/IP principalement, sont conçus pour transmettre des données d’une machine à une autre. Si un serveur de diffusion vidéo ou de jeux en ligne installé au Malawi a 50 000 amateurs en Bolivie, chaque jeu de données sera transmis 50 000 fois, ce qui est inefficace. Il existe des méthodes pour réduire la consommation de bande passante, par exemple la transmission multicast pour des diffusions simultanées : elle permet de n’émettre chaque paquet qu’une fois et de garantir qu’il ne sera transmis qu’une fois sur chaque segment physique du réseau pour être ensuite distribué à chaque abonné. Cette méthode ne vaut que pour une diffusion de type programme de télévision et sa mise en œuvre est délicate, ce qui a empêché qu’elle soit largement utilisée.

Comme le trajet des données entre le Malawi et la Bolivie est long, compliqué et qu’il emprunte des liaisons dont le débit n’est pas toujours important, il y a un grand intérêt à rapprocher les données de leurs utilisateurs. Comme les protocoles de la famille TCP/IP ne procurent pas de solution satisfaisante, des techniques non-standard sont apparues : elles reposent sur des serveurs relais en des points géographiques judicieusement placés.

L’entreprise Akamai est spécialisée dans la fourniture de ces services désignés par l’acronyme CDN (pour Content Delivery Network, ou Réseau de distribution de contenu). Akamai assure aujourd’hui une part significative du trafic Web dans le monde au moyen de 275 000 serveurs installés dans 136 pays, pour un chiffre d’affaires de près de trois milliards de dollars.

Akamai procure à ses clients, essentiellement des diffuseurs de contenus sur le Web tels que Twitter, Facebook, la BBC, Adobe, Yahoo !, Netflix et beaucoup d’autres, un service de duplication transparente de leurs données : en fonction de sa position géographique, un internaute désireux d’accéder à Twitter sera, sans qu’il s’en aperçoive, redirigé vers un serveur Akamai proche de chez lui et qui lui livrera les pages Web désirées avec de meilleurs temps d’accès que s’il y accédait en traversant les océans.

Le réseau d’Akamai utilise intensivement les techniques de l’informatique en nuage et des algorithmes non publiés perfectionnés pour assurer la disponibilité et l’intégrité des données.

La domination du marché des CDN par Akamai tient à la qualité de ses algorithmes, à sa présence mondiale et à des économies d’échelle qui font qu’il est rentable, même pour un gros diffuseur, de faire appel à lui plutôt que de monter sa propre infrastructure de distribution.

Akamai est surtout intéressant pour un site qui vise une clientèle mondiale, ce qui laisse une niche de marché à des opérateurs de CDN qui s’adressent à des diffuseurs dont la clientèle est concentrée dans un pays ou une région particuliers.

La dissémination des données aux quatre coins de la planète par l’effet des CDN et de l’informatique en nuage anéantit toute velléité de contrôle territorial du stockage des données : les efforts de réglementation dans ce domaine doivent donc être menés à l’échelle internationale.

** Avantages et inconvénients du Cloud

Le cloud procure des avantages économiques et techniques considérables. Pour un simple stockage de données, les coûts de l’hébergement en nuage sont divisés par trois par rapport à l’hébergement classique, mais pour un client dont l’activité subit de fortes variations dans le temps et qui sait optimiser son usage des ressources le gain peut être très supérieur.

L’optimisation de l’usage des ressources est une technique complexe dont la mise en œuvre demande des ingénieurs compétents.

Un autre avantage de l’informatique en nuage est qu’elle procure une sauvegarde implicite des données. Des données stockées sur Dropbox et partagées entre plusieurs machines sont mises à jour automatiquement et implicitement sur toutes ces machines à chaque modification, ce qui procure une sécurité bien supérieure à celle d’un système de sauvegarde local. Le système de Dropbox est techniquement robuste, sa confidentialité est bonne sauf à l’égard des ingénieurs de Dropbox, qui peuvent faire l’objet d’une réquisition des autorités américaines.

L’inconvénient principal du cloud est le revers de ses avantages : l’utilisateur ne sait pas où sont ses données, et s’il est client d’un opérateur international comme Amazon ses données peuvent se trouver dans un pays dont la législation ne respecte pas ses exigences de confidentialité. Le Patriot Act donne au gouvernement américain un droit total d’accès à toutes les données détenues par un opérateur américain et aussi par un opérateur exerçant sur le territoire américain (ce qui est le cas d’Orange, de British Telecom, etc.). Jusqu’à présent Microsoft a obtenu gain de cause dans son différend avec les autorités américaines et a pu refuser de livrer les données d’un de ses clients stockées en Irlande, mais ce résultat pourrait être remis en cause par une nouvelle décision de justice.

** Safe Harbor, Patriot Act, Privacy Shield

Avec le Patriot Act du 26 octobre 2001 une entreprise, quelle que soit sa nationalité, qui exerce son activité sur le territoire des États-Unis, est tenue de répondre positivement aux demandes d’accès aux données de ses clients qui lui sont adressées par la NSA ou une autre agence fédérale de sécurité.

De grands opérateurs tels que BT ou Orange, bien que britannique ou français, sont donc soumis au Patriot Act du fait de leur présence commerciale et technique aux États-Unis, ainsi que le Français OVH, dont les activités nord-américaines étaient basées au Canada mais qui s’est implanté aux États-Unis.

Le Patriot Act réduit à néant les garanties de protection des données personnelles obtenues par la Commission européenne au titre d’un accord avec le Département du Commerce des États-Unis ratifié le 26 juillet 2000, qui a instauré un cadre juridique dénommé Safe Harbor (Sphère de sécurité).

L’accord connu sous le nom de Privacy Shield (« bouclier de protection des données »), approuvé par l’UE le 8 juillet 2016, et qui était censé donner des garanties de confidentialité des données transférées aux États-Unis, a finalement été révoqué le 16 juillet 2020 après qu’il eut été établi que ces garanties étaient illusoires.

** Acteurs français de l’informatique en nuage

Il existe heureusement des entreprises françaises qui réussissent dans ces domaines. Les opérateurs Internet Free, OVH et Gandi, pour ne citer que les plus importants, sont en pointe dans leur domaine. OVH est particulièrement admirable : créée il y a une quinzaine d’années par une famille d’immigrés polonais sans un sou de capital, elle est aujourd’hui un acteur de poids dans l’informatique en nuage (cloud computing) et l’hébergement de centres de données (datacenters). Cependant leur éloignement de ce que Pierre Bourdieu appelait la « noblesse d’État » les rend invisibles aux cercles du pouvoir.

** Exigences de souveraineté envisageables

Les objectifs suivants pourraient être fixés :

 Tout acteur européen, public ou privé, entreprise ou particulier, doit pouvoir obtenir que ses données, stockées selon un système d’hébergement traditionnel ou en nuage (dans le Cloud), soient conservées sur le territoire de l’Union européenne selon des modalités conformes au droit européen (un procès entre Microsoft et le gouvernement américain a montré que ce dernier considérait que les données détenues en Europe par un opérateur soumis au droit américain relevaient des tribunaux américains).

 Tout acteur européen, public ou privé, entreprise ou particulier, doit être considéré propriétaire non seulement des données qu’il communique aux opérateurs avec lesquels il interagit sur l’Internet (données primaires), mais aussi des données appelées métadonnées recueillies par ces opérateurs à l’occasion de ces interactions, telles qu’adresses électroniques, localisation, heures et dates de connexion, adresses physiques, identifiants, correspondants, etc. Ces métadonnées ne doivent pouvoir être utilisées qu’avec son consentement et selon des conditions à négocier.

Pour atteindre ces objectifs l’UE compte sur son territoire des opérateurs de dimension internationale et parfaitement à même de lui procurer les fonctions techniques et les infrastructures. Cela suppose une politique industrielle.

** Recommandations de politique

Les solutions de l’avenir sont dans l’informatique en nuage. Plutôt que de créer un enième cloud alors qu’une offre européenne solide existe déjà mieux vaudrait stimuler les usages, par exemple en subventionnant les abonnements pendant une période de démarrage, et en donnant aux entreprises dépourvues des compétences nécessaires une assistance technique et de la formation.

Afficher sur le Web les réseaux du cloud et leurs offres technologiques constituerait une vitrine utile de nos capacités industrielles, surtout pour les PME qui peuvent éprouver des difficultés à se faire connaître à l’international.

Quant aux chercheurs, leur souci d’indépendance et les différences entre les besoins des diverses disciplines conduisent à penser que plutôt que de les regrouper sur un Cloud unique, il faudrait indexer et référencer leurs publications et leurs données sur une base européenne afin qu’ils ne dépendent plus des grands éditeurs internationaux comme Elsevier et Thomson/Reuters.

Les priorités à haute valeur ajoutée, à l’issue de notre enquête, pourraient être :

 Hub collaboratif pour que des entreprises créent ensemble de nouveaux produits et multiplient les coopérations.

 Places de marché, intermédiation.

 Encourager l’essor de la ville intelligente par des programmes de développement de l’IOT (Internet des objets) : flux logistiques, sécurité, santé, transport, réseaux (eau, gaz, électricité), services (crèches, écoles). Cet essor se fera notamment grâce au cloud.

 Automates programmables sur les chaînes de production (industrie 4.0) : aujourd’hui ces automates sont de gros appareils peu flexibles. Leurs données et les traitements ont vocation à déménager dans le Cloud, cependant que ne resteront sur la machine locale que de petits contrôleurs reliés par le réseau (5G, WiFi, LoRaWAN...) au système d’information industriel.