Blog de Laurent Bloch
Blog de Laurent Bloch

ISSN 2271-3980
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets informatiques et mes enseignements.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

La passion informatique
Article mis en ligne le 25 octobre 2022
dernière modification le 31 octobre 2022

par Laurent Bloch

Chapitre précédent

L’informatique m’avait séduit brutalement, par un coup de foudre, en octobre 1968. Mais ce n’est qu’en mai 1986 que j’eus la révélation, tout aussi brutale, qu’elle était aussi une vraie science, en sus de la technique d’un certain nombre d’artefacts matériels et logiciels qui en font une technologie, puisqu’ils ont du langage en eux, comme nous l’enseigne Clarisse Herrenschmidt dans son livre Les Trois Écritures.

Comme indiqué au chapitre Statistique, je suis entré en novembre 1967 dans une école qui était alors une division de l’Ensae et qui est devenue depuis l’Ensai. On y enseignait les statistiques et l’économie. La classe préparatoire m’avait dégoûté durablement des mathématiques. J’ai écrit aussi qu’un cours d’informatique (Fortran) m’avait paru d’autant plus fastidieux qu’il n’y avait pas de travaux pratiques. Et de toutes les façons dans la rue c’était Mai 68, beaucoup plus intéressant, je ne mettais guère les pieds à l’école et n’ai gardé aucun souvenir d’éventuels examens.

À la rentrée de septembre je pris sans enthousiasme le chemin d’un stage obligatoire de deux mois d’informatique à plein temps au centre de calcul de l’Insee, rue Boulitte dans le 14ème arrondissement. J’ai raconté au chapitre Le salut par l’informatique comment, contre toute attente, j’y suis tombé amoureux de l’informatique.

Il est à noter que ce stage était excellent, tellement bon qu’il a aussitôt été retiré du programme, nous ne fûmes que deux promotions à en profiter. La direction de l’Insee craignait que nous n’acquérions trop de compétences informatiques, ce qui nous aurait sans doute rendus encore plus bêtes, selon la vision malheureusement toujours actuelle de l’élite intellectuelle française.

Je suis donc devenu analyste-programmeur, puis ingénieur système au centre de calcul de l’Insee, ensuite contraint au retour du service militaire de m’adapter à l’organisation taylorienne préconisée par McKinsey pour l’informatique de l’Insee, enfin j’ai rejoint la Commission de développement de l’informatique (CDI) du Ministère de l’Économie et des Finances, épisodes décrits au chapitre Libéré !.

À cette époque, je n’avais toujours pas compris que l’informatique était une science.

Après mon passage à la Commission de développement de l’informatique du ministère de l’économie et des finances, qui m’avait laissé entrevoir de tels abîmes d’incompétence et de gabegie que j’en conçus plus d’indulgence pour l’Insee, j’étais devenu chef du service informatique de l’Ined (Institut national d’Études démographiques, cf. chapitre Ined.

Pour moi à ce moment l’informatique n’était toujours qu’une technique.

Comment me vint aux oreilles la nouvelle de l’organisation par le CREIS (Centre de coordination pour la Recherche et l’Enseignement en Informatique et Société) d’un colloque Histoire et Épistémologie de l’Informatique les 29 et 30 mai 1986 ? Cette manifestation fut malheureusement sabotée par une grève de la SNCF qui en tint éloignés les participants de province, comme Henri Habrias, ou étrangers, comme Mihály Csákó, mais il restait beaucoup de communications de grand intérêt, comme celle de Jacques Arsac, et j’y fus, à l’IUT de l’avenue de Versailles. J’en ai conservé précieusement les actes, et à relire le texte d’Arsac on mesure combien il avait déjà compris les implications intellectuelles et sociales de la révolution industrielle informatique (que j’appellerai révolution cyberindustrielle), qui n’était pourtant à l’époque déclenchée que depuis une douzaine d’années.

Les principaux animateurs du colloque étaient Pierre Lévy et Philippe Breton, qui à l’époque travaillaient beaucoup ensemble (ils ont depuis pris des voies différentes). L’intervention de Philippe Breton était organisée autour de quatre textes qualifiés de fondateurs de l’informatique, qui n’étaient à l’époque pas très accessibles (faute de Web !) et dont il inséra dans les actes des copies privées en marge des droits de leurs éditeurs éventuels :

 Behavior, Purpose and Teleology (Comportement, intention et téléologie), par Norbert Wiener, Arturo Rosenblueth et Julian Bigelow, en français dans Les Études philosophiques, 1961, n° 2.
 A logical calculus of the ideas immanent in nervous activity, par Warren S. McCulloch et Walter Pitts, The Bulletin of Mathematical Biophysics, 1943, Vol. 5, n° 4.
 Computing machinery and intelligence (Les ordinateurs et l’intelligence), par Alan Turing, en français dans Pensée et machine, Milieux, Champ Vallon, 1983.
 First Draft of a Report on the EDVAC, par John von Neumann, 1945.

Cette liste nous indique qu’en cette année 1986 sévissait l’épidémie décennale d’intelligence artificielle (IA) : tous les dix ans une nouvelle cohorte d’informaticiens arrive en oubliant les réfutations toujours valides des prétentions de l’IA (dont on trouvera les principaux éléments sous la plume de John von Neumann, The Computer and the Brain, traduit en français à La Découverte, et plus encore dans le livre d’Hubert Dreyfus, What Computers Can’t Do : The Limits of Artificial Intelligence, traduit en français chez Flammarion sous le titre Intelligence artificielle : mythes et limites, avec une belle postface de Jacques Arsac). Melanie Mitchell a publié en 2020 Intelligence artificielle - Triomphes et déceptions (traduction française chez Dunod) : étonnamment, à 50 ans de distance, ses conclusions sont très semblables à celles de Dreyfus.

La nouvelle génération des intelligents artificiels utilise à chaque fois le même argument : « oui mais maintenant avec les performances accrues des ordinateurs l’intelligence artificielle devient possible ». C’est toujours aussi faux si l’on s’en réfère à la définition de l’IA donnée lors de la conférence de Dartmouth College en 1956 : « la capacité [pour des machines] d’utiliser le langage, de former des abstractions et des concepts, de résoudre différentes familles de problèmes pour le moment réservés aux humains, et de s’améliorer elles-mêmes », mais à chaque fois il faut réfuter, ce que faisait le colloque du CREIS, en montrant que si les prétentions de l’IA sont toujours hors d’atteinte, les financements qu’elle réussit à capter stimulent des recherches fructueuses dont l’informatique recueille les résultats. Les logiciels d’IA excellent au diagnostic, à la reconnaissance de formes et à d’autres problèmes analogues, mais pour ce qui est de former des abstractions et des concepts, que nenni, et il suffit de réfléchir à ce que sont les abstractions et les concepts pour comprendre que la question ne se pose même pas. Pour ce qui est du langage, il suffit de consulter les linguistes (ou d’essayer de lire le crottin de logiciel de « traduction ») pour savoir à quoi s’en tenir.

De ces quatre textes, en fait seul celui de von Neumann est fondateur de l’informatique, en ce qu’il signe l’invention de l’ordinateur. Comme l’a fort bien dit Samuel Goyet, avant von Neumann, programmer un calculateur c’était tourner des boutons et brancher des fiches dans des tableaux de connexion, depuis von Neumann c’est écrire un texte ; cette révolution ouvrait la voie à la science informatique.

Même s’il n’a pas inventé l’ordinateur, Alan Turing est un fondateur de la science informatique, mais plus par la machine qui porte son nom (machine purement théorique, système formel [1] dépourvu de toute prétention à une réalisation mécanique, rappelons-le) que par cet essai philosophique sans grande postérité informatique. Signalons au passage aux spectateurs du film Imitation Game qu’il comporte au moins trois erreurs de fait majeures : la machine qu’ils voient fonctionner dans le film n’est pas la machine de Turing (et pour cause, elle n’a jamais existé que sur le papier) mais la Bombe, conçue effectivement sous la direction de Turing pour casser le code des machines cryptographiques allemandes Enigma. Ni Colossus ni a fortiori la machine de Turing (non plus d’ailleurs que l’ENIAC d’Eckert et Mauchly, contrairement à une idée assez répandue), et encore moins la Bombe, ne sont des ordinateurs au sens actuel du terme, c’est-à-dire des calculateurs automatiques, programmables et universels. Enfin ce n’est pas de peur que son homosexualité soit révélée que Turing s’est suicidé. Mais à part cela le film donne une idée assez juste du genre de problème que les chercheurs de Blechtley Park [2] voulaient résoudre et des moyens qu’ils employaient pour ce faire.

Le texte de McCulloch et Pitts est fondateur d’une autre discipline, au point de rencontre de la statistique, de la recherche opérationnelle et de l’informatique : les réseaux de neurones, qui n’ont finalement que peu à voir avec ceux de notre système nerveux, contrairement à ce que l’on pouvait croire dans les années 1940 ou 1950, mais qui sont devenus aujourd’hui les systèmes d’apprentissage profond utilisés intensivement par Google, Facebook et beaucoup d’autres.

Quant au texte de Wiener, Rosenblueth et Bigelow, il illustre la cybernétique, une discipline qui avait commencé à exister à cette époque, puis dont personne n’a plus entendu parler jusqu’à la date récente où tout est redevenu cyber, ce dont je me félicite parce que c’est un mot élégant et qui dit assez bien ce qu’il veut dire.

En fait, plus que les textes proposés, c’est la teneur des exposés qui m’a convaincu brutalement de la nature scientifique de l’informatique. Je ne me rappelle plus si Jacques Arsac était venu en personne ou s’il avait seulement fait parvenir sa communication, mais en relisant celle-ci on retrouve les idées qu’il a maintes fois exprimées à ce propos : un enchaînement de circonstances l’a mené de l’astrophysique à l’informatique, mais jamais il n’a eu le sentiment de faire autre chose que de la science. Il retient l’idée que l’objet de la science informatique est la transformation de l’information, mais qu’il faut préciser, parce que le comptable, le journaliste voire l’historien peuvent partager cette définition. Il précise donc que l’informatique, de l’information, ne traite que la forme et pas le contenu, encore moins le sens dont il réserve l’usage à l’esprit humain, et il inscrit cette conception dans la filiation des nominalistes de la fin du Moyen-Âge et de Thomas Hobbes (je laisse aux philosophes le soin de juger de la pertinence de ce rattachement).

Quels furent, lors de ce colloque, les facteurs qui ont déclenché cette révélation ? Entendre de vrais chercheurs parler avec respect de concepts que je ne considérais jusque là que comme des ustensiles : mémoire, adresse, instruction, sous-programme. Comprendre que cette élévation au rang de concept pouvait rehausser la position sociale et intellectuelle des informaticiens, qui ne seraient plus automatiquement en position d’infériorité par rapport aux « vrais scientifiques ». Imaginer les développements intellectuels rendus possibles par cette conceptualisation. Bref, ce colloque ouvrait des horizons vastes et nouveaux, et prouvait avec des arguments qu’ils n’étaient pas fallacieux.

Il me faudra attendre encore de nombreuses années pour voir émerger du groupe Itic de l’association EPI (Enseignement public et informatique) l’énumération des quatre concepts qui forment le socle de la science informatique : information, programme, machine, langage (pour ce que je peux en savoir, la réunion de ces quatre concepts, à l’exclusion d’autres candidats, fut l’œuvre de Gilles Dowek, et les conclusions à en tirer peuvent être complétées par la lecture de l’article de Wikipédia sur l’épistémologie de l’informatique). Mais déjà en 1986 il m’était apparu que l’informatique avait son corps de concepts et de méthodes, distincts de ceux des mathématiques ou de la linguistique, pour ne considérer que les disciplines les plus proches.