logo site
Site WWW de Laurent Bloch
Slogan du site

ISSN 2271-3905
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets moins techniques.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

Que devons-nous craindre de l’intelligence dite artificielle ?
Article mis en ligne le 20 février 2015
dernière modification le 1er mars 2015

par Jean Kott

J’ai vu au hasard de mes lectures sur le web que quelques grands esprits de ce monde (dont Bill Gates et Stephen Hawking) se préoccupent en ce moment de l’éventuel danger que peut représenter pour l’humanité le développement non contrôlé de ce qu’il est convenu d’appeler « Intelligence artificielle ».

Dans mon univers personnel, ce terme a toujours résonné plutôt comme une prothèse qui trouvait sa place entre genou artificiel et jambe artificielle. Mon bon maître Marcel-Paul Schützenberger y voyait un domaine plein de problématiques plus ou moins fumeuses qui, sitôt qu’elles se clarifiaient, prenaient leurs distances avec l’intelligence artificielle. Plus personne aujourd’hui ne dit que la robotique, la reconnaissance et la synthèse vocales, la reconnaissance de formes et/ou d’image, sont du ressort de l’intelligence artificielle. Elles étaient pourtant considérées comme en faisant partie à une époque où les concepts de ces disciplines étaient mal maîtrisés. N’importe qui a eu affaire à un serveur vocal se rend compte à quel point un tel dispositif est dépourvu de toute forme d’intelligence, même la plus élémentaire.
Je suis donc très circonspect à propos de ce que l’on croit être l’intelligence des machines mais je partage les craintes des personnes citées plus haut pour des raisons exposées plus loin.

 Le domaine des machines

Depuis le milieu du 20ème siècle, la Logique et les Mathématiques définissent de manière précise les domaines théoriques sur lesquels les machines sont en mesure d’opérer ; il s’agit des ensembles récursifs et des fonctions récursives définies par Hilbert et ses élèves ainsi que les ensemble et fonctions calculables définies au travers des travaux d’Alan Turing.

Il a été établi que ces derniers (fonctions et ensembles calculables) étaient rigoureusement identiques aux précédents (fonctions et ensembles récursifs) bien que définis de façon très différente. Un logicien, Alonzo Church, a même montré que tous les systèmes formels (c’est-à-dire des règles en nombre fini opérant sur des ensembles dénombrables) engendraient tous les mêmes ensembles et fonctions.

Depuis cette époque, nul n’a construit de machine qui ne soit pas descriptible dans un formalisme relevant des fonctions récursives ou de ses équivalents.

Cependant, la fantastique croissance de la puissance de calcul des processeurs et des tailles mémoire ainsi que l’interconnexion, aujourd’hui universelle de toutes les machines existant dans le Monde, permettent de construire des systèmes avec beaucoup plus de règles opérant sur des masses de données absolument colossales pouvant justifier pas mal de craintes.

Il n’y a pourtant pas la moindre intelligence là-dedans mais le nombre de règles et d’interconnexions sont tels que nul n’est en mesure d’en modéliser le comportement de manière simple. Un exemple élémentaire est le cas de deux acheteurs, devant leur écran, en concurrence pour l’unique exemplaire d’une ressource disponible sur un site marchand. Ils valident leur commande rigoureusement au même moment. Les deux messages arrivent simultanément au serveur d’application mais nul ne peut dire lequel des deux sera satisfait car l’arbitrage se fera au sein du système d’exploitation en fonction de critères totalement absurdes vus depuis l’application.

Ce comportement perçu comme étant « à la tête du client » peut induire l’illusion d’une intelligence qui n’en ferait que selon son bon vouloir.

On peut également construire aujourd’hui des programmes de démonstration de théorèmes, des programmes champions d’échecs et de toutes sortes d’autres jeux mais c’est la capacité de stockage et la vitesse de calcul qui le permettent . C’est toujours un être humain qui a défini le logiciel en fonction de ses propres intentions.

Un programme calculant la somme des N premiers nombres ira plus vite par la méthode brutale qu’un cerveau humain appliquant la formule N*(N+1)/2 si N n’est pas trop grand mais un ordinateur pourrait-il imaginer cette formule en l’absence de toute règle programmée par un être humain pour y parvenir ?

Une machine ne peut fonctionner qu’avec des critères qu’elle peut évaluer en un temps fini et ainsi sélectionner telle branche de son calcul plutôt que telle autre. Ce qu’on appelle des critères décidables, c’est-à-dire exprimables par une fonction calculable.

Une machine est limitée à ce qui est discret, dénombrable et décidable.

 Ce que ne peuvent atteindre les machines.

A contrario, les notions de continu, d’indénombrable et d’indécidable sont totalement étrangères à l’univers de la machine. Le grand théorème de Gödel leur est inaccessible ainsi que la notion de nombres réels ou complexes, les représentations de tels nombres dans les langages de programmation n’en étant que des approximations en nombres entiers inventées par des êtres humains.

Il a été démontré que l’équivalence de deux programmes est généralement indécidable. La conséquence en est que l’on ne peut disposer d’un algorithme universel permettant d’affirmer si un programme est correct ou non [1].

Il a également été démontré il y a déjà plus de 50 ans qu’il était vain de vouloir faire de la traduction automatique tant était importante l’existence de présupposés extra-linguistiques pour comprendre le sens d’une phrase. Maurice Gross a montré qu’en français, plus de la moitié des locutions employées dans le langage n’avaient pas leur sens dérivable à partir du sens de chacun de ses mots. Comme dans d’autres domaines, on peut imaginer des logiciels adaptés, faisant des traductions pour des périmètres parfaitement circonscrits mais le problème n’est que déplacé : existe-t-il un logiciel universel capable d’analyser un texte et de dire de quel périmètre il relève ?

Autre notion inaccessible à la machine est l’erreur. Lorsqu’un logiciel sort un message d’erreur, c’est que le résultat d’un calcul a été défini, a priori, par l’auteur du logiciel comme étant erroné. Cette notion ne résulte donc que de la subjectivité de l’interprétation d’un résultat. La machine n’interprète pas ce qu’elle exécute car ce n’est que l’Homme qui donne un sens à ce qui est calculé. ERRARE HUMANUM EST.

L’intelligence n’est pas dans le calcul lui-même, mais dans l’intention de l’Humain.

La grande force de l’Homme est dans sa paresse et sa volonté de toujours diminuer ses efforts pour atteindre son but. Pour y parvenir, il crée des concepts véhiculant des quantités d’informations de plus en plus importantes en agrégeant ces concepts dans de nouveaux. Cela permet de manipuler de manière concise des abstractions véhiculant des quantités d’information considérables.

On arrive ainsi à maîtriser des univers extrêmement complexes sans pour autant avoir à expliciter l’intégralité de l’Information qu’ils contiennent.

Le seul danger est qu’on doit être certain de toujours pouvoir faire le chemin inverse, c’est-à-dire de décomposer les concepts inventés en les concepts plus élémentaires dont ils sont dérivés.

Où le diable se niche-t-il donc ?

Les raisons de craindre l’omnipotence de l’informatique sont pourtant nombreuses et j’en énumère ici quelques une qui, combinées ensembles peuvent effectivement devenir redoutables pour l’Humanité.

 La généralisation de l’automatisation.

De plus en plus de processus humains sont automatisés voire enchaînés automatiquement sans intervention humaine. La moindre erreur introduite en amont peut engendrer un désastre en l’absence de tout contrôle humain au cours de l’ensemble des opérations. Je recommande à tous la lecture de la BD « Les mange-bitume » écrite par Lob et Bielsa à la fin des années 1960 à ce propos.

Le danger n’est donc pas dans l’intelligence de plus en plus grande des machines mais dans la confiance de plus en plus aveugle que l’on fait à celles-ci et ceci pour des raisons de pure productivité.

 La perte des connaissances

De plus en plus de personnes ayant des rôles clefs dans des processus de traitement de l’information ne connaissent plus les notions de base qui sont désormais encapsulées dans des couches logicielles profondes et portées de génération en génération de systèmes sans que personne n’y touche plus.

De même, l’homme abandonne de nombreuses pratiques depuis qu’elles sont codées dans de nombreuses machines.

Qui connait aujourd’hui l’algorithme du banquier d’Edsger Dijkstra et présent dans tous les ordinateurs ? Qui d’ailleurs sait qui est ce personnage ? Qui sait aujourd’hui écrire un quicksort ?

Qui peut décrire aujourd’hui les méandres matériels et logiciels par lesquels passe un caractère entre le moment où on frappe une touche au clavier et celui où il est lu par une application ?

A quelle échéance ne saurons-nous plus effectuer de calcul mental ?

Certaines autorités envisagent l’abandon de l’apprentissage de l’écriture ! Quel impact sur la maîtrise du langage et la créativité ?

Il a été reconnu que la généralisation de l’informatisation du cockpit des avions transformait les pilotes en opérateurs du système de pilotage de l’avion entrainant ainsi une perte de culture des fondamentaux nécessaires au pilotage de base d’un avion.

Cet abandon progressif de notre connaissance parce que nous la figeons dans des dispositifs technologiques est un danger. De moins en moins de professionnels ont la culture élémentaire nécessaire à une bonne maîtrise de l’ensemble d’un système d’informations. Nous oublions de plus en plus certaines de nos connaissances de base au prétexte que des machines font le travail à notre place.

Bref, on ne sait plus faire le chemin du plus complexe au plus simple.

 Les croyances liées au déficit de formation

Peu de gens sont formés aux concepts logico-mathématiques nécessaires à une vision correcte du monde des machines. Trop de décideurs pensent que tout problème possède une solution optimale soluble par une méthodologie unique pouvant être implémentée sur une machine.

On automatise donc et… advienne que pourra. Au mieux, ça ne marche pas, au pire, ça entraîne une catastrophe.

Un exemple parmi d’autres est celui de ce que certains appellent les croisements de fichiers. Les mondes policier, financier et judiciaire en sont particulièrement friands. Ce genre d’opération est canonique dans les bases de données relationnelles et s’appelle une jointure. Lorsqu’elle est faite au sein d’un même système dans lequel chaque entité représentée en un ou plusieurs attributs a une définition unique, tout se passe bien. Le dérapage commence lorsque l’on joint des fichiers d’origines différentes, n’ayant pas été définis initialement dans les mêmes intentions et dont certains attributs, bien qu’identiques en apparence, ne recouvrent pas la même réalité dans deux systèmes d’informations distincts.

Le vrai danger est donc, non pas la prise de pouvoir par une quelconque intelligence artificielle, mais par la confiance de plus en plus aveugle que nous faisons dans des dispositifs parfaitement stupides et que nous ne maîtrisons plus tant ils sont devenus inextricables.

Pour terminer je mentionne trois axes (il y en a d’autres) susceptibles de contenir les dangers évoqués plus haut :

- limiter les enchainements d’automatismes sans intervention humaine ;
- maintenir la connaissance dans un format accessible à un cerveau humain ;
- former aux préceptes élémentaires de la Logique afin que les responsables ne se lancent dans des aventures absurdes où il y a plus à perdre qu’à gagner.