Site WWW de Laurent Bloch
Slogan du site

ISSN 2271-3905
Cliquez ici si vous voulez visiter mon autre site, orienté vers des sujets moins techniques.

Pour recevoir (au plus une fois par semaine) les nouveautés de ce site, indiquez ici votre adresse électronique :

Que devons-nous craindre de l’intelligence dite artificielle ?
Article mis en ligne le 20 février 2015
dernière modification le 1er mars 2015

par Jean Kott
logo imprimer
Licence : CC by-nd

J’ai vu au hasard de mes lectures sur le web que quelques grands esprits de ce monde (dont Bill Gates et Stephen Hawking) se préoccupent en ce moment de l’éventuel danger que peut représenter pour l’humanité le développement non contrôlé de ce qu’il est convenu d’appeler « Intelligence artificielle ».

Dans mon univers personnel, ce terme a toujours résonné plutôt comme une prothèse qui trouvait sa place entre genou artificiel et jambe artificielle. Mon bon maître Marcel-Paul Schützenberger y voyait un domaine plein de problématiques plus ou moins fumeuses qui, sitôt qu’elles se clarifiaient, prenaient leurs distances avec l’intelligence artificielle. Plus personne aujourd’hui ne dit que la robotique, la reconnaissance et la synthèse vocales, la reconnaissance de formes et/ou d’image, sont du ressort de l’intelligence artificielle. Elles étaient pourtant considérées comme en faisant partie à une époque où les concepts de ces disciplines étaient mal maîtrisés. N’importe qui a eu affaire à un serveur vocal se rend compte à quel point un tel dispositif est dépourvu de toute forme d’intelligence, même la plus élémentaire.
Je suis donc très circonspect à propos de ce que l’on croit être l’intelligence des machines mais je partage les craintes des personnes citées plus haut pour des raisons exposées plus loin.

 Le domaine des machines

Depuis le milieu du 20ème siècle, la Logique et les Mathématiques définissent de manière précise les domaines théoriques sur lesquels les machines sont en mesure d’opérer ; il s’agit des ensembles récursifs et des fonctions récursives définies par Hilbert et ses élèves ainsi que les ensemble et fonctions calculables définies au travers des travaux d’Alan Turing.

Il a été établi que ces derniers (fonctions et ensembles calculables) étaient rigoureusement identiques aux précédents (fonctions et ensembles récursifs) bien que définis de façon très différente. Un logicien, Alonzo Church, a même montré que tous les systèmes formels (c’est-à-dire des règles en nombre fini opérant sur des ensembles dénombrables) engendraient tous les mêmes ensembles et fonctions.

Depuis cette époque, nul n’a construit de machine qui ne soit pas descriptible dans un formalisme relevant des fonctions récursives ou de ses équivalents.

Cependant, la fantastique croissance de la puissance de calcul des processeurs et des tailles mémoire ainsi que l’interconnexion, aujourd’hui universelle de toutes les machines existant dans le Monde, permettent de construire des systèmes avec beaucoup plus de règles opérant sur des masses de données absolument colossales pouvant justifier pas mal de craintes.

Il n’y a pourtant pas la moindre intelligence là-dedans mais le nombre de règles et d’interconnexions sont tels que nul n’est en mesure d’en modéliser le comportement de manière simple. Un exemple élémentaire est le cas de deux acheteurs, devant leur écran, en concurrence pour l’unique exemplaire d’une ressource disponible sur un site marchand. Ils valident leur commande rigoureusement au même moment. Les deux messages arrivent simultanément au serveur d’application mais nul ne peut dire lequel des deux sera satisfait car l’arbitrage se fera au sein du système d’exploitation en fonction de critères totalement absurdes vus depuis l’application.

Ce comportement perçu comme étant « à la tête du client » peut induire l’illusion d’une intelligence qui n’en ferait que selon son bon vouloir.

On peut également construire aujourd’hui des programmes de démonstration de théorèmes, des programmes champions d’échecs et de toutes sortes d’autres jeux mais c’est la capacité de stockage et la vitesse de calcul qui le permettent . C’est toujours un être humain qui a défini le logiciel en fonction de ses propres intentions.

Un programme calculant la somme des N premiers nombres ira plus vite par la méthode brutale qu’un cerveau humain appliquant la formule N*(N+1)/2 si N n’est pas trop grand mais un ordinateur pourrait-il imaginer cette formule en l’absence de toute règle programmée par un être humain pour y parvenir ?

Une machine ne peut fonctionner qu’avec des critères qu’elle peut évaluer en un temps fini et ainsi sélectionner telle branche de son calcul plutôt que telle autre. Ce qu’on appelle des critères décidables, c’est-à-dire exprimables par une fonction calculable.

Une machine est limitée à ce qui est discret, dénombrable et décidable.

 Ce que ne peuvent atteindre les machines.

A contrario, les notions de continu, d’indénombrable et d’indécidable sont totalement étrangères à l’univers de la machine. Le grand théorème de Gödel leur est inaccessible ainsi que la notion de nombres réels ou complexes, les représentations de tels nombres dans les langages de programmation n’en étant que des approximations en nombres entiers inventées par des êtres humains.

Il a été démontré que l’équivalence de deux programmes est généralement indécidable. La conséquence en est que l’on ne peut disposer d’un algorithme universel permettant d’affirmer si un programme est correct ou non [1].

Il a également été démontré il y a déjà plus de 50 ans qu’il était vain de vouloir faire de la traduction automatique tant était importante l’existence de présupposés extra-linguistiques pour comprendre le sens d’une phrase. Maurice Gross a montré qu’en français, plus de la moitié des locutions employées dans le langage n’avaient pas leur sens dérivable à partir du sens de chacun de ses mots. Comme dans d’autres domaines, on peut imaginer des logiciels adaptés, faisant des traductions pour des périmètres parfaitement circonscrits mais le problème n’est que déplacé : existe-t-il un logiciel universel capable d’analyser un texte et de dire de quel périmètre il relève ?

Autre notion inaccessible à la machine est l’erreur. Lorsqu’un logiciel sort un message d’erreur, c’est que le résultat d’un calcul a été défini, a priori, par l’auteur du logiciel comme étant erroné. Cette notion ne résulte donc que de la subjectivité de l’interprétation d’un résultat. La machine n’interprète pas ce qu’elle exécute car ce n’est que l’Homme qui donne un sens à ce qui est calculé. ERRARE HUMANUM EST.

L’intelligence n’est pas dans le calcul lui-même, mais dans l’intention de l’Humain.

La grande force de l’Homme est dans sa paresse et sa volonté de toujours diminuer ses efforts pour atteindre son but. Pour y parvenir, il crée des concepts véhiculant des quantités d’informations de plus en plus importantes en agrégeant ces concepts dans de nouveaux. Cela permet de manipuler de manière concise des abstractions véhiculant des quantités d’information considérables.

On arrive ainsi à maîtriser des univers extrêmement complexes sans pour autant avoir à expliciter l’intégralité de l’Information qu’ils contiennent.

Le seul danger est qu’on doit être certain de toujours pouvoir faire le chemin inverse, c’est-à-dire de décomposer les concepts inventés en les concepts plus élémentaires dont ils sont dérivés.

Où le diable se niche-t-il donc ?

Les raisons de craindre l’omnipotence de l’informatique sont pourtant nombreuses et j’en énumère ici quelques une qui, combinées ensembles peuvent effectivement devenir redoutables pour l’Humanité.

 La généralisation de l’automatisation.

De plus en plus de processus humains sont automatisés voire enchaînés automatiquement sans intervention humaine. La moindre erreur introduite en amont peut engendrer un désastre en l’absence de tout contrôle humain au cours de l’ensemble des opérations. Je recommande à tous la lecture de la BD « Les mange-bitume » écrite par Lob et Bielsa à la fin des années 1960 à ce propos.

Le danger n’est donc pas dans l’intelligence de plus en plus grande des machines mais dans la confiance de plus en plus aveugle que l’on fait à celles-ci et ceci pour des raisons de pure productivité.

 La perte des connaissances

De plus en plus de personnes ayant des rôles clefs dans des processus de traitement de l’information ne connaissent plus les notions de base qui sont désormais encapsulées dans des couches logicielles profondes et portées de génération en génération de systèmes sans que personne n’y touche plus.

De même, l’homme abandonne de nombreuses pratiques depuis qu’elles sont codées dans de nombreuses machines.

Qui connait aujourd’hui l’algorithme du banquier d’Edsger Dijkstra et présent dans tous les ordinateurs ? Qui d’ailleurs sait qui est ce personnage ? Qui sait aujourd’hui écrire un quicksort ?

Qui peut décrire aujourd’hui les méandres matériels et logiciels par lesquels passe un caractère entre le moment où on frappe une touche au clavier et celui où il est lu par une application ?

A quelle échéance ne saurons-nous plus effectuer de calcul mental ?

Certaines autorités envisagent l’abandon de l’apprentissage de l’écriture ! Quel impact sur la maîtrise du langage et la créativité ?

Il a été reconnu que la généralisation de l’informatisation du cockpit des avions transformait les pilotes en opérateurs du système de pilotage de l’avion entrainant ainsi une perte de culture des fondamentaux nécessaires au pilotage de base d’un avion.

Cet abandon progressif de notre connaissance parce que nous la figeons dans des dispositifs technologiques est un danger. De moins en moins de professionnels ont la culture élémentaire nécessaire à une bonne maîtrise de l’ensemble d’un système d’informations. Nous oublions de plus en plus certaines de nos connaissances de base au prétexte que des machines font le travail à notre place.

Bref, on ne sait plus faire le chemin du plus complexe au plus simple.

 Les croyances liées au déficit de formation

Peu de gens sont formés aux concepts logico-mathématiques nécessaires à une vision correcte du monde des machines. Trop de décideurs pensent que tout problème possède une solution optimale soluble par une méthodologie unique pouvant être implémentée sur une machine.

On automatise donc et… advienne que pourra. Au mieux, ça ne marche pas, au pire, ça entraîne une catastrophe.

Un exemple parmi d’autres est celui de ce que certains appellent les croisements de fichiers. Les mondes policier, financier et judiciaire en sont particulièrement friands. Ce genre d’opération est canonique dans les bases de données relationnelles et s’appelle une jointure. Lorsqu’elle est faite au sein d’un même système dans lequel chaque entité représentée en un ou plusieurs attributs a une définition unique, tout se passe bien. Le dérapage commence lorsque l’on joint des fichiers d’origines différentes, n’ayant pas été définis initialement dans les mêmes intentions et dont certains attributs, bien qu’identiques en apparence, ne recouvrent pas la même réalité dans deux systèmes d’informations distincts.

Le vrai danger est donc, non pas la prise de pouvoir par une quelconque intelligence artificielle, mais par la confiance de plus en plus aveugle que nous faisons dans des dispositifs parfaitement stupides et que nous ne maîtrisons plus tant ils sont devenus inextricables.

Pour terminer je mentionne trois axes (il y en a d’autres) susceptibles de contenir les dangers évoqués plus haut :

- limiter les enchainements d’automatismes sans intervention humaine ;
- maintenir la connaissance dans un format accessible à un cerveau humain ;
- former aux préceptes élémentaires de la Logique afin que les responsables ne se lancent dans des aventures absurdes où il y a plus à perdre qu’à gagner.

Notes :

[1On peut cependant faire de la preuve de programmes dans des cas relativement simples avec des méthodes appropriées et applicables uniquement dans les situations ainsi définies.


Forum
Répondre à cet article
Le dernier avatar de l’intelligence dite artificielle : le transhumanisme
Laurent Bloch - le 26 juin 2015

Le transhumanisme ne serait qu’une lubie fumeuse et une imposture scientifique de plus s’il n’était la doctrine officielle des dirigeants de Google, un opérateur géant de l’Internet, qui possède sur notre for intérieur un savoir d’une exhaustivité que George Orwell n’avait pas imaginée et qui échappe aux fiscalités et aux réglementations nationales avec une habileté que la maffia lui envie. Qui plus est, Google consacre une bonne par de ses revenus considérables à la tentative de réalisation du programme transhumaniste.

De qui s’agit-il ? De rien moins que de nous rendre immortels grâce à des prothèses informatiques destinées à réparer nos organes au fur et à mesure de leur détérioration par l’âge ou la maladie et à étendre nos capacités intellectuelles par la puissance de calcul d’implants informatiques. Bref, c’est un nouvel avatar de l’intelligence artificielle, vous pouvez donc lire à ce propos les textes de Jeremy Bentham (Le Panoptique), de Michel Foucault (Surveiller et Punir) et de Jared Diamond (Effondrement - Comment les sociétés décident de leur disparition ou de leur survie) auxquels elle fait référence.

Le dernier avatar de l’intelligence dite artificielle : le transhumanisme
Laurent Bloch - le 17 octobre 2015

Je suis persuadé que des méthodes informatiques, associées à d’autres approches, permettront de progresser dans la connaissance du fonctionnement du cerveau humain ou murin, et d’ailleurs des progrès considérables ont déjà été accomplis.

Cela ne signifie pas que l’on a réalisé une intelligence artificielle, ni même que l’on a compris ce qu’il faudrait faire pour y arriver. Ni même que l’on est capable de formuler le but à atteindre.

La définition de l’intelligence est une question qui prête à controverse, mais je crois que l’on peut être d’accord sur le fait qu’elle a à voir avec le sens que l’on accorde à des phénomènes. Un être humain, confronté à tel ou tel phénomène, va lui accorder un sens, qui d’ailleurs sera éventuellement différent du sens qu’en déduira un autre être humain. Ce qui fait que nous donnons du sens aux choses, aux événements, à nos relations avec autrui, c’est notre expérience, inséparable du fait que nous ayons un corps, qui éprouve des sensations, qui nous permet d’éprouver souffrance, douleur, plaisir, bien-être. Ensuite nous sommes capables de nous remémorer le sens que nous avons donné un jour à telle circonstance, de le combiner avec d’autres significations, et la recherche neurologique a justement montré que notre cerveau se reconfigurait au fur et à mesure de ces opérations, de façon dynamique, en d’autres termes que cela change tout le temps.

Si l’on réfléchit à ce qu’il faudrait faire faire à un ordinateur pour simuler ces processus, on tombe inévitablement sur cette question du sens, qui suppose que le système informatique envisagé soit capable d’interpréter et de produire le langage humain. Là les linguistes viennent à la rescousse des philosophes et des psychologues pour nous dire que c’est impossible.

Quelques livres pour faire le point sur le sujet : « Biologie de la conscience » de Gerald Edelman (un biologiste, prix Nobel, immunologue avant d’être neurologue), « Spinoza avait raison » d’Antonio R. Damasio, « Intelligence artificielle, mythes et limites » d’Hubert L. Dreyfus, avec la postface de Jacques Arsac pour la traduction française, ou encore « La Pertinence » de Deirdre Wilson et Dan Sperber.

Le bulletin « 1024 » de la Société informatique de France contient un article de Julien Lemoine et Simon Viennot intitulé « Il n’est pas impossible de résoudre le jeu d’échecs », qui explique assez clairement pourquoi la possibilité pour un programme d’ordinateur de battre un grand-maître aux échecs n’a rien à voir avec l’intelligence, explication généralisable à toutes sortes de problèmes traités aujourd’hui par des algorithmes.

Que devons-nous craindre de l’intelligence dite artificielle ?
Jean Rohmer - le 4 mars 2015

Même si je ne suis pas d’accord avec tout ce qui est dit dans cet article, c’est tellement rare mais rassurant de lire des propos critiques sur l’informatique en général et l’intelligence artificielle en particulier. On ne dénoncera jamais assez les charlatans de la "singularité".

Il me semble par ailleurs que les techniques pratiquées sous le nom d’IA sont quasiment les seules pistes d’amélioration de l’informatique. Qu’avons-nous d’autre pour améliorer l’informatique que les idées contenues dans LISP, PROLOG, la programmation par contraintes, la recherche -certes de complexité infinie- sur la compréhension du langage naturel ? Par ailleurs, ne tombons pas dans la définition injuste : "si ça marche, ce n’est plus de l’IA !"



pucePlan du site puceContact puceEspace rédacteurs puce

RSS

2004-2017 © Site WWW de Laurent Bloch - Tous droits réservés
Site réalisé sous SPIP
avec le squelette ESCAL-V3
Version : 3.87.59