Cet article est une suite pour Les Global Commons et l’Internet à la lumière d’Alfred Mahan, afin de tenir compte de remarques de lecteurs, et un petit compte-rendu de colloque, qui ne cherche pas à être complet : ainsi certains orateurs ne sont pas mentionnés, non par désintérêt, simplement parce que je ne suis pas le mieux placé pour exprimer leurs idées.
Pour une stratégie des conflits dans l’Internet
Le colloque du Forum Atena dont je vous entretenais, organisé par Gérard Péliks, avec Louis Pouzin, a eu lieu, ce fut un succès, avec beaucoup de monde et surtout des débats passionnés. Je note que certaines interventions avaient un parfum d’alter-mondialisme et d’anticapitalisme, et que l’anti-américanisme n’était pas totalement absent, le tout organisé par les associations Forum ATENA (plus précisément par son atelier sécurité), Eurolinc et le Medef Île-de-France, et sponsorisé par CB-Networks, Cassidian Cybersecuriy et INDOM/Netnames, à la satisfaction générale ; d’ailleurs Francis Behr, président de la seconde table ronde, à laquelle je participais, n’a pas manqué de remarquer que si de nombreux journalistes, intellectuels, ingénieurs et scientifiques s’étaient exprimés, la voix des entreprises avait été fort peu entendue ; j’aime à croire que cette ouverture d’esprit se manifeste aussi dans des forums d’orientation différente.
Invité un peu à la dernière minute, j’avais repris dans mon intervention le thème de mon article sur l’Internet et les espaces publics mondiaux à la lumière de Mahan : l’Internet joue dans la politique et l’économie mondiales un rôle comparable à celui des océans entre 1800 et 1930, et les États-Unis y occupent une position dominante analogue à celle de la Grande-Bretagne sur les mers à l’époque victorienne, cependant que les points d’échange de l’Internet (IXP) sont aussi importants stratégiquement que les Dardanelles et le canal de Suez l’étaient à cette époque. Il serait donc étonnant qu’un espace public d’une telle importance stratégique ne soit pas l’objet de rivalités et de conflits, et effectivement rivalités et conflits y éclatent.
Puisque conflits il y a, il faut envisager qu’ils puissent aller jusqu’à l’extrême, ne pas l’envisager serait une politique d’autruche. Et alors il faut savoir qu’une attaque électro-magnétique de nature à neutraliser tous les ordinateurs et consorts d’une zone comme la région parisienne provoquerait une catastrophe humanitaire de grande ampleur : plus d’eau, plus d’électricité, plus de transports publics, plus de ramassage des ordures, imaginez la situation au bout d’une semaine. Les industriels de l’armement étudient avec ardeur les moyens d’accomplir un tel résultat, voyez le numéro d’avril-mai de la revue DSI Défense et Sécurité Internationale. Imaginons une mise hors-service de l’Internet sur une zone géographique assez vaste, voire un pays : au bout de quelques jours, ce sont des milliers d’entreprises en faillite, des centaines de milliers de gens à la rue. De tels résultats ne peuvent sans doute pas être obtenus aujourd’hui, mais les armées du monde entier y pensent, n’en doutez pas.
Des lecteurs et auditeurs attentifs m’ont demandé de préciser mes propos : Valérie Schafer m’a demandé si je persistais à traduire Global Commons par « espaces publics mondiaux », ou s’il ne serait pas préférable de dire « espaces communs », ce qui aurait d’autres implications juridiques. Jusqu’à preuve de mon erreur, je persiste avec « espaces publics mondiaux », il s’agit bien d’espaces qui n’appartiennent à personne en particulier, et non pas d’espaces qui appartiennent à tout le monde ou à plusieurs co-propriétaires. Bien sûr, les infrastructures de l’Internet ont des propriétaires, comme les bateaux sur les océans et les ports sur leurs rives. Quant au DNS, il me semble qu’il peut être défini comme un bien public, à l’instar des phares et des balises, puisque c’est lui qui permet de naviguer sûrement sur l’Internet.
Pierre-Éric Mounier-Kuhn m’a fait observer que, certes, la pleine mer au-delà des eaux territoriales était un espace public mondial, mais que cela n’avait pas empêché d’y faire régner, dans une certaine mesure, le droit et la loi : interdiction de la traite des esclaves et de la piraterie, obligation d’immatriculation des navires et d’indication de leur port d’attache, de l’adresse de l’armateur, etc. L’instauration d’un droit de l’Internet selon des principes de ce type ne serait pas une aberration.
Enfin Kavé Salamatian est intervenu pour dire qu’il y avait bien des frontières dans l’Internet, mais qu’elles étaient à ce jour peu connues, parce que l’étude de la géographie de l’Internet n’en était qu’à ses tout débuts (il s’y emploie). Cette idée d’explorer les terras incognitas de l’Internet pour en réaliser la cartographie me semble particulièrement exaltante. Kavé a en outre rappelé que pour comprendre l’Internet les études techniques ne suffisaient pas, et qu’il fallait accorder toute sa place à la science des réseaux.
Une, deux, mille racines du DNS (?)
L’objet du débat, lancé avec son brio habituel par Louis Pouzin, était de savoir s’il était possible de s’affranchir de la mainmise de l’ICANN sur le DNS et par là sur l’Internet.
Bien sûr l’ICANN, après avoir entretenu depuis 1998 une rareté artificielle des noms de domaines du plus haut niveau (gTLD tels que .com ou .org et ccTLD tels que .fr ou .it), et en avoir tiré une rente considérable (des centaines de millions de dollars), entend maintenant en tirer encore plus, en lançant sur le marché quelques milliers de noms de domaines du plus haut niveau facturés 185 000 dollars pièce. L’ICANN est en outre totalement contrôlée par le gouvernement américain, qui a bien répété qu’il n’entendait nullement se départir de cette mainmise. Alors que faire pour vivre libre sur l’Internet ?
Louis Pouzin, d’accord en cela avec Karl Auerbach, dit que l’on n’a rien à faire de la racine unique de l’Internet : chacun peut configurer ses accès au réseau de façon à avoir tous les serveurs de noms de domaines qui lui plaisent, que cela marche très bien et qu’ainsi on est libre et indépendant. Les racines multiples de l’Internet se coordonneront les unes avec les autres, ou ne se coordonneront pas, selon les affinités de leurs administrateurs respectifs, et ainsi tout le monde sera content.
Certes, en théorie c’est bel et bon. C’est un peu oublier, me semble-t-il, que le succès extraordinaire à ce jour de l’Internet doit beaucoup à sa simplicité, qui permet à tout un chacun de s’y retrouver sans grande compétence technique, et j’ai formulé dans un autre article quelques objections à l’abolition de cette simplicité. Valentin Lacambre, architecte de l’Internet français de longue date et participant à la table ronde, a bien résumé le souci de beaucoup : « restons unis ! ».
D’expérience, s’il y a un domaine où un certaine centralisation des choses est nécessaire au bon fonctionnement, c’est celui des réseaux informatiques. L’Internet est très décentralisé, il y a juste la bonne dose de coordination là où il faut, y toucher pourrait briser cet équilibre. Il est certes délicat de contredire un expert tel que Louis Pouzin dans ce domaine, mais j’ai la faiblesse de penser que les serveurs racine associatifs auront du mal à obtenir une visibilité mondiale, or justement ce qui est formidable avec l’Internet, c’est que le blog des lycéens de Châtellerault est visible par des lycéens néo-zélandais ou tadjiks désireux d’apprendre le français. Le provincialisme, voire le villageisme à la Ivan Illich ne me semblent pas des idées séduisantes pour rêver à l’Internet de demain.