Précédent Suivant

Les origines sociales et culturelles d’Internet

p. 281-296


Texte intégral

1Tout le monde connaît la façon dont est né Microsoft : tout commence lorsque Bill Gates, alors étudiant à Harvard, et son ami d’enfance Paul Allen voient, en couverture du numéro de janvier 1975 de Popular Electronics, une photo de l’ordinateur personnel, l’Altair. Après s’être renseigné plus en détail sur cet ordinateur, Gates décide d’abandonner l’université et, accompagné de Paul Allen, part pour le Nouveau-Mexique, où a été construit l’Altair. Il y fonde Microsoft Corporation. B. Gates et P. Allen sont passionnés d’ordinateurs depuis l’enfance. Mais pour quelle raison n’ont-ils pas trouvé d’exutoire à leur enthousiasme à Cambridge, dans le Massachusetts, où ils étaient installés ? La réponse à cette question va nous permettre d’en apprendre davantage sur l’émergence du réseau Internet moderne en tant que point de jonction de forces sociales, politiques et techniques.

2Dans les années 1970, Cambridge et ses environs constituaient le centre nerveux des sciences informatiques. Au MIT, pas très loin de Harvard, les informaticiens travaillaient sans relâche sur le « Project MAC » : il s’agissait de rendre accessible l’informatique en ne se limitant pas au seul traitement des nombres. L’idée centrale du projet MAC consistait à permettre à plusieurs personnes d’exploiter la puissance d’un ordinateur en même temps, en tirant parti de la capacité de l’ordinateur à manipuler les informations bien plus vite que les utilisateurs qui interagissent avec lui.

3Environ 16 kilomètres à l’ouest de Harvard, en banlieue, étaient implantées plusieurs sociétés informatiques, dont Honeywell où travaillait Paul Allen, et Digital Equipment Corporation (DEC), la plus innovante. Cette entreprise a mis au point non seulement le premier mini-ordinateur, mais aussi le temps partagé sur un gros ordinateur : le PDP-10, que Bill Gates avait, par hasard, appris à programmer au lycée.

4Également située près de Harvard, l’entreprise de recherche Bolt, Beranek and Newman (BBN) signait un contrat avec l’Agence pour les projets de recherche avancée (l’Arpa), une division du département de la Défense américain, afin de développer des outils permettant de mettre en réseau plusieurs ordinateurs. En 1973, l’Arpanet reliait 38 ordinateurs situés dans tout le pays et connaissait une croissance rapide. Le réseau Arpanet allait plus tard rompre avec ses origines et le département de la Défense pour donner naissance au réseau que nous appelons aujourd’hui Internet1.

5Nous pouvons donc en conclure que B. Gates et P. Allen devaient avoir une vision très ambitieuse de l’informatique, vision que les différentes avancées intervenues dans la région de Boston ne pouvaient satisfaire. Pourtant, l’Altair avait peu de puissance, même comparé aux mini-ordinateurs qu’il était censé concurrencer. La plupart de ces lacunes ont été comblées par la génération d’ordinateurs personnels qui a succédé à l’Altair, notamment l’Apple II, commercialisé en 1977. Pourtant, une de ces lacunes, à savoir l’impossibilité de mettre en réseau les premiers ordinateurs personnels, a été laissée pour compte – la mise en réseau ne serait possible sur les ordinateurs personnels que bien des années plus tard. Se pose donc une seconde question : l’invention de l’ordinateur personnel, et dans son sillage, la création de Microsoft et d’autres entreprises de logiciels dédiées aux ordinateurs personnels, était-elle une simple déviation de la « trajectoire naturelle » de la recherche informatique, qui avait suivi une progression logique, en ayant recours aux ordinateurs centraux à temps partagé ? Cette évolution s’est inspirée des services publics d’électricité, qui disposaient de centrales électriques de grande taille reliées entre elles et chargées d’approvisionner en électricité les foyers, qui n’ont généralement pas la possibilité d’en produire par eux-mêmes.

6Avec le recul, nous savons désormais que le réseau Internet est une combinaison des deux modèles. C’est un service collectif, doté d’une importante ferme de serveurs stockant et restituant une grande quantité de données. Mais les outils au niveau du consommateur final ne sont pas si « simplistes » : ils présentent un grand nombre de capacités, notamment graphiques, qui ne sont pas exécutées par les serveurs centraux.

7Comment en est-on arrivé là ? Nous allons commencer par discuter brièvement de la technologie sous-jacente de l’Arpanet et de sa transition vers l’Internet. L’une des histoires les plus connues sur le réseau Internet débute en citant un pionnier de l’informatique qui espère que les historiens vont mettre fin au mythe, encore répandu, selon lequel Internet a été inventé pour protéger la sécurité nationale face à une attaque nucléaire. L’Internet tel que nous le connaissons aujourd’hui est né d’un projet financé par l’Agence pour les projets de recherche avancée (Arpa) du département de la Défense américain, mis en place en 1958 à la suite de la mise en orbite, l’année précédente, de Spoutnik par l’Union soviétique. Pratiquement toutes les versions retraçant l’histoire d’Internet affirment que le réseau créé par l’Arpa, Arpanet, est l’ancêtre du réseau Internet tel que nous le connaissons aujourd’hui. Quoique l’histoire selon laquelle Internet a été créé pour protéger d’une guerre nucléaire puisse être fantaisiste, personne ne remet en question son lien avec la guerre froide2.

8Arpanet doit beaucoup à Joseph Carl Robnett Licklider, un scientifique travaillant à Harvard qui, au début des années 1960, a compris l’importance d’utiliser l’ordinateur comme un outil de communication. En 1962, J. C. R. Licklider est nommé directeur du Bureau des techniques de traitement de l’information (IPTO) de l’Arpa et, grâce à de généreux financements, il s’efforce de concrétiser sa vision. Larry Roberts, qui rejoint l’Arpa en 1966, entend parler l’année suivante d’une méthode de communication appelée « commutation par paquets » qui présente de nombreux avantages par rapport à la façon dont AT&T achemine les informations sur son réseau. La commutation par paquet a été conçue, et l’expression forgée, par Donald Davies, un physicien britannique. Le concept a également été, de son côté, développé par Paul Baran, mathématicien travaillant chez Rand Corporation. Contrairement aux circuits téléphoniques traditionnels, ces paquets pouvaient être acheminés séparément vers leur destination, en empruntant des parcours différents et à différents moments, puis recomposés à l’arrivée. Bien que le temps système nécessaire à l’acheminement des paquets puisse sembler déraisonnablement élevé, la commutation par paquets, dans la pratique, s’est avérée une méthode de transmission des données informatiques plus performante. En 1967, le projet Arpanet est lancé. La première connexion est établie en 1969 ; en 1971, le réseau compte quinze nœuds reliés à travers les États-Unis. En octobre 1972, Robert Taylor et Robert Kahn de l’Arpa effectuent une démonstration à la Conférence internationale sur la communication informatique, à Washington DC. Cette démonstration est un succès. En 1983, le réseau évolue, passant d’un schéma initial de connexion entre ordinateurs à un ensemble de « protocoles » qui demeurent la technologie appliquée aujourd’hui. Ces protocoles, Transmission Control Protocol/Internet Protocol (TCP/IP) sont les fondements du fonctionnement d’Internet.

9Les composants de base du réseau que nous connaissons comme étant Internet sont les suivants :

  • un ensemble de canaux à capacité importante et sécurisés, appelé « dorsales », gérés par les compagnies de télécommunications ;

  • des réseaux locaux, régionaux et dédiés aux zones métropolitaines rattachés aux dorsales ;

  • des routeurs, commutateurs et autres matériels informatiques spécialisés qui acheminent le trafic au niveau des dorsales et des fournisseurs d’accès Internet ;

  • des logiciels : programmes de commutation, algorithmes, de même que des normes et des règles, permettant d’acheminer le trafic ;

  • un système politique de gouvernance et de gestion, dont l’Internet Corporation for Assigned Names and Numbers (ICANN), entre autres ;

  • des logiciels et matériels informatiques destinés à l’utilisateur final : un ordinateur personnel ou un portatif, un téléphone mobile ou un appareil spécialisé ; au nombre des logiciels nécessaires, citons les navigateurs, les programmes de messagerie instantanée et de courriers électroniques, les programmes de partage des fichiers, etc. ;

  • enfin, un modèle social et de gestion, qui fixe les normes relatives aux utilisateurs d’Internet : qui ils sont et quelles sont leurs attributions, et quels sont les organismes chargés de donner les autorisations pour détenir et gérer ses segments afin de rentabiliser leurs investissements.

10Le développement du protocole TCP/IP, et les théories y afférentes sur le routage, le contrôle des erreurs et la configuration des paquets constituent les apports du réseau Arpanet à la liste ci-dessus. La plupart des histoires font une large place à ces apports, mais accordent moins d’attention aux autres facteurs. Pourtant, ces autres composants de mise en réseau ont tout autant évolué.

11Aucun n’a autant évolué que le dernier, le composant culturel. C’est là que les ordinateurs personnels entrent en jeu. En 1977, alors que le PC en est à ses balbutiements, Alfred Glossbrenner3 publie un livre remarquable intitulé The Complete Handbook of Personal Computer Communications. Sa thèse était la suivante : si vous figuriez au nombre des « dizaines de millions » de personnes disposant d’un ordinateur personnel sans être connectées à l’un des nombreux services en ligne alors disponibles, vous passiez à côté de la dimension majeure de la révolution de l’ordinateur personnel. Dans cet ouvrage, l’auteur établit la liste de douzaines de services en ligne, et il estime qu’il existe au total plus de 1 300 bases de données en ligne auxquelles l’utilisateur d’un PC peut avoir accès. La plupart de ces bases de données ont vu le jour à l’époque des premières unités centrales et sont issues des services à temps partagé, destinés à mettre le traitement sur unité centrale à disposition de sites éloignés. À l’origine, il s’agissait de services spécialisés, accessibles à un nombre restreint d’entreprises et d’experts et généralement coûteux. Puis ces services sont devenus accessibles à tous à partir de la fin des années 1970, grâce à l’avènement de l’ordinateur personnel à un prix abordable. Le faible coût de possession d’un ordinateur a entraîné une augmentation de la demande pour ces services, puis un élargissement de l’offre de services à l’actualité, l’information des consommateurs, les conseils et services financiers, les critiques de cinéma et de restaurants, etc. Le nombre d’utilisateurs ayant accès à ces services augmentant, les fournisseurs ont été conduits à diversifier la nature des informations, ce qui a eu pour effet d’attirer de nouveaux clients. Le point de vue d’A. Glossbrenner a été repris par Alan Kay, du centre de recherche de Xerox à Palo Alto, qui a affirmé qu’un ordinateur est avant tout et surtout un outil de communication, et par Stewart Brand du Whole Earth Catalog, qui a déclaré : « La télécommunication constitue notre principe fondateur ». À l’époque où ces trois figures de l’histoire de l’informatique s’exprimaient, l’ordinateur n’avait pas pour principale vocation à être un outil de communication. S. Brand, A. Glossbrenner et A. Kay étaient des visionnaires, qui pensaient que leur mission consistait à donner réalité à ce monde4.

12Le propriétaire d’un PC accédait à ces réseaux via une procédure complexe. Il devait acheter un modem, le brancher à une ligne téléphonique, composer un numéro local et se connecter à des vitesses allant de 300 à 1 200 bits par seconde. Si le service n’était pas situé dans la zone d’appel local, l’utilisateur avait deux solutions : soit il composait un numéro longue distance et s’acquittait des frais longue distance auxquels s’ajoutait le coût du service ; soit il composait un numéro local mis à disposition par le fournisseur d’accès pour la plupart des indicatifs de zone, le fournisseur d’accès établissant alors la connexion aux ordinateurs centraux à distance via un réseau de données privées. Aux États-Unis, par tradition et de par la loi, les appels longue distance étaient facturés au temps de connexion, mais un appel local était facturé à un prix forfaitaire, indépendant de la durée de l’appel. Au début de l’ère informatique, AT&T décida de ne pas établir de distinction entre appel vocal et transmission de données. Dans la mesure où la plupart des gens possédaient un téléphone, cette méthode de connexion à un service semblait « gratuite ». La plupart de ces services exploitaient une base de données sur des ordinateurs centraux. Ces services étaient structurés selon un réseau en roue, revenant aux services à temps partagé dont ils étaient issus.

13Pour le fournisseur, le coût de création de numéros de téléphone locaux n’était pas négligeable. Arpanet n’était pas destiné à un usage commercial, mais plusieurs réseaux privés acheminaient les données selon sa méthode révolutionnaire, la commutation par paquets. Dans les années 1980, les deux fournisseurs les plus connus étaient Tymnet, à San Jose, en Californie, et Telenet, à Reston, en Virginie. Ce n’est pas une coïncidence si Larry Roberts, acteur majeur de la mise en œuvre du réseau Arpanet, a été le premier président de Telenet, tandis que Douglas Engelbart, l’inventeur de la souris, a travaillé chez Tymnet.

14CompuServe et American Online comptaient parmi les prestataires les plus importants. En 1984 fut créé un service dénommé Prodigy, avec le soutien de CBS, IBM et Sears. Ce service déterminait les numéros de téléphone locaux de la majorité des zones métropolitaines et proposait une offre incluant des ordinateurs personnels, des modems et des logiciels de communication pour aider les consommateurs à débuter. Prodigy se démarquait des autres services par son utilisation de l’infographie, à une époque où les PC fonctionnaient sous le système d’exploitation DOS avec une interface texte uniquement et où les débits des modems étaient très lents. Pour contourner ces obstacles, le logiciel Prodigy préchargeait une interface graphique sur l’ordinateur de l’utilisateur. Les annonceurs publicitaires disposaient ainsi d’un environnement enrichi pour diffuser leurs publicités auprès des abonnés de Prodigy. Les publicités devaient compenser la majeure partie des coûts, Prodigy tablant sur le fait que les abonnés n’y verraient pas d’inconvénients si cela permettait de baisser le montant de l’abonnement mensuel. Ainsi, Prodigy a anticipé l’un des modèles d’entreprise du Web, lorsque les ordinateurs personnels seraient alors capables de gérer plus facilement les graphiques. Les travaux de Prodigy ont influencé le Web actuel très riche en graphisme et en publicité – certains diraient surchargé de publicité.

15Ce phénomène est intervenu dans l’ignorance quasiment complète d’Internet. Le catalogue révolutionnaire de Stewart Brand, Whole Earth Software Catalog, publié en 1984, ne fait à aucun moment référence à Internet. Pas plus que A. Glossbrenner dans les premières éditions de son livre. Pourtant, Internet possède un avantage bien particulier par rapport aux autres réseaux : il a, dès le départ, été conçu pour relier des réseaux hétérogènes. Très peu de réseaux, si ce n’est aucun, s’y sont intéressés – c’est même généralement le contraire qui s’est produit, les administrateurs de réseaux souhaitant préserver l’exclusivité5.

16La décision de l’Arpa de financer l’intégration du protocole TCP/IP dans le système d’exploitation Unix a également joué un rôle essentiel – il faut toutefois noter que si Unix était très utilisé par les départements informatiques universitaires, il n’en allait pas de même pour les ordinateurs personnels. Au début des années 1980, l’Arpa a soutenu un projet de l’université de Californie, Berkeley, visant à développer une version d’Unix intégrant directement les protocoles. La programmation a été pilotée par un jeune informaticien du nom de Bill Joy, et cette version, appelée 4.2 Berkeley Software Distribution (4.2BSD), a été publiée en août 1983. En 1983, donc, lorsque le réseau Arpanet passe au protocole TCP/IP, tout un travail préparatoire a déjà été effectué pour mener à bien la transition6.

17Les réseaux privés n’étaient pas connectés à Arpanet. Sur les campus universitaires bénéficiant d’une connexion, l’accès était limité. Dans de nombreuses écoles, les membres des départements informatiques eux-mêmes se sentaient exclus de cette exceptionnelle avancée. C’est pourquoi l’un des premiers réseaux externes à avoir été connecté à Arpanet a été construit à l’intention des informaticiens, notamment ceux qui n’avaient pas signé de contrats avec le département de la Défense. Au début de l’année 1981, CSNET fut inauguré : il utilisait des connexions téléphoniques à faible coût et à accès commuté, et était destiné aux lycées ayant des budgets réduits. Le réseau CSNET n’a duré qu’une décennie, mais il occupe une place importante dans l’histoire de l’informatique. Ce fut l’un des premiers réseaux à se pencher sur le problème du coût, problème auquel étaient confrontés les petits lycées et universités dont les budgets étaient modestes et qui n’avaient pas accès aux financements du département de la Défense. Il a été le précurseur de l’interconnexion de types de réseaux différents : le réseau commercial Telenet, Arpanet et un réseau basé sur un simple accès téléphonique commuté. Ce fut aussi l’occasion d’effectuer un test préliminaire des capacités du protocole TCP/IP, à une époque où arrivaient sur le marché des protocoles concurrents7.

18Les chercheurs d’autres campus ont développé des réseaux similaires, dont certains ont atteint un haut niveau de perfectionnement. Ils seront également ultérieurement connectés à Internet. Leur conception différait souvent d’Arpanet, ce qui rendait encore plus difficile l’interconnexion. Parmi ces réseaux, deux méritent que l’on s’y arrête brièvement : BITNET et Usenet. BITNET a été créé en 1981 dans le but de relier les ordinateurs centraux IBM System/370. La communication utilisait une fonctionnalité permettant à l’ordinateur de lire un message comme s’il s’agissait d’un paquet de cartes perforées lues à partir d’un site éloigné. Ce site était mis à disposition des étudiants et des universités, des sciences humaines aux sciences. Au moment même où CSNET permettait aux informaticiens de se connecter en réseau, BITNET offrait un accès en réseau à de nombreux autres utilisateurs, que ce soit dans les universités ou les institutions de recherche qui n’y avaient pas accès. L’un des plus connus est le groupe de discussion « Listserv » particulièrement en vogue chez les étudiants et dans les facultés des sciences humaines. Usenet est né en 1980, selon le même principe : il reliait les universités de Duke et de la Caroline du Nord. Alors que BITNET fonctionnait sur des ordinateurs centraux IBM exploitant le système d’exploitation VM, Usenet reliait des ordinateurs fonctionnant sous Unix. Ceci est d’une grande importance pour les personnes qui se situent à l’autre extrémité du réseau BITNET : les programmeurs. En raison de la dimension de Berkeley Distribution, Berkeley Unix était le système d’exploitation privilégié pour équiper le matériel de commutation destiné à Internet. Les gens qui programmaient le logiciel devaient maîtriser le langage Unix. Ils passaient beaucoup de temps à discuter de programmation et autres sujets y afférents sur les groupes de discussion de Usenet. Usenet était bien connu de ces groupes, qui passaient pour avoir une plus grande liberté de pensée que ceux intervenant sur BITNET.

19En janvier 1983, les protocoles TCP/IP furent déployés sur l’ensemble des nœuds Arpanet. Le réseau fut décomposé en deux sous-réseaux : MILNET, qui était dédié aux opérations militaires, tandis qu’Arpanet devenait un réseau dédié à la recherche. Ces deux réseaux étaient gérés par le département de la Défense. Certaines données à caractère restreint pouvaient circuler de l’un à l’autre, grâce à une unité appelée « passerelle » : un mini-ordinateur configuré pour acheminer les messages d’un réseau à un autre. Le logiciel fonctionnant sur la passerelle contenait également des informations de routage qui déterminaient la destination des paquets et le parcours à suivre. La passerelle fut ensuite remplacée par un « routeur », la détermination de la destination des paquets devenant un paramètre de plus en plus important. Comme la notion de commutation par paquets et le protocole TCP/IP, le routeur a été, et demeure, un élément clé de la mise en place d’Internet.

La National Science Foundation

20L’objectif premier de la National Science Foundation consistait à fournir un accès à des super-ordinateurs, chers et rares. Dans une interview de 1995, C. Gordon Bell, qui faisait partie de la NSF à cette époque-là, a laissé entendre que la NSF savait que le réseau qu’elle finançait ne serait pas uniquement limité à l’accès aux super-ordinateurs.

« [le NSFNET] était destiné aux super-ordinateurs. Pourtant, tous les spécialistes des réseaux savaient que les super-ordinateurs ne constituaient pas la cible. Il n’y avait pas de demande. Nous savions que les super-ordinateurs nécessitaient de la bande passante, ils avaient besoin de communiquer, mais même en essayant de pousser les gens à les utiliser, ceux-ci préféraient leurs propres ordinateurs8. »

21L’important était d’avoir un réseau qui fonctionne, même à bas débit, et de tirer parti du soutien des utilisateurs du réseau pour militer en faveur d’une augmentation des débits. En 1987, la NSF a conclu un contrat pour remplacer la dorsale d’origine par une nouvelle dorsale dont le débit, « T1 », était de 1,5 million de bits par seconde (Mb/s). En 1992, la vitesse de transmission du NSFNET était portée à 45 Mb/s – « T3 ». Arrivée à maturité, la technologie à fibre optique a supplanté les anciens canaux hertziens et en cuivre, s’engageant sur la voie d’une course à la croissance exponentielle des débits. Vers 1983, le premier câble à fibre optique est installé entre New York et Washington, et en décembre 1988, le premier câble à fibre optique transatlantique relie le continent américain au continent européen, offrant des vitesses pouvant aller jusqu’à 560 Mb/s. À la fin des années 1990, la vitesse de transmission des dorsales se mesurait en multiples de T3 – par exemple, Optical Carrier-3 (OC-3) équivalait à trois lignes T3, etc. À l’orée du nouveau millénaire, les vitesses de transmission C-192 étaient tout à fait courantes. En comparaison, la première génération de satellites commerciaux lancée dans les années 1970 disposait de transpondeurs embarqués correspondant à quelques lignes T3 chacun. Les relais hertziens au sol disposaient d’une bande passante équivalente – le canal hertzien le plus rapide avait une capacité d’une demi-douzaine de lignes T3 ou équivalent. Le passage aux communications à fibre optique est sans aucun doute un autre moteur d’Internet commercial.

22Le contrat signé par la NSF en 1987 fut attribué à deux entreprises et un consortium. Selon l’histoire officielle, « IBM était chargé du matériel informatique et des logiciels destinés au réseau à commutation par paquets et à la gestion du réseau, tandis que MCI fournissait les circuits de transmission de la dorsale NSFNET… ». On se serait attendu à ce qu’IBM ne soutienne qu’un réseau utilisant son architecture de réseau unifiée propriétaire, mais IBM accepta la décision d’utiliser le protocole TCP/IP. Plus intéressant encore fut le rôle de MCI, la société qui a fourni la dorsale à la NSF. Désormais filiale de Verizon, MCI est aujourd’hui encore le principal exploitant du trafic de la dorsale d’Internet. Sa suprématie a débuté avec ce contrat. La société est issue d’une entreprise fondée en 1963 afin de fournir une liaison hertzienne privée entre Chicago et Saint-Louis. AT&T a livré une bataille acharnée à MCI, et ce n’est qu’en 1971 que MCI a pu mettre en place ce service. MCI s’est finalement imposée, devenant la première entreprise ne dépendant pas d’AT&T à proposer des services longue distance aux consommateurs. Après sa victoire, et devenu célèbre dans le monde professionnel pour sa ténacité, MCI a changé peu à peu de cap. Au moment même où pratiquement tout son chiffre d’affaires reposait sur le trafic vocal longue distance, MCI a constaté que la rentabilité de cette activité diminuait, tandis que le trafic des données par commutation par paquets connaissait une croissance exponentielle. La société avait également eu connaissance du nouveau modèle de pensée de Vint Cerf, coauteur de protocoles Internet, qui y avait travaillé entre 1982 et 1986. V. Cerf continuait à se faire l’apôtre d’Internet et de ses protocoles, comme il l’avait fait, avec Robert Kahn, lorsqu’il travaillait à l’Arpa9.

23Les différents fournisseurs livrèrent une dorsale T1 à la NSF au milieu de l’année 1988. En 1990, le réseau reliait environ 200 universités, de même que divers autres réseaux du gouvernement américain. L’expansion était rapide. BITNET et Usenet établirent des connexions, comme le firent de nombreux autres réseaux nationaux et internationaux. Une fois ces connexions en service, le réseau d’origine Arpanet devint obsolète et fut démantelé en 1990. CSNET disparaissait l’année suivante. Les nœuds restants furent basculés sur le NSFNET le cas échéant. C’est sous cette forme que la dorsale NSF est devenue la base d’« Internet » : un réseau constitué de réseaux hétérogènes. Entre 1987 et 1990, ce nom s’est répandu, même si en dehors du monde universitaire, l’événement est plutôt passé inaperçu.

24La topologie du réseau NSF était différente de celle d’Arpanet. Sa dorsale traversait le pays et reliait seulement 14 nœuds à des vitesses de transmission T1, alors qu’Arpanet comptait 60 nœuds en 1979. Ces nœuds se composaient eux-mêmes d’ensembles de réseaux régionaux regroupant des réseaux d’universités, en dessous desquels se trouvaient des réseaux locaux qui pouvaient couvrir un bureau ou un département universitaire. Il s’agissait d’une structure en arborescence, comportant des connexions physiques à la dorsale limitées à quelques branches. Cette structure permettait au réseau de se développer sans devenir trop complexe et s’écartait de la notion initiale d’un réseau réparti conçu pour survivre à une attaque nucléaire. Dans la pratique, cette structure est relativement bien conçue. Le terme « dorsale » est inapproprié : en fait, plusieurs dorsales fonctionnent en même temps, chacune étant reliée aux autres en différents points et chacune capable de traiter le trafic de l’autre en cas d’attaque ou de panne.

25Elle coïncide avec une innovation que n’avaient pas prévue les pionniers d’Arpanet, à savoir l’invention et la généralisation des réseaux locaux (LAN). Ces réseaux, et plus spécialement Ethernet, reliaient les postes de travail et les ordinateurs personnels en offrant des liaisons à grande vitesse, et couvraient généralement un bureau ou un département universitaire. En dehors des foyers, où les connexions Internet sont intervenues plus tard, la plupart des utilisateurs avaient donc accès à Internet par l’intermédiaire d’un ordinateur de bureau ou d’un poste de travail connecté à Ethernet, qui étaient eux-mêmes connectés à un réseau régional puis à la dorsale NSF ou à ses successeurs.

26Les réseaux commerciaux furent autorisés à se connecter à la dorsale, mais le trafic était bridé par les principes de la « politique d’utilisation acceptable » de la NSF. Le Congrès américain ne pouvait pas accepter que la NSF finance un réseau dont d’autres intervenants se servaient pour réaliser des bénéfices. La politique spécifiait notamment :

« Principe général.
Les services NSFNET ont vocation à soutenir la recherche et l’enseignement au sein des institutions de recherche et d’enseignement américaines, ainsi que les départements de recherche d’entreprises lucratives impliqués dans la recherche et la communication universitaires ouvertes. L’utilisation à d’autres fins est inacceptable.
Utilisations acceptables spécifiques :
[…]
Communication et échanges destinés au développement professionnel, afin d’assurer la diffusion ou de débattre de thèmes afférents à un domaine ou sous domaine du savoir.
[…]
Communiqués portant sur de nouveaux produits ou services destinés à la recherche ou l’enseignement, mais en aucun cas des annonces publicitaires.
Communications liées à d’autres utilisations acceptables, à l’exception d’utilisations illégales ou spécifiquement inacceptables.
Utilisations inacceptables :
Utilisation au titre d’activités lucratives…
Utilisation massive dans le cadre d’une activité privée ou personnelle…
Ce principe ne concerne que la dorsale NSF. La NSF attendait des réseaux qui s’y connecteraient qu’ils élaborent leur propre politique d’utilisation10… »

27Même une personne sans connaissance spécifique du droit peut s’apercevoir que les termes employés ont été soigneusement choisis. Il est intéressant d’étudier la façon dont la NSF a traité le concept des courriels. En 1988, la National Science Foundation autorise MCI à relier son service de messagerie MCI au réseau, initialement à des « fins de recherche » – afin d’étudier la faisabilité de connecter un service de messagerie commercial. Vint Cerf s’était penché sur le développement d’une messagerie MCI lorsqu’il travaillait dans cette entreprise. La connexion MCI permettait à ses clients de se connecter à Internet. Peu de temps après, CompuServe et Sprint mettaient en place une connexion similaire. Que ces connexions soient à vocation de « recherche » ou pas, elles étaient de toute manière très populaires.

28La nécessité d’élaborer une politique d’utilisation acceptable s’est donc imposée. Cette politique répondait également à une nécessité technique. La topologie du réseau NSF encourageait les réseaux régionaux à se connecter à la dorsale de la NSF. Les entrepreneurs ont créé des réseaux privés et commencé à vendre des services réseau, comptant sur la connexion à la dorsale pour acquérir un rayonnement national, voire mondial. Le tableau s’est révélé plutôt déconcertant : un ensemble de réseaux commerciaux connectés à un réseau financé par le Gouvernement, dédié à la recherche et qui interdisait l’utilisation à des fins commerciales. Cette situation s’est traduite par un assouplissement de la politique d’utilisation acceptable. La formulation utilisée lors d’un amendement au Scientific and Technology Act de 1992, qui portait sur l’autorisation de la National Science Foundation, a marqué un tournant. Cette loi a été adoptée et promulguée par le président George H. W. Bush le 23 novembre 1992. Voici le texte intégral du paragraphe (g) :

« Aux termes de la sous-section (a) (4) de la présente section, la Fondation est autorisée à promouvoir et à soutenir l’accès des communautés de la recherche et de l’enseignement aux réseaux informatiques qui peuvent être utilisés de façon significative à des fins venant en sus de la recherche et de l’enseignement dans les sciences et l’ingénierie, si ces utilisations additionnelles tendent à accroître les capacités globales des réseaux à soutenir les activités de recherche et d’enseignement11. »

29Le passage essentiel est venant en sus… . Ces trois mots ont signé la naissance du réseau Internet12.

30Avec l’assouplissement de la politique d’utilisation acceptable, le rôle de la NSF d’assurer le fonctionnement de la dorsale a progressivement disparu. En 1993, l’agence a conclu un accord afin de remplacer sa dorsale par un service géré par MCI. Ce réseau allait devenir l’une des diverses dorsales commerciales auxquelles les réseaux régionaux pouvaient se connecter. Ces dorsales étaient reliées en un nombre de points limités, appelés points d’accès au réseau (NAP). À l’origine, on en comptait quatre seulement : deux sur la côte Est, un à Chicago et un autre dans la Silicon Valley. Ces points devinrent des centres de concentration importants des fournisseurs de services Internet et furent décrits comme « une alternative judicieuse au système précédent » – une série de connexions point à point coûteuses entre les dorsales des différents prestataires Internet (ces points devinrent en fait rapidement des goulets d’étranglement et d’autres connexions furent bientôt créées). Ces sites sont devenus des espaces où les fournisseurs de services Internet établissaient également des relations entre eux et concluaient des accords d’appairage par lesquels chaque fournisseur d’accès Internet s’engageait à ne pas facturer à un pair le trafic acheminé via son réseau dans la mesure où le trafic était régulier sur le long terme. Les fournisseurs de services Internet ont ainsi remplacé les réseaux régionaux à but non lucratif qui constituaient le second niveau de la topologie Internet de la NSF.

Conclusion

31Pour conclure cette présentation du passage à un réseau Internet commercial, il convient d’aborder un dernier élément. À cette occasion, le rôle de la NSF a pour la seconde fois été critiqué. Outre un accord sur le protocole TCP/IP et autres protocoles, Internet doit disposer d’une structure d’adressage commune. On peut à ce titre établir une analogie, non pas avec les autoroutes, mais avec le réseau téléphonique. Tout un chacun est libre de mettre en place un réseau téléphonique. Pour autant que celui-ci respecte les normes en matière d’électricité, ce réseau peut être relié au réseau téléphonique américain. Mais si une personne désire appeler ou être appelée par quelqu’un du réseau, il est préférable que son indicatif de zone et son numéro de téléphone ne soient pas également attribués à quelqu’un d’autre. De même, un service Internet commercial, comme amazon.com, par exemple, doit préserver l’exclusivité de son adresse13.

32Durant les années 1970 et au début des années 1980, Arpanet possédait un fichier simple, dénommé HOSTS.TXT qui référençait l’adresse numérique de chaque ordinateur relié au réseau. Le fichier était mis à jour au gré des ajouts, retraits ou modifications. Une copie du fichier était sauvegardée au niveau de chaque ordinateur, et les gestionnaires des nœuds étaient également responsables du téléchargement de la dernière version sur leurs ordinateurs. Au début, HOSTS.TXT était un fichier simple et de petite taille. Ce mode de gestion a parfaitement fonctionné tant que le réseau est resté de taille modeste. Il y avait des inconvénients manifestes, notamment la nécessité pour les gestionnaires de télécharger la dernière version du fichier, mais le principal problème résidait dans le fait qu’il s’adaptait difficilement à l’évolution du réseau. Alors que le réseau Arpanet grandissait, la taille du fichier HOSTS.TXT grandissait simultanément, et la procédure répétitive de téléchargement du fichier devint vite ingérable.

33Au début du mois d’août 1982, Zaw-Sing Su, Jonathan Postel, Paul Mokapetris et d’autres proposèrent de remplacer ce système par une convention d’affectation des noms hiérarchisée, qui prit le nom de Système des noms de domaine (DN). L’avantage d’un tel système réside dans le fait qu’une recherche n’a pas besoin de remonter à la « racine », sauf si le répertoire de niveau inférieur ne possède pas l’information demandée. À l’origine, la racine de cet arbre était un nœud appelé « Arpa », qui reprenait les anciennes adresses d’Arpanet. Internet évoluant, cette structure a progressivement disparu pour faire place à un ensemble de huit « domaines de premier niveau » : .com, .edu, .mil, .net, .org, .gov et .int. La plupart d’entre vous les connaissez bien, à l’exception peut-être du dernier. Ce domaine, réservé aux organisations internationales régies par un traité, fut par la suite remplacé par un code pays à deux lettres, tel que stipulé par les conventions ISO, par exemple « .fr » pour la France. Le nom de domaine des États-Unis est devenu « .us ». Les lettres utilisées pour désigner les pays hôtes étaient limitées à un sous-ensemble de caractères ASCII et aux 26 lettres de l’alphabet anglais. Cette décision semblait évidente à une époque où il existait très peu de nœuds à l’extérieur des États-Unis et où les ordinateurs avaient une capacité mémoire limitée. Mais cette décision, prise pour des raisons techniques, aurait par la suite certaines répercussions, lorsque le réseau Internet allait avoir un rayonnement mondial et devenir vital pour le commerce de pays qui utilisaient non seulement les lettres accentuées de l’alphabet latin, mais aussi des alphabets différents.

34Internet a commencé à se convertir à cette structure en 1984. La conversion a été achevée en 1987. La conception technique en était brillante. Elle permettait d’ajouter, supprimer et modifier des adresses, sans qu’il soit besoin d’accéder au serveur racine primaire. Ce fut la fin du fichier unique qu’il fallait télécharger et mettre à jour régulièrement. De plus, il s’adaptait facilement aux évolutions. D’un point de vue social, ce système a bien fonctionné tout au long de la phase de croissance initiale et non commerciale d’Internet. À la fin de 1992, le nombre d’adresses universitaires (.edu) excédait le nombre de nœuds commerciaux (.com), d’environ 370 000 à 304 000. Les deux réunis dépassaient largement tous les autres noms de domaines. Après l’amendement de la politique d’utilisation acceptable, la balance a penché vers les sites .com. Les adresses Internet ont commencé à se compter en millions. Les noms ont acquis une valeur monétaire, phénomène qui n’avait pas été prévu à la création du DNS. Durant la période d’inflation de la bulle Internet à la fin des années 1990, un second marché a vu le jour, où les noms de domaines tels que « business.com » étaient négociés pour des valeurs totalement aberrantes. Quand les gens ont pris conscience de l’iniquité du système, celui-ci était déjà bien installé et donc difficile à modifier.

35Il demeurait encore la question de savoir à qui reviendrait la responsabilité de la gestion du registre des noms et numéros. La question ne se posait pas pour le réseau Arpanet financé par le département de la Défense, et à la naissance de NSFNET, il semblait logique que la NSF en prenne la responsabilité. Le département de la Défense conservait le contrôle des adresses de MILNET, et donc du nom de domaine .mil. Il a cependant également conservé le contrôle du reste du réseau NSFNET pendant un certain temps. Pour obtenir une adresse de nom de domaine, il convenait d’en faire la demande auprès d’InterNIC, qui l’accordait à condition que les critères requis soient remplis. Cette procédure était gratuite. Les pays étrangers limitant souvent l’utilisation de leur code pays, de nombreuses entreprises étrangères décidèrent donc de s’enregistrer simplement à l’adresse .com, lorsqu’elle était disponible.

36En 1993, la NSF prit officiellement la relève du département de la Défense – ce qui donna lieu à la décision sur la politique Internet la plus contestée de son histoire. L’année précédente, le contrôle du DNS avait été transféré à Government Systems Inc. (GSI), une société basée à Washington. En janvier 1993, la National Science Foundation signa un contrat avec une autre société, Network Solutions, Inc., portant sur la gestion de l’enregistrement de cinq des domaines de premier niveau : .com, .org, .net, .edu et .gov. L’enregistrement était gratuit, la NSF prenant en charge les frais occasionnés. Deux ans plus tard, Science Applications International Corporation (SAIC), un sous-traitant du département de la Défense basé à San Diego, racheta Network Solutions ; peu de temps après, la société renégociait son contrat avec la National Science Foundation en vue de facturer une commission annuelle pour l’enregistrement du nom de domaine. Les adresses .com devenant ainsi des produits de valeur, ce changement de politique fit soudainement de Network Solutions une entreprise rentable (en 2000, juste avant l’éclatement de la bulle, SAIC vendit son activité d’enregistrement à Verisign, un bénéfice estimé à 3 milliards de dollars).

37Jonathan Postel ne fut pas le seul à s’opposer à cet accord. Ces détracteurs proposèrent d’ajouter de nouveaux domaines de premier ordre et de laisser les autres entreprises se concurrencer. Cette suggestion ne fut pas retenue, et l’accord avec Network Solutions a perduré après l’avènement du nouveau millénaire. La controverse a couvé durant les années suivantes et conduit à la création d’une nouvelle entité, l’Internet Corporation for Assigned Names and Numbers (ICANN) en 1998, qui est désormais considérée comme l’entreprise administrant Internet pour tous les aspects pratiques14.

38Par leurs récits, les historiens tentent de donner un sens aux événements passés. Sans ces récits, les événements semblent aléatoires, chaotiques et totalement dénués de sens. Il revient toutefois à l’historien d’élaborer un récit qui reste fidèle aux faits. La création d’Internet se comprend mieux en associant deux histoires. L’une retrace la progression continue des réseaux des gros ordinateurs, grâce aux fonds conséquents du département de la Défense américain et de différentes agences gouvernementales, aux États-Unis et ailleurs. L’autre, symbolisée par Bill Gates quittant Harvard pour écrire un logiciel destiné aux ordinateurs personnels, raconte l’histoire de la quête d’une communauté humaine et d’une communication interpersonnelle, favorisée par la baisse constante des coûts de la puissance informatique. À l’origine, ces histoires n’avaient pas de point commun et leurs acteurs n’ont peut-être même pas été conscients du rôle qu’ils jouaient dans l’histoire en parallèle. Mais celles-ci étaient bel et bien convergentes. Cette convergence a conduit à l’émergence d’Internet, un outil puissant qui n’a pas seulement balayé les réseaux existants ou les systèmes de communications alternatifs, mais a également acquis une double personnalité combinant commandement et contrôle militaire avec anarchie et libre pensée de la contre-culture des années 1960. C’est pour cette raison cachée qu’Internet influence aussi fortement la culture et le commerce modernes.

Notes de bas de page

1 J. C. R. Licklider, “Man-Computer Symbiosis”, IRE Transactions on Human Factors in Electronics 1(1960), p. 4-11; J. C. R. Licklider and W. C. Clark, “On-Line Man-Computer Communication”, AFIPS, Proceedings Spring Joint Computer Conference (1962), p. 113-128 ; J. C. R. Licklider, with R. C. Taylor, “The Computer as a Communication Device”, Science and Technology 76 (1968), p. 21-31.

2 J. Abbate, Inventing the Internet, Cambridge, MIT Press, 1999, 272 p.

3 A. Glossbrenner, The Complete Handbook of Personal Computer Communications, New York, St Martins Pr, (1983)1989, 405 p., p. XIV.

4 S. Brand, éd., Whole Earth Software Catalog, New York, Doubleday, 1984, p. 139.

5 D. P. Siewiorek, C. G. Bell et A. Newell, Computer Structures : Readings and Examples, New York, 1982, p. 387-438. S. Brand, Whole Earth…, op. cit., p. 138-157.

6 W. Joy et J. Gage, “Workstations in Science”, Science, 25 avril 1985, p. 467-470.

7 D. Comer, « The Computer Science Research Network CSNET : A History and Status Report », CACM 26, octobre 1983, p. 747-753.

8 C. Gordon Bell, entretien avec David Allison, avril 1995, Smithsonian Institution, National Museum of American History, Oral history Collections, accessible électroniquement depuis le 4 mai, 1996.

9 National Science Foundation, « NSFNET », p. 9.

10 Ed. Krol, The Whole Internet User’s Guide and Catalog, Sebastopol, CA, O’Reilly, 1992,
416 p., Appendix C.

11 42 United States Code (USC) 1862, paragraphe g, souligné par moi-même.

12 Site du député Rick Boucher, www.boucher.house.gov (consulté en juin 2006, fermé depuis. Consultable à http://web.archive.org/web/20101202011922/http://www.boucher.house.gov/).

13 U.S. National Research Council, Signposts In Cyberspace : the Domain name System and Internet Navigation, Washington, DC, 2005, chapitre II.

14 K. Hafner, “Jonathan Postel is Dead at 55 ; Helped Start and Run Internet”, New York Times, 18 octobre 1988.

Précédent Suivant

Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.