Web 1, 2, 3...

Relier les sites.

Les premiers centres de calcul issus des projets secrets de l’immédiate après Seconde Guerre mondiale, possèdent un, puis deux, puis plusieurs calculateurs, installés par ce que l’on appellera le complexe militaro universitaire Nord-Américain, qui ne demandera qu’à s’industrialiser.

Ils sont consacrés aux calculs scientifiques, de ceux qui concernent des masses critiques et des trajectoires d’impact. Les guerres froides et chaudes « justifient » que dans, chaque endroit où l’on trouve de la matière grise, les grandes universités et les laboratoires, les savants disposent de ces nouveaux moyens de travailler plus vite, plus précisément et de façon mieux contrôlée.

La transition entre le calculateur et l’ordinateur n’est ni flagrante ni brutale, elle provient principalement de la façon de programmer la machine. Pour nombre d’historiens, c’est le fait d’interposer entre l’opérateur et les circuits une couche programmable qui crée la différence. Ce qui génère les notions de langages et de logiciels.

La machine devient plus souple d’emploi, on cesse d’utiliser des clefs et des interrupteurs pour passer aux cartes perforées puis aux bandes. Les réponses commencent progressivement à arriver sous des formes directement compréhensibles et transmissibles. Justement, puisque le message se fait plus clair, à partir du moment où l’on dispose de deux machines ou plus, il devient évident que les coursiers et les estafettes avec leurs notes écrites ne suffisent plus à étancher les besoins en communications !

On trouva donc utile de relier les machines entre elles, ce qui constitua les réseaux locaux. De rapides progrès en fiabilité et en puissance poussèrent la création, dès les années 1950, d’un dispositif d’interconnexion des plateformes locales informatiques militaires, scientifiques et universitaires. Logique, car toutes travaillaient en commun et de concert pour la DARPA.

La première ébauche de maillage fut fonctionnelle et peu ludique. Ce tout premier Internet répondait aux besoins et sa structure filaire parut, dans un premier temps, suffisante pour s’envoyer des documents, correspondre, allumer la bonne loupiote, donner les coordonnées d’un avion. Cette période, pointue, peu ouverte et très spécialisée, est dépeinte de façon primesautière par Stanley Kubrick dans « Docteur Folamour® ». C’est l’époque des grosses machines clignotantes, des bandes tournant dans tous les sens, des cliquetis des perforatrices, des liaisons téléphoniques.

Elle change sous l’impulsion de deux inventions majeures : les modems qui convertissent les signaux de façon à pouvoir profiter de l’infrastructure téléphonique et les terminaux individuels aux écrans cathodiques affichant des lignes de caractères vertes blafardes.

L’avez-vous remarqué ?

Dès lors, les jonctions ne sont plus spécifiques, elles utilisent une infrastructure publique, les câbles du téléphone ! A ce moment, naît l’Internet dans son principe majeur : l’accessibilité. Et dans ses travers, car on ne sait plus dès lors qui accède à quoi et pour quoi faire.

Ce modèle fait de machines centralisées et de terminaux asservis fonctionne si bien qu’il séduit aussitôt les industriels, les économistes, les médias, les financiers et se diffuse dans le bloc de l’Ouest, profitant de la montée en puissance de l’informatique partout, puis pour tous. Ce dernier point est la clef de tout : en se popularisant, l’ordinateur doit devenir plus pratique, se miniaturiser et se proposer à de non spécialistes. 

Ces derniers ont des idées originales. Ils veulent utiliser leurs machines pour autre chose que la guerre et le travail, s’amuser, s’informer, se cultiver, correspondre, se raconter des blagues, en restant chez eux ! S’ensuit une grande période de confusion, ressemblant sans doute à celle ayant suivi l’achèvement de la tour de Babel : chacun gère ses informations, les arrange et les classe en suivant ses idées, inspirations ou moments de paresse.

Pendant ce temps les puissants de l’industrie tentent d’imposer leurs modèles dans le but de capturer leurs clients. La confusion s’installe.

 

Plus d’anarchie sans procédures !

Le Web 2.0 : un peu d'ordre ?

En 1989, soit près de 40 ans après les débuts, tout change grâce à un sujet Britannique, travaillant en Europe, le Professeur Tim Berners-Lee, Physicien du CERN.

Son bureau est encombré du sol au plafond par des notices, des documentations, des avis, des livres à lire, des notes et toute cette sorte de choses. Il s’aperçoit aussi que son ordinateur est aussi bien rangé que sa pièce de travail et que ses consœurs et confrères sont confrontés au même problème. Il se dit que la bibliothèque universelle étant mal agencée, une arborescence lui serait profitable ! Il décide alors de proposer une action de rationalisation et, génial concepteur, élabore une démarche systémique de classement.

Pour les réseaux, il définit la notion de World Wide Web en instituant la notion de nom, d’adresse et de fonction, indépendante de la machine physique. Pour chaque élément du réseau, il promeut l’idée de la consultabilité grâce à la dénomination fixée dans le WWW.

Enfin, il apporte sa logique à l’organisation dans chaque site en édictant qu’une adresse unique sera attribuée à chaque élément quelle que soit sa nature : l’URL Uniform Ressource Locator est née, sa jumelle hypertexte avec elle, accompagnées du triplé, le langage HTML, Hyper Text Markup Langage.

Une chose, un nom, un emplacement et le réseau sera bien rangé. Il l’est encore de la même façon, ce qui prouve que les URL, adresses des objets du Web, étaient une bonne idée. Cette révolution dans le classement mit à notre disposition l’accès à tous les documents. Elle inaugura l’ère du Web qui aboutira à la version 2.0, lorsque images, sons, dialogues et vidéos en feront l’internet du multimédia

 

Fulgurance du déploiement

Bien sûr, il fallut tenir compte des afflux continus d’informations et de l’explosion du nombre de sites, de textes et autres. C’est alors que la notion de moteur de recherche fait son apparition. Une belle simplification pour l’internaute qui n’a plus besoin de savoir ce qu’il cherche pour le trouver.

C’est aussi la porte ouverte sur la connaissance de ses goûts, ses intérêts, ses pratiques, ses envies, ses achats, ses désirs, ses pensées…

La propagation de l’Internet en tant qu’outil universel est bien connue, elle correspond au slogan « Web pour tous » ce qui se traduit par une croissance exponentielle du nombre de connexions, du kilométrage des réseaux installés, de l’amélioration continue de leurs débits et fiabilité. La création des infrastructures réseaux s’est faite à marche forcée, bien plus rapidement que ne l’avaient été le déploiement des routes, du téléphone ou de la télévision.

Un aspect étonnant est la souplesse de l’ensemble. Une fois les communications établies, les fournisseurs de matériels se sont ingéniés à les rendre les plus accessibles possible, sur le plus grand nombre de supports. Et les utilisateurs ont suivi le mouvement, réclamant toujours plus d‘applications, plus de vitesse, plus d’aisance, ce qui a bouleversé les valeurs des échanges. Les flux consacrés au travail se sont vus dépassés par ceux de la consultation ludique, de la conversation et de la consommation.

Du document construit, échangé comme on l’aurait fait avec la poste, la valeur dominante est passée à l’accomplissement instantané de l’Internaute. Celui-ci s’est transformé d’exploitant de ses propres données à celle fournisseur, de consommateur, cible, marchandise, connecté en permanence.

De par la multiplication des interactions, nous en sommes venus à parler du Web 3.0, celui des réseaux sociaux, de la construction du village mondial, dans lequel chacun peut rencontrer, apprécier ou épier ses voisins, fussent-ils à des milliers de kilomètres.

C’est aussi, depuis des années le Web du M2M, l’internet inter-machines et plus récemment celui des objets connectés.

En sommes-nous aujourd’hui à la version 3.2, ou 3.36 ? Cela dépend de nos équipements et de nos envies du moment, une chose est sûre, le Web 4.0 se fait sans la collectivité des utilisateurs.