Le protocole http est à la base du Web et régit les échanges entre navigateur et serveur. Sa version 1.1, datant de quinze ans, commençait à dater quelque peu au vu de l'évolution actuelle du Web. Sa nouvelle mouture, baptisée http/2, a donc vocation à accélerer les échanges de données sur le réseau. Quelles en sont ses principales caractéristiques ? Et quel en sera l'impact sur le SEO ? Réponses...
Début de l'article :
Une charge historique forte
Le protocole http a été créé en 1990. En 99, il a connu une mise à jour notable, en passant en version 1.1. Depuis, s’il rend au jour le jour de formidables services en permettant notamment à tout un chacun de consulter des sites web en tous genres, il n’a pas connu d’évolution notable. Rien, donc, depuis 15 ans...
Le http a été conçu comme un protocole qui permet les échanges entre un client (le navigateur web) et un serveur (le site web). Le processus est le suivant : lorsque l’on navigue sur le web, qu’on accède, par exemple, à une page web, une requête http est envoyées au serveur hébergeant le site web correspondant, en lui demandant de fournir la ressource ad hoc. Le serveur crée le fichier html demandé, et envoie en retour une réponse http.
Le fichier récupéré contient le code source de la page web consultée, et de nombreuses références à des ressources annexes (en moyenne une centaine par pages) qui permettent de rendre la page plus attrayante : fichiers CSS, images, Javascript, etc.
Pour récupérer ces ressources, le navigateur web envoie une nouvelle requête http. Le serveur web la reçoit et si tout se passe bien (la ressource existe bien à l’emplacement indiqué) il fournit une réponse http la contenant.
Pour chaque ressource utile à une page, on a donc une requête http à faire. Chaque requête à envoyer au serveur web engendrer un délai de quelques centièmes de secondes, du fait de la distance entre le client et le serveur. Ce n’est certes pas grand chose, mais finalement, quand on parle d’une centaine de ressources par page sur le Web récent, l’addition commence à être bien salée et le tout peut devenir très lent à l'usage.
Google entre dans la danse
La consultation des sites web est ainsi, par essence, plutôt lente. Dès lors, lorsque l’on est un gros acteur du web, qu’on parcourt des millions, voire des milliards de pages web chaque jour, on perd beaucoup de temps à récupérer les ressources. Si l’on était capable de diviser par deux la vitesse de chargement des pages, on pourrait parcourir le Web en deux fois moins de temps. Et quand le temps de parcours est proportionnel aux coûts, on a un intérêt non négligeable à inciter tous les webmasters à faire des efforts.
...
Fichier PDF téléchargeable ici (la lettre Réacteur n'était à cette époque-là disponible que sous cette forme).