Qu'est-ce que la latence ? | Correction des problèmes de latence

La latence d'Internet est le délai qui se produit lorsque les utilisateurs demandent des ressources web. Il est indispensable que la latence soit faible pour garantir une bonne expérience utilisateur, tandis qu'une latence élevée risque de les faire fuir.

Share facebook icon linkedin icon twitter icon email icon

Latence

Objectifs d’apprentissage

Après avoir lu cet article, vous pourrez :

  • Comprendre ce qu'est la latence et ce qui la provoque
  • Expliquer les différences entre la latence réseau, la bande passante et le débit
  • Apprendre comment réduire la latence

Qu'est-ce que la latence ?

La latence désigne le temps qui s'écoule entre une action de l'utilisateur et la réponse qui en résulte. La latence réseau désigne plus particulièrement les retards qui se produisent au sein d'un réseau ou sur Internet. Plus concrètement, la latence est le temps qui s'écoule entre une action de l'utilisateur et la réponse du site web ou de l'application à cette action : il s'agit par exemple du délai entre le moment où un utilisateur clique sur un lien vers une page web et celui où le navigateur affiche cette page web.

Qu'est-ce que la latence ?

Bien que les données se déplacent à la vitesse de la lumière sur Internet, la distance et les retards dus aux infrastructures Internet font qu'il n'est pas possible d'éliminer complètement la latence. Il est toutefois possible et indispensable de la réduire au minimum. Une forte latence se traduit par de mauvaises performances d'un site web. Elle se répercute négativement sur le référencement naturel et peut inciter les utilisateurs à quitter purement et simplement le site ou l'application.

Quelles sont les causes de la latence sur Internet ?

L'une des principales sources de latence du réseau est la distance, plus précisément la distance entre les appareils clients qui envoient des requêtes et les serveurs qui y répondent. Si un site web est hébergé dans un datacenter à Columbus, dans l'Ohio, il répondra assez rapidement aux requêtes des utilisateurs qui se trouvent à Cincinnati (à environ 160 km de là), c'est-à-dire probablement en 10 à 15 ms. Les utilisateurs situés à Los Angeles (à environ 3 500 km de là), en revanche, subiront des retards plus importants, de l'ordre de 50 ms.

Une simple augmentation de quelques millisecondes peut sembler insignifiante, mais elle est aggravée par les communications aller-retour nécessaires à l'établissement d'une connexion entre le client et le serveur, la taille totale et le temps de chargement de la page, et les problèmes éventuels liés au matériel réseau par lequel les données transitent en cours de route. Le temps nécessaire pour qu'une réponse parvienne à un appareil client après une requête de ce client est appelé round trip time (RTT ou temps aller-retour).

Les données circulant sur Internet doivent généralement traverser non pas un seul, mais plusieurs réseaux. Plus le nombre de réseaux à travers lesquels une réponse HTTP doit passer est important, plus les risques de retard sont importants. Par exemple, lorsque les paquets de données passent d'un réseau à l'autre, ils passent par des points d'échange Internet (IXP). Les routeurs doivent alors traiter et acheminer les paquets de données, et sont parfois amenés à les diviser en paquets plus petits, ce qui ajoute quelques millisecondes au RTT.

En outre, la manière dont les pages web sont construites peut ralentir les performances. Les pages web qui comportent beaucoup de contenus volumineux ou qui chargent du contenu auprès de plusieurs tiers peuvent être lentes, car les navigateurs doivent télécharger de fichiers lourds pour les afficher. Un utilisateur peut se trouver juste à côté du datacenter qui héberge le site web auquel il se connecte, mais si le site web contient, par exemple, un certain nombre d'images haute définition, il se peut que leur chargement occasionne une certaine latence.

Latence, débit et bande passante du réseau

La latence, la bande passante et le débit sont tous liés, mais ils mesurent tous des données différentes. La bande passante est la quantité maximale de données qui peut transiter par le réseau à un moment donné. Le débit est la quantité moyenne de données qui transitent effectivement au cours d'une période donnée. Le débit est différent de la bande passante, car il est affecté par la latence. La latence est une mesure du temps, et non de la quantité de données téléchargées sur une période donnée.

Comment réduire la latence ?

Un réseau de diffusion de contenu (CDN) est une première étape importante pour réduire la latence. Les CDN mettent en cache du contenu statique pour réduire considérablement le RTT. (Le CDN de Cloudflare permet également de mettre en cache du contenu dynamique avec Cloudflare Workers.) Les serveurs CDN sont répartis à plusieurs endroits, si bien que le contenu est stocké plus près des utilisateurs finaux et n'a pas besoin de parcourir de longues distances pour les atteindre. Cela signifie que le chargement d'une page web prendra moins de temps, ce qui améliorera la vitesse et les performances du site.

Les développeurs web peuvent également minimiser le nombre de ressources bloquant le rendu (en chargeant JavaScript en dernier, par exemple), optimiser les images pour accélérer leur chargement et réduire la taille des fichiers chaque fois que possible. La minification du code permet de réduire la taille des fichiers JavaScript et CSS.

Il est possible de réduire la latence perçue en chargeant d'abord stratégiquement certains actifs. Une page web peut être configurée pour qu'elle charge d'abord la zone située sur sa partie supérieure (appelée Above the Fold, c'est-à-dire ce qui apparaît dans la fenêtre du navigateur avant que l'utilisateur ne fasse défiler la page vers le bas) pour que les utilisateurs puissent commencer à interagir avec la page avant même qu'elle n'ait fini de se charger. Les pages web peuvent également charger des actifs uniquement lorsque cela est nécessaire, en utilisant une technique connue sous le nom de « lazy loading » (chargement différé). Ces solutions n'améliorent pas réellement la latence du réseau, mais elles améliorent nettement la perception de vitesse de la vitesse de chargement des pages pour l'utilisateur.

Comment les utilisateurs peuvent-ils remédier à la latence de leur côté ?

Parfois, la latence réseau est causée par des problèmes côté utilisateur et non côté serveur. Les utilisateurs ont toujours la possibilité d'acheter plus de bande passante s'ils sont régulièrement confrontés à des problèmes de latence, bien que la bande passante ne garantisse pas le bon fonctionnement d'un site web. En passant d'une connexion WiFi à une connexion Ethernet, on obtient une connexion Internet plus stable et on améliore généralement la vitesse. Les utilisateurs doivent également vérifier que leurs équipements Internet sont à jour en mettant régulièrement à jour les firmwares et en les renouvelant si nécessaire.