What is latency? | How to fix latency

La latence d'Internet est le délai qui se produit lorsque les utilisateurs demandent des ressources web. Il est indispensable que la latence soit faible pour garantir une bonne expérience utilisateur, tandis qu'une latence élevée risque de les faire fuir.

Objectifs d’apprentissage

Cet article s'articule autour des points suivants :

  • Comprendre ce qu'est la latence et ce qui la provoque
  • Expliquer les différences entre la latence réseau, la bande passante et le débit
  • Apprendre comment réduire la latence

Copier le lien de l'article

Qu'est-ce que la latence ?

La latence désigne le temps qui s'écoule entre une action de l'utilisateur et la réponse qui en résulte. La latence réseau désigne plus particulièrement les retards qui se produisent au sein d'un réseau ou sur Internet. Plus concrètement, la latence est le temps qui s'écoule entre une action de l'utilisateur et la réponse du site web ou de l'application à cette action : il s'agit par exemple du délai entre le moment où un utilisateur clique sur un lien vers une page web et celui où le navigateur affiche cette page web.

Qu'est-ce que la latence ?

Bien que les données se déplacent à la vitesse de la lumière sur Internet, la distance et les retards dus aux infrastructures Internet font qu'il n'est pas possible d'éliminer complètement la latence. Il est toutefois possible et indispensable de la réduire au minimum. Une forte latence se traduit par de mauvaises performances d'un site web. Elle se répercute négativement sur le référencement naturel et peut inciter les utilisateurs à quitter purement et simplement le site ou l'application.

Quelles sont les causes de la latence sur Internet ?

One of the principal causes of network latency is distance, specifically the distance between client devices making requests and the servers responding to those requests. If a website is hosted in a data center in Columbus, Ohio, it will respond fairly quickly to requests from users in Cincinnati (about 100 miles away), likely within 10-15 milliseconds. Users in Los Angeles (about 2,200 miles away), on the other hand, will face longer delays, closer to 50 milliseconds.

Une simple augmentation de quelques millisecondes peut sembler insignifiante, mais elle est aggravée par les communications aller-retour nécessaires à l'établissement d'une connexion entre le client et le serveur, la taille totale et le temps de chargement de la page, et les problèmes éventuels liés au matériel réseau par lequel les données transitent en cours de route. Le temps nécessaire pour qu'une réponse parvienne à un appareil client après une requête de ce client est appelé round trip time (RTT ou temps aller-retour).

Data traversing the Internet usually has to cross not just one, but multiple networks. The more networks that an HTTP response needs to pass through, the more opportunities there are for delays. For example, as data packets cross between networks, they go through Internet Exchange Points (IXPs). There, routers have to process and route the data packets, and at times routers may need to break them up into smaller packets, all of which adds a few milliseconds to RTT.

En outre, la manière dont les pages web sont construites peut ralentir les performances. Les pages web qui comportent beaucoup de contenus volumineux ou qui chargent du contenu auprès de plusieurs tiers peuvent être lentes, car les navigateurs doivent télécharger de fichiers lourds pour les afficher. Un utilisateur peut se trouver juste à côté du datacenter qui héberge le site web auquel il se connecte, mais si le site web contient, par exemple, un certain nombre d'images haute définition, il se peut que leur chargement occasionne une certaine latence.

Latence, débit et bande passante du réseau

La latence, la bande passante et le débit sont tous liés, mais ils mesurent tous des données différentes. La bande passante est la quantité maximale de données qui peut transiter par le réseau à un moment donné. Le débit est la quantité moyenne de données qui transitent effectivement au cours d'une période donnée. Le débit est différent de la bande passante, car il est affecté par la latence. La latence est une mesure du temps, et non de la quantité de données téléchargées sur une période donnée.

Comment réduire la latence ?

Use of a CDN (content delivery network) is a major step towards reducing latency. A CDN caches static content to vastly reduce the RTT. (The Cloudflare CDN makes it possible to cache dynamic content as well with Cloudflare Workers.) CDN servers are distributed in multiple locations so that content is stored closer to end users and does not need to travel as far to reach them. This means that loading a webpage will take less time, improving website speed and performance.

Les développeurs web peuvent également minimiser le nombre de ressources bloquant le rendu (en chargeant JavaScript en dernier, par exemple), optimiser les images pour accélérer leur chargement et réduire la taille des fichiers chaque fois que possible. La minification du code permet de réduire la taille des fichiers JavaScript et CSS.

Il est possible de réduire la latence perçue en chargeant d'abord stratégiquement certains actifs. Une page web peut être configurée pour qu'elle charge d'abord la zone située sur sa partie supérieure (appelée Above the Fold, c'est-à-dire ce qui apparaît dans la fenêtre du navigateur avant que l'utilisateur ne fasse défiler la page vers le bas) pour que les utilisateurs puissent commencer à interagir avec la page avant même qu'elle n'ait fini de se charger. Les pages web peuvent également charger des actifs uniquement lorsque cela est nécessaire, en utilisant une technique connue sous le nom de « lazy loading » (chargement différé). Ces solutions n'améliorent pas réellement la latence du réseau, mais elles améliorent nettement la perception de vitesse de la vitesse de chargement des pages pour l'utilisateur.

Comment les utilisateurs peuvent-ils remédier à la latence de leur côté ?

Parfois, la latence réseau est causée par des problèmes côté utilisateur et non côté serveur. Les utilisateurs ont toujours la possibilité d'acheter plus de bande passante s'ils sont régulièrement confrontés à des problèmes de latence, bien que la bande passante ne garantisse pas le bon fonctionnement d'un site web. En passant d'une connexion WiFi à une connexion Ethernet, on obtient une connexion Internet plus stable et on améliore généralement la vitesse. Les utilisateurs doivent également vérifier que leurs équipements Internet sont à jour en mettant régulièrement à jour les firmwares et en les renouvelant si nécessaire.