La latence du réseau est le temps qu'il faut à un paquet de données pour aller d'un endroit à un autre. La réduction de la latence est un élément important de la création d'une bonne expérience utilisateur.
Cet article s'articule autour des points suivants :
Contenu associé
Tester la vitesse d'un site
Adapter un site pour les appareils mobiles
Pourquoi la vitesse du site est importante
Performances et taux de conversion
Qu'est-ce qu'un optimiseur d'image ?
Abonnez-vous à theNET, le récapitulatif mensuel de Cloudflare des idées les plus populaires concernant Internet !
Copier le lien de l'article
La latence est le temps que mettent les données à passer d'un point à un autre du réseau. Supposons que le serveur A à New York envoie un paquet de données au serveur B à Londres. Le serveur A envoie le paquet à 04:38:00.000 GMT et le serveur B le reçoit à 04:38:00.145 GMT. La latence sur ce chemin est la différence entre ces deux heures : 0,145 seconde ou 145 millisecondes.
Le plus souvent, la latence est mesurée entre le dispositif d'un utilisateur (le dispositif « client » ) et un datacenter. Cette mesure aide les développeurs à comprendre à quelle vitesse une page web ou une application se chargera pour les utilisateurs.
Bien que les données se déplacent à la vitesse de la lumière sur Internet, la distance et les retards dus aux infrastructures Internet font qu'il n'est pas possible d'éliminer complètement la latence. Il est toutefois possible et indispensable de la réduire au minimum. Une forte latence se traduit par de mauvaises performances d'un site web. Elle se répercute négativement sur le référencement naturel et peut inciter les utilisateurs à quitter purement et simplement le site ou l'application.
L'une des principales causes de la latence du réseau est la distance, plus précisément la distance entre les appareils du client qui font des demandes et les serveurs qui répondent à ces demandes. Si un site Web est hébergé dans un centre de données à Columbus, dans l'Ohio, il recevra assez rapidement les demandes des utilisateurs de Cincinnati (à environ 160 km), probablement dans un délai de 5 à 10 millisecondes. En revanche, les demandes provenant d'utilisateurs de Los Angeles (à environ 2 200 miles) mettront plus de temps à arriver, soit 40 à 50 millisecondes.
Une augmentation de quelques millisecondes peut sembler insignifiante, mais elle est aggravée par toutes les communications aller-retour nécessaires à l'établissement d'une connexion entre le client et le serveur, par la taille totale et le temps de chargement de la page, ainsi que par tout problème lié à l'équipement réseau par lequel les données transitent. Le temps qu'il faut pour qu'une réponse atteigne un dispositif client après une demande du client est connu sous le nom de round trip time (RTT). Le RTT est égal au double de la latence, puisque les données doivent voyager dans les deux sens - aller et retour.
Les données circulant sur Internet doivent généralement traverser non pas un seul, mais plusieurs réseaux. Plus le nombre de réseaux à travers lesquels une réponse HTTP doit passer est important, plus les risques de retard sont importants. Par exemple, lorsque les paquets de données passent d'un réseau à l'autre, ils passent par des points d'échange Internet (IXP). Les routeurs doivent alors traiter et acheminer les paquets de données, et sont parfois amenés à les diviser en paquets plus petits, ce qui ajoute quelques millisecondes au RTT.
La latence, la bande passante et le débit sont tous liés, mais ils mesurent tous des données différentes. La bande passante est la quantité maximale de données qui peut transiter par le réseau à un moment donné. Le débit est la quantité moyenne de données qui transitent effectivement au cours d'une période donnée. Le débit est différent de la bande passante, car il est affecté par la latence. La latence est une mesure du temps, et non de la quantité de données téléchargées sur une période donnée. La latence est une mesure du temps, et non de la quantité de données téléchargées sur une période donnée.
L'utilisation d'un réseau de diffusion de contenu (CDN) est une première étape importante pour réduire la latence. Les CDN mettent en cache du contenu statique et le servent aux utilisateurs. (Le CDN de Cloudflare permet également de mettre en cache du contenu dynamique avec Cloudflare Workers.) Les serveurs CDN sont répartis à plusieurs endroits, ainsi le contenu est stocké plus près des utilisateurs finaux et n'a pas besoin de parcourir de longues distances pour les atteindre. Cela signifie que le chargement d'une page web prendra moins de temps, ce qui améliorera la vitesse et les performances du site web.
Outre la latence, d'autres facteurs peuvent également ralentir les performances. Les développeurs Web peuvent minimiser le nombre de ressources bloquant le rendu (en chargeant JavaScript en dernier, par exemple), optimiser les images pour un chargement plus rapide, et réduire la taille des fichiers chaque fois que possible. La minification du code est un moyen de réduire la taille des fichiers JavaScript et CSS.
Il est possible de réduire la latence perçue en chargeant d'abord stratégiquement certains actifs. Une page web peut être configurée pour qu'elle charge d'abord la zone située sur sa partie supérieure (appelée Above the Fold, c'est-à-dire ce qui apparaît dans la fenêtre du navigateur avant que l'utilisateur ne fasse défiler la page vers le bas) pour que les utilisateurs puissent commencer à interagir avec la page avant même qu'elle n'ait fini de se charger. Les pages web peuvent également charger des actifs uniquement lorsque cela est nécessaire, en utilisant une technique connue sous le nom de « lazy loading » (chargement différé). Ces solutions n'améliorent pas réellement la latence du réseau, mais elles améliorent nettement la perception de vitesse de la vitesse de chargement des pages pour l'utilisateur.
Parfois, la « latence réseau est causée par des problèmes côté utilisateur et non côté serveur. Les consommateurs ont toujours la possibilité d'acheter plus de bande passante s'ils sont régulièrement confrontés à des problèmes de latence, bien que la bande passante ne garantisse pas le bon fonctionnement d'un site Web. En passant d'une connexion WiFi à une connexion Ethernet, on obtient une connexion Internet plus stable et on améliore généralement la vitesse. Les utilisateurs doivent également vérifier que leurs équipements Internet sont à jour en mettant régulièrement à jour les firmwares et en les renouvelant si nécessaire.