Les serveurs de périphérie sont une composante principale pour rendre l'Internet rapide.
Cet article s'articule autour des points suivants :
Contenu associé
Qu'est-ce qu'un serveur d'origine ?
Point d'échange Internet (IXP)
Qu'est-ce qu'un datacenter sur CDN ?
Temps d'aller-retour (RTT)
Durée de vie (TTL)
Abonnez-vous à theNET, le récapitulatif mensuel de Cloudflare des idées les plus populaires concernant Internet !
Copier le lien de l'article
Un serveur CDN de périphérie est un ordinateur qui existe à l'extrême logique ou « périphérie » d'un réseau. Un serveur de périphérie sert souvent de connexion entre des réseaux séparés. L'un des principaux objectifs d'un serveur RDC de périphérie est de stocker le contenu le plus près possible de la machine du client demandeur, réduisant ainsi la latence et améliorant les temps de chargement des pages.
Un serveur de périphérie est un type de dispositif de périphérie qui fournit un point d'entrée dans un réseau. Les autres dispositifs de périphérie comprennent les routeurs et les switches de routage. Les dispositifs de périphérie sont souvent placés à l'intérieur des points d'échange Internet (IxP) pour permettre à différents réseaux de se connecter et de partager le transit.
Dans une configuration de réseau donnée, un certain nombre de dispositifs différents se connectent les uns aux autres en utilisant un ou plusieurs modèles de réseau prédéfinis. Si un réseau veut se connecter à un autre réseau ou à l'internet plus vaste, il doit disposer d'une forme de pont pour que le trafic puisse circuler d'un endroit à l'autre. Les dispositifs matériels qui créent ce pont à la périphérie d'un réseau sont appelés dispositifs de périphérie.
Dans un réseau domestique ou professionnel typique où de nombreux appareils sont connectés, les appareils tels que les téléphones portables ou les ordinateurs se connectent et se déconnectent du réseau par le biais d'un modèle de réseau en étoile. Tous les appareils existent au sein du même réseau local (LAN), et chaque appareil se connecte à un routeur central, grâce auquel ils peuvent se connecter les uns aux autres.
Afin de connecter un deuxième réseau au premier, il faut, à un moment donné, que la connexion soit établie entre les réseaux. Le dispositif par lequel les réseaux peuvent se connecter les uns aux autres est, par définition, un dispositif périphérique.
Si maintenant un ordinateur du réseau A doit se connecter à un ordinateur du réseau B, la connexion doit passer du réseau A, par la périphérie du réseau, au deuxième réseau. Ce même paradigme fonctionne également dans des contextes plus complexes, par exemple lorsqu'une connexion est établie via l'internet. La capacité des réseaux à partager le transit est entravée par la disponibilité des dispositifs de périphérie entre eux.
Lorsqu'une connexion doit traverser l'internet, il faut encore plus d'étapes intermédiaires entre le réseau A et le réseau B. Par souci de simplicité, imaginons que chaque réseau est un cercle, et que l'endroit où les cercles se touchent est la périphérie du réseau. Pour que la connexion se déplace sur l'internet, elle touchera généralement de nombreux réseaux et passera par de nombreux nœuds en périphérie du réseau. En règle générale, plus la connexion doit parcourir une grande distance, plus le nombre de réseaux à traverser est important. Une connexion peut traverse différents fournisseurs d'accès à l'internet et le matériel de l'infrastructure dorsale de l'internet avant d'atteindre sa cible.
Un fournisseur de réseau RDC implantera ses serveurs dans de nombreux endroits, mais les points de connexion situés à la périphérie entre les différents réseaux comptent parmi les plus importants. Capables de se connecter à plusieurs réseaux différents, ces serveurs périphériques permettront au trafic de passer rapidement et efficacement d'un réseau à l'autre. Sans RDC, le trafic peut suivre un chemin plus lent et/ou plus compliqué entre la source et la destination. Dans le pire des cas, le trafic pourrait « boucler » sur de grandes distances. Par exemple, pour se connecter à un autre appareil situé de l'autre côté de la rue, le trafic de connexion pourrait tout à fait se retrouver à traverser le pays et revenir à son point de départ. L'implantation de serveurs périphériques à des emplacements clés permet ainsi à un réseau de diffuser rapidement du contenu à des utilisateurs figurant sur différents réseaux. Pour en savoir plus sur les améliorations apportées par l'utilisation d'un RDC, découvrez le fonctionnement d'un réseau RDC.
Un serveur d'origine est le serveur web qui reçoit tout le trafic Internet lorsqu'une propriété web n'utilise pas de RDC. L'utilisation d'un serveur d'origine sans RDC signifie que chaque requête Internet doit retourner à l'emplacement physique de ce serveur d'origine, quel que soit son lieu de résidence dans le monde. Cela crée une augmentation des temps de chargement qui augmente à mesure que le serveur s'éloigne de la machine du client demandeur.
Les serveurs de périphérie RDC stockent (cache) le contenu dans des endroits stratégiques afin de délester un ou plusieurs serveurs d'origine. En déplaçant des éléments statiques tels que des images, des fichiers HTML et JavaScript (et éventuellement d'autres contenus) aussi près que possible de la machine du client demandeur, le cache d'un serveur latéral est capable de réduire le temps de chargement d'une ressource Web. Les serveurs d'origine ont toujours une fonction importante à jouer lorsqu'ils utilisent un RDC, car un code important côté serveur, tel qu'une base de données d'identifiants client hachés utilisée pour l'authentification, est généralement conservé à l'origine. En savoir plus sur le RDC Cloudflare avec ses serveurs de périphérie dans le monde entier.