Qu'est-ce qu'un serveur d'origine ? | Définition du serveur d'origine

Le but d'un serveur d'origine est de traiter et de répondre aux demandes Internet entrantes des clients Internet.

Objectifs d’apprentissage

Cet article s'articule autour des points suivants :

  • Définir un serveur d'origine
  • Distinguer un serveur d'origine d'un serveur CDN latéral
  • Expliquer les limites de la protection des serveurs CDN d'origine

Contenu associé


Vous souhaitez continuer à enrichir vos connaissances ?

Abonnez-vous à theNET, le récapitulatif mensuel de Cloudflare des idées les plus populaires concernant Internet !

Consultez la politique de confidentialité de Cloudflare pour en savoir plus sur la manière dont nous collectons et traitons vos données personnelles.

Copier le lien de l'article

Qu'est-ce qu'un serveur d'origine ?

Le but d'un serveur d'origine est de traiter et de répondre aux requêtes Internet entrantes des clients Internet. Le concept de serveur d'origine est généralement utilisé conjointement avec le concept de serveur latéral ou de serveur cache. Au fond, un serveur d'origine est un ordinateur qui exécute un ou plusieurs programmes conçus pour écouter et traiter les requêtes Internet entrantes. Un serveur d'origine peut assumer l'entière responsabilité de la diffusion du contenu d'une propriété Internet telle qu'un site Web, à condition que le trafic ne dépasse pas ce que le serveur est capable de traiter et que la latence ne soit pas une préoccupation majeure.

La distance physique entre un serveur d'origine et un client transmettant une requête ajoute de la latence à la connexion, augmentant le temps nécessaire au chargement d'une ressource Internet telle qu'une page web. Le temps d'aller-retour (RTT) supplémentaire entre le client et le serveur d'origine nécessaire à l'établissement d'une connexion Internet sécurisée avec SSL/TLS ajoute également une latence supplémentaire à la requête, affectant directement l'expérience du client demandant des données au serveur d'origine. L'utilisation d'un réseau de diffusion de contenu (Content Delivery Network, CDN) permet de réduire le temps d'aller-retour, ainsi que le nombre de requêtes adressées à un serveur d'origine.

Quelle est la différence entre un serveur d'origine et un serveur latéral CDN ?

Pour faire simple, les serveurs RDC latéraux sont des ordinateurs placés à des points de jonction importants entre les principaux fournisseurs d'accès à Internet, répartis dans le monde entier, afin de fournir du contenu le plus rapidement possible. Un serveur latéral se situe à l'intérieur d'un RDC en « périphérie » d'un réseau et est spécifiquement conçu pour traiter rapidement les requêtes. En plaçant les serveurs latéraux de manière stratégique à l'intérieur des Points D'Échange Internet (IxP) qui existent entre les réseaux, un RDC est capable de réduire le temps nécessaire pour atteindre un endroit particulier sur l'Internet.

Ces serveurs périphériques mettent en cache le contenu afin de soulager un ou plusieurs serveurs d'origine. En déplaçant les éléments statiques tels que les images, les fichiers HTML et les fichiers JavaScript (ainsi que d'autres contenus, le cas échéant) aussi près que possible du client transmettant la requête, le cache d'un serveur périphérique permet de réduire le temps de chargement d'une ressource web. Les serveurs d'origine jouent toujours une fonction importante lors de l'utilisation d'un réseau CDN ; en effet, un serveur d'origine est généralement utilisé pour conserver du code côté serveur important (par exemple, la base de données d'informations d'identification hachées du client utilisée aux fins de l'authentification).

Voici un exemple simple de la façon dont un serveur latéral et un serveur d'origine fonctionnent ensemble pour servir une page de connexion et permettre à un utilisateur de se connecter à un service. Une page de connexion très simple nécessite le téléchargement des ressources statiques suivantes pour que la page web s'affiche correctement :

  1. A HTML file for the webpage
  2. Un fichier CSS pour la mise en forme de la page web
  3. Plusieurs fichiers d'images
  4. Plusieurs bibliothèques JavaScript

Ces fichiers sont tous des fichiers statiques ; ils ne sont pas générés dynamiquement et sont les mêmes pour tous les visiteurs du site web. Par conséquent, ces fichiers peuvent être à la fois mis en cache et servis au client à partir du serveur latéral. Tous ces fichiers peuvent être chargés plus près de la machine cliente et sans aucune consommation de bande passante par le serveur d'origine.

Réponse du cache périphérique RDC

Ensuite, lorsque l'utilisateur saisit son identifiant et son mot de passe et appuie sur « connexion », la demande de contenu dynamique est renvoyée au serveur latéral qui renvoie ensuite la demande au serveur d'origine. Le serveur d'origine vérifie alors l'identité de l'utilisateur dans la table de base de données associée avant de renvoyer les informations spécifiques du compte.

Diagramme de récupération de l'origine du RDC sans cache

Cette interaction entre les serveurs latéral traitant du contenu statique et les serveurs d'origine servant du contenu dynamique est une séparation typique des enjeux lors de l'utilisation d'un CDN. La capacité de certains CDN peut également s'étendre au-delà de ce modèle simpliste.

Un serveur d'origine peut-il quand même être attaqué lorsqu'il utilise un CDN ?

En bref, la réponse est oui. Un RDC ne rend pas un serveur d'origine invincible, mais lorsqu'il est utilisé correctement, il peut rendre un serveur d'origine invisible, agissant comme un bouclier pour les requêtes entrantes. La dissimulation de l'adresse IP réelle d'un serveur d'origine est un élément important de la configuration d'un RDC. Ainsi, un fournisseur de RDC devrait recommander que l'adresse IP du serveur d'origine soit modifiée lors de la définition d'une stratégie RDC afin d'empêcher les attaques DDoS de contourner le bouclier et de toucher directement l'origine. Le RDC de Cloudflare comprend une protection complète contre les attaques DDoS.