Qu'est-ce qu'un serveur d'origine ? | Définition du serveur d'origine

Le but d'un serveur d'origine est de traiter et de répondre aux demandes Internet entrantes des clients Internet.

Objectifs d’apprentissage

Cet article s'articule autour des points suivants :

  • Définir un serveur d'origine
  • Distinguer un serveur d'origine d'un serveur CDN latéral
  • Expliquer les limites de la protection des serveurs CDN d'origine

Copier le lien de l'article

Qu'est-ce qu'un serveur d'origine ?

Le but d'un serveur d'origine est de traiter et de répondre aux requêtes Internet entrantes des clients Internet. Le concept de serveur d'origine est généralement utilisé conjointement avec le concept de serveur latéral ou de serveur cache. Au fond, un serveur d'origine est un ordinateur qui exécute un ou plusieurs programmes conçus pour écouter et traiter les requêtes Internet entrantes. Un serveur d'origine peut assumer l'entière responsabilité de la diffusion du contenu d'une propriété Internet telle qu'un site Web, à condition que le trafic ne dépasse pas ce que le serveur est capable de traiter et que la latence ne soit pas une préoccupation majeure.

La distance physique entre un serveur d'origine et un client qui fait une requête ajoute une latence à la connexion, augmentant le temps nécessaire au chargement d'une ressource internet telle qu'une page web. Le temps d'aller-retour (RTT) supplémentaire entre le client et le serveur d'origine requis pour une connexion internet sécurisée utilisant SSL/TLS ajoute également une latence supplémentaire à la requête, ce qui a un impact direct sur l'expérience du client qui sollicite des données auprès du serveur d'origine. En recourant à un Réseau de Distribution de Contenu (RDC), le temps d'aller-retour peut être réduit, et le nombre de requêtes adressées à un serveur d'origine peut également être réduit.

Quelle est la différence entre un serveur d'origine et un serveur latéral CDN ?

Pour faire simple, les serveurs RDC latéraux sont des ordinateurs placés à des points de jonction importants entre les principaux fournisseurs d'accès à Internet, répartis dans le monde entier, afin de fournir du contenu le plus rapidement possible. Un serveur latéral se situe à l'intérieur d'un RDC en « périphérie » d'un réseau et est spécifiquement conçu pour traiter rapidement les requêtes. En plaçant les serveurs latéraux de manière stratégique à l'intérieur des Points D'Échange Internet (IxP) qui existent entre les réseaux, un RDC est capable de réduire le temps nécessaire pour atteindre un endroit particulier sur l'Internet.

Ces serveurs latéraux mettent en cache le contenu afin de décharger un ou plusieurs serveurs d'origine. En déplaçant des éléments statiques tels que des images, des fichiers HTML et JavaScript (et éventuellement d'autres contenus) aussi près que possible de la machine du client demandeur, le cache d'un serveur latéral est capable de réduire le temps de chargement d'une ressource web. Les serveurs d'origine ont toujours une fonction importante à jouer lorsqu'ils utilisent un RDC, car un code important côté serveur, tel que la base de données des informations d'identification hachées du client utilisée pour l'authentification, est généralement conservé dans un serveur d'origine.

Voici un exemple simple de la façon dont un serveur latéral et un serveur d'origine fonctionnent ensemble pour servir une page de connexion et permettre à un utilisateur de se connecter à un service. Une page de connexion très simple nécessite le téléchargement des ressources statiques suivantes pour que la page web s'affiche correctement :

  1. A HTML file for the webpage
  2. Un fichier CSS pour la mise en forme de la page web
  3. Plusieurs fichiers d'images
  4. Plusieurs bibliothèques JavaScript

Ces fichiers sont tous des fichiers statiques ; ils ne sont pas générés dynamiquement et sont les mêmes pour tous les visiteurs du site web. Par conséquent, ces fichiers peuvent être à la fois mis en cache et servis au client à partir du serveur latéral. Tous ces fichiers peuvent être chargés plus près de la machine cliente et sans aucune consommation de bande passante par le serveur d'origine.

Réponse du cache périphérique RDC

Ensuite, lorsque l'utilisateur saisit son identifiant et son mot de passe et appuie sur « connexion », la demande de contenu dynamique est renvoyée au serveur latéral qui renvoie ensuite la demande au serveur d'origine. Le serveur d'origine vérifie alors l'identité de l'utilisateur dans la table de base de données associée avant de renvoyer les informations spécifiques du compte.

Diagramme de récupération de l'origine du RDC sans cache

Cette interaction entre les serveurs latéral traitant du contenu statique et les serveurs d'origine servant du contenu dynamique est une séparation typique des enjeux lors de l'utilisation d'un CDN. La capacité de certains CDN peut également s'étendre au-delà de ce modèle simpliste.

Un serveur d'origine peut-il quand même être attaqué lorsqu'il utilise un CDN ?

En bref, la réponse est oui. Un RDC ne rend pas un serveur d'origine invincible, mais lorsqu'il est utilisé correctement, il peut rendre un serveur d'origine invisible, agissant comme un bouclier pour les requêtes entrantes. La dissimulation de l'adresse IP réelle d'un serveur d'origine est un élément important de la configuration d'un RDC. Ainsi, un fournisseur de RDC devrait recommander que l'adresse IP du serveur d'origine soit modifiée lors de la définition d'une stratégie RDC afin d'empêcher les attaques DDoS de contourner le bouclier et de toucher directement l'origine. Le RDC de Cloudflare comprend une protection complète contre les attaques DDoS.