Un CDN est conçu pour contourner la congestion du réseau et être résiliente aux interruptions de service. En savoir plus sur la fiabilité du CDN.
Cet article s'articule autour des points suivants :
Contenu associé
Sécurité SSL TLS RDC
Réseau CDN : performances
Qu'est-ce qu'un datacenter sur CDN ?
Temps d'aller-retour (RTT)
Qu'est-ce qu'un réseau CDN ?
Abonnez-vous à theNET, le récapitulatif mensuel de Cloudflare des idées les plus populaires concernant Internet !
Copier le lien de l'article
L'une des caractéristiques importantes d'un RDC est sa capacité à garder le contenu du site web en ligne face aux problèmes de réseau courants, notamment les pannes matérielles et la congestion du réseau. En équilibrant la charge du trafic Internet, en utilisant le basculement intelligent et en maintenant les serveurs dans de nombreux datacenters, un RDC est conçu pour contourner la congestion du réseau et être résilient aux interruptions de service.
Le but d'un load Balancer est de répartir le trafic réseau de manière égale sur plusieurs serveurs. Le load Balancing peut reposer sur du matériel ou sur des logiciels. Un RDC utilise le load Balancing dans un datacenter pour distribuer les requêtes qui entrent dans le pool de serveurs disponible pour que les pics de trafic soient gérés de la manière la plus efficace possible. En utilisant efficacement les ressources disponibles, l'équilibrage de charge peut augmenter les vitesses de traitement et utiliser efficacement la capacité du serveur. Un équilibrage correct de la charge du trafic entrant est essentiel pour atténuer les pics de trafic qui se produisent lors d'une activité Internet atypique, par exemple lorsqu'un site Web enregistre un nombre anormalement élevé de visiteurs ou lors d'une attaque par déni de service distribué.
Un RDC utilise également l'équilibrage de charge pour effectuer rapidement et efficacement des changements lorsque la disponibilité des ressources du serveur fluctue à la hausse ou à la baisse. En cas de défaillance d'un serveur et de basculement, un équilibreur de charge redirigera le trafic alloué au serveur défaillant et le répartira proportionnellement sur les autres serveurs. Cette opération permet d'assurer la résilience et la fiabilité en augmentant la probabilité que les défaillances matérielles ne perturbent pas le flux de trafic. Lorsqu'un nouveau serveur est mis en ligne dans le datacenter, un load Balancer allège proportionnellement la charge des autres serveurs et augmente l'utilisation du nouveau équipement. Les services de load Balancing basés sur un logiciel permettent à un RDC de faire évoluer rapidement la capacité d'équilibrage de charge sans les goulots d'étranglement présents lors de l'utilisation de matériel d'équilibrage de charge physique.
Dans les systèmes informatiques qui nécessitent un haut degré de fiabilité et une disponibilité quasi continue, le basculement (failover) permet d'empêcher la perte de trafic lorsqu'un serveur n'est pas disponible. Lorsqu'un serveur tombe en panne, le trafic doit être redirigé vers un serveur fonctionnel. En déchargeant automatiquement les tâches vers un système de secours ou une autre machine disposant d'une capacité disponible, le basculement intelligent peut empêcher l'interruption du service aux utilisateurs.
Un CDN est comme un système GPS couplé à des voies rapides à péage. Un CDN pourra trouver le chemin optimal pour atteindre un endroit éloigné et pourra utiliser son propre réseau pour trouver l'itinéraire optimal permettant d'y arriver le plus rapidement possible.
Lorsqu'un utilisateur charge du contenu à partir d'une propriété Internet telle qu'une page web ou une application web, une série de connexions est établie pour atteindre l'emplacement où le contenu est servi. On peut comparer le trafic réseau au système routier et autoroutier. Les routes acheminent le trafic local dans une zone et les autoroutes sur de longues distances qui traversent plusieurs régions. En cas d'incident, par exemple un camion-citerne qui bloque toutes les voies d'un axe autoroutier principal, le trafic doit trouver un autre itinéraire. Comme une autoroute traversant plusieurs régions, le trafic doit souvent traverser différents réseaux pour atteindre sa destination finale. Si un blocage existe sur un réseau particulier, le trafic doit être redirigé vers une voie différente. Ce processus peut être long et inefficace.
Supposons qu'un utilisateur de San Francisco charge un site web à Los Angeles. La connexion se fait en plusieurs étapes, mais dans cet exemple, l'une des étapes la plus importante est celle où le signal du réseau passe par un fournisseur de télécommunications basé à San José sur le chemin de sa destination finale. Lorsqu'un ingénieur réseau verse accidentellement du café sur un équipement de routage à San Jose, le fournisseur se déconnecte en rompant la connexion (des incidents encore plus étranges se sont déjà produits). Si un tel incident se produit, l'utilisateur n'est plus en mesure de charger son contenu Internet, à moins que le trafic ne soit réacheminé pour s'adapter au nouveau paysage de réseau. La demande de l'utilisateur doit désormais passer par un autre fournisseur de télécommunications pour pouvoir arriver à Los Angeles.
Maintenant que le trafic ne peut plus passer par le réseau prévu, il doit passer par un réseau entièrement différent, géré par une autre organisation. Ce processus de renégociation et de changement de réseau peut se produire plusieurs fois dans une requête réseau, et des cas comme celui-ci peuvent ajouter de la latence et orienter le trafic sur un chemin encombré, ce qui entraîne un retard. Un RDC de taille suffisante contrôlera généralement ses propres connexions réseau en plaçant des serveurs à des points d'échange Internet (IXP) et à d'autres endroits stratégiques. Ces schémas de réseau optimisés permettent aux fournisseurs de RDC d'optimiser l'itinéraire et de réduire la latence.
Certains RDC utiliseront une méthode de routage Anycast pour transférer le trafic Internet vers des datacenters disponibles spécifiques. Ce type de routage permet d'assurer un temps de réponse amélioré et évite qu'un datacenter ne soit saturé en cas de demande exceptionnelle, par exemple lors d'une attaque DDoS.
Avec l'Anycast, plusieurs machines peuvent partager la même adresse IP. Lorsqu'une requête est envoyée à une adresse IP Anycast, les routeurs l'envoient à la machine la plus proche sur le réseau. Quand un datacenter entier tombe en panne ou est incapable de faire face à un trafic important, un réseau Anycast peut réagir à la panne de manière similaire au load Balancer qui transfère le trafic sur plusieurs serveurs à l'intérieur d'un datacenter. Les données sont acheminées loin de l'emplacement défaillant et sont routées vers un autre centre de données qui est toujours en ligne et fonctionnel.
Les attaques DDoS sont actuellement l'une des menaces les plus importantes pour la fiabilité des propriétés Internet. Les RDC qui utilisent Anycast disposent d'une plus grande flexibilité pour atténuer les attaques DDoS. Dans la plupart des attaques DDoS modernes, de nombreux ordinateurs ou « bots » compromis sont utilisés pour former ce que l'on appelle un botnet. Ces machines compromises peuvent générer un tel trafic Internet qu'elles peuvent submerger une machine connectée en Unicast. Avec un réseau Anycast, une partie du trafic d'attaque du botnet peut être répartie sur plusieurs datacenters, ce qui réduit l'impact de l'attaque. Découvrez le RDC Cloudflare avec le routage Anycast.