theNet by CLOUDFLARE

Os desafios da infraestrutura de Rede

Considerações sobre sua migração para a nuvem

A migração para a nuvem raramente acontece de uma só vez. Um número limitado de empresas é capaz de adotar um único provedor de nuvem, mas muitas outras usam alguma combinação de nuvem pública, nuvem privada e infraestrutura local.

Existem muitos bons motivos para manter uma infraestrutura heterogênea, mas o mesmo não pode ser dito a respeito das funções de Rede que sustentam essa infraestrutura:

  • Segurança, por exemplo, firewall, mitigação de DDoS e gerenciamento de acesso dos usuários.

  • Desempenho e confiabilidade, por exemplo, balanceamento de carga, aceleração de tráfego e otimização de WAN.

É um pouco paradoxal, mas uma abordagem híbrida para proteger e acelerar ambientes de nuvem complexos cria problemas de desempenho, lacunas de segurança e desafios de suporte. Para evitar essas questões, as equipes de TI e segurança precisam encontrar maneiras para que essas funções de Rede trabalhem juntas do modo mais perfeito possível.


Infraestrutura de segurança e desempenho — modelos e desafios comuns

Para proteger e acelerar uma infraestrutura multinuvem e de nuvem híbrida, normalmente são necessários estes itens:

  • Dispositivos de hardware locais

  • Diversas soluções pontuais fornecidas na nuvem

Infelizmente, essas duas abordagens criam desafios consideráveis.


Desafios dos dispositivos de hardware locais

É do conhecimento de todos que o hardware de data center é caro e demora para ser adquirido, além de muitas vezes apresentar limitações de capacidade. Por exemplo, 98% de todos os ataques de DDoS nas camadas 3 e 4 no quarto trimestre de 2021 distribuíram até um milhão de pacotes por segundo (pps), de acordo com um relatório da Cloudflare. Normalmente, uma interface Ethernet de 1 Gbps pode entregar em qualquer lugar entre 80 mil e 1,5 milhão de pps.

Supondo que a interface também distribui tráfego legítimo, mesmo esses ataques de DDoS com uma taxa de pacotes "pequena" pode derrubar facilmente um ativo da internet. A alternativa é ter capacidade suficiente para o pior cenário possível, mas isso é caro.

O hardware também cria lacunas de segurança. Correções e atualizações são um exemplo. Correções dependem de implementação manual e podem não ser instaladas prontamente devido a atrasos logísticos ou ao esquecimento. Quando uma correção é liberada, a vulnerabilidade correspondente se torna um alvo mais visível para invasores oportunistas.

Além do mais, quando implantados em uma abordagem de nuvem híbrida, os dispositivos de hardware de Rede criam lacunas de segurança. Obviamente, é impossível instalar seu próprio hardware em um provedor de nuvem terceirizado. Isso significa que diferentes partes da infraestrutura são protegidas de maneiras distintas, dando às equipes de segurança e TI menos visibilidade e controle sobre ataques recebidos e tráfego legítimo.


Desafios com determinadas soluções baseadas em nuvem

Os serviços baseados em nuvem têm um custo total de propriedade menor que o hardware, mas podem diminuir o desempenho de aplicativos e da Rede se forem implantados de forma incorreta. Por exemplo, muitos deles dependem de um número limitado de data centers especializados, por exemplo, centros de depuração para mitigação de DDoS. Se você ou seus usuários finais não estiverem perto de um desses data centers, o tráfego terá que percorrer uma longa distância, mesmo que seu destino final esteja próximo.

Esse processo de backhauling pode aumentar muito a latência. E o problema se acumula quando uma organização usa provedores diferentes para funções de Rede distintas, o tráfego precisa fazer muitos saltos antes de chegar ao destino final.

Usar provedores diferentes para funções distintas também cria desafios de suporte. Quando algo dá errado, pode ser difícil identificar qual provedor é a causa de congestionamento ou interrupções. Além disso, o tempo (e, portanto, os custos) necessário para gerenciar todos esses provedores ainda pode ser alto.

Como as empresas podem solucionar esses desafios?


Redes de nuvem distribuídas eliminam lacunas de segurança e reduzem a latência

As estratégias mencionadas anteriormente para proteger e acelerar a infraestrutura em nuvem têm vários pontos fracos em comum:

  • Problemas de desempenho: o hardware tem capacidade limitada e os serviços baseados em nuvem podem causar latência, especialmente quando o tráfego passa por várias Redes em nuvem para vários serviços.

  • Controles e monitoramento inconsistentes: o uso de serviços separados para diferentes funções de Rede dificulta a imposição de regras consistentes e o monitoramento do tráfego global.

  • Suporte: usar serviços separados dificulta a identificação do local dos problemas.

As soluções para todos esses problemas são: integração e alcance global, ou seja, fazer com que as funções de Rede trabalhem juntas do modo mais perfeito possível, em todo o mundo.

Na prática, isso geralmente significa usar uma rede de nuvem distribuída, que é uma rede com:

  • Muitos pontos de presença com distribuição global. Os usuários finais sempre ficam próximos da Rede, o que elimina a latência que vem do tráfego trocado com um centro de depuração, servidor VPN ou outros serviços distantes.

  • Capacidade de executar várias funções de segurança e desempenho em todos os pontos de presença. O tráfego pode ser depurado, roteado e acelerado em um único data center em vez de ter que saltar de um local para outro para cada função, o que também cria redundância. Se um data center ficar sobrecarregado ou for desativado por qualquer razão, outros poderão assumir instantaneamente.

  • Capacidade de trabalhar com infraestrutura local e em nuvem. Essa capacidade, junto com as anteriores, permite que as equipes de TI e segurança definam controles consistentes e monitorem o tráfego global em um só lugar.

Redes de nuvem distribuídas geralmente dependem de Anycast, um método de endereçamento e roteamento de rede em que as solicitações recebidas podem ser roteadas para uma variedade de locais diferentes ou "nós". O Anycast permite que essas redes roteiem o tráfego recebido para outra mais próxima que tenha a capacidade de processar a solicitação com eficiência, um componente essencial na redução da latência para os usuários finais.

Com essa interconexão, roteamento e redundância inteligentes, desafios como controles inconsistentes, latência e problemas de suporte são muito menos propensos a ficar no caminho da migração para a nuvem.

A rede em nuvem distribuída da Cloudflare possui data centers em mais de 310 cidades em mais de 120 países, todos capazes de aplicar regras de firewall, mitigar ataques de DDoS, balancear a carga do tráfego e armazenar conteúdo em cache para uma entrega rápida aos usuários finais, entre outros recursos.

Este artigo é parte de uma série sobre as tendências e os assuntos mais recentes que influenciam os tomadores de decisões de tecnologia hoje em dia.


Principais conclusões

Após ler este artigo, você entenderá:

  • Prós e contras da infraestrutura heterogênea

  • Os desafios com hardware no local e soluções de vários pontos entregues em nuvem

  • Como uma rede de nuvem distribuída elimina esses desafios


Recursos relacionados


Saiba mais sobre esse assunto.

Saiba mais sobre as estratégias de segurança para migrar funções de rede do hardware para a nuvem no artigo técnico The Death of Network Hardware Appliances.

Get the white paper

Receba um resumo mensal das informações mais populares da internet.