theNet by CLOUDFLARE

Uso seguro da IA generativa

É impossível ignorar o impacto da IA generativa desde que ela surgiu. Algumas pessoas aderiram à tecnologia como uma transformação no local de trabalho, anunciando uma nova era em que nunca mais terão de enfrentar o trabalho árduo de escrever um e-mail ou um relatório.

Já para outros, é o início de uma nova onda de tecnologia que parece destinada a trazer benefícios incalculáveis em todos os setores das empresas, desde a logística até o desenvolvimento de novos medicamentos que salvam vidas.

Mas o brilho inicial dessa tecnologia revolucionária, aclamada como um avanço significativo na produtividade pessoal, também está levantando algumas preocupações, principalmente em termos de privacidade e segurança de dados.

No início deste ano, a gigante dos eletrônicos Samsung proibiu o uso de ferramentas de IA generativa após relatos de que seus funcionários haviam compartilhado acidentalmente informações confidenciais ao usar o ChatGPT para obter ajuda no trabalho.

Em um e-mail enviado à equipe e amplamente divulgado na época, a empresa coreana afirmou: "O interesse em plataformas de IA generativa, como o ChatGPT, tem crescido interna e externamente. Embora esse interesse se concentre na utilidade e na eficiência dessas plataformas, também há uma preocupação crescente com os riscos de segurança apresentados pela IA generativa."

A Samsung não está sozinha. Várias empresas, e alguns países, proibiram a IA generativa. E é fácil entender o motivo.


A IA generativa representa uma ameaça à segurança

Na verdade, o uso de ferramentas como o ChatGPT e outros modelos de linguagem ampla (LLMs) está basicamente abrindo a porta para a TI invisível não monitorada, dispositivos, software e serviços fora da propriedade ou do controle das organizações de TI.

E o problema é simples. Quer seja um funcionário experimentando a IA ou uma iniciativa da empresa, uma vez que os dados proprietários são expostos à IA, não há como reverter isso. Não se engane. A IA é uma promessa incrível. Porém, sem as devidas proteções, ela apresenta riscos significativos para os negócios e para as organizações.

De acordo com uma pesquisa da KPMG recente, os executivos esperam que a IA generativa tenha um enorme impacto nas empresas, mas a maioria diz que não está preparada para a adoção imediata. E no topo da lista de preocupações estão a segurança cibernética (81%) e a privacidade dos dados (78%).

É por isso que os líderes de segurança precisam encontrar um equilíbrio entre possibilitar a inovação transformadora por meio da IA e, ao mesmo tempo, manter a conformidade com as normas de privacidade de dados. E a melhor abordagem para fazer isso é implementar controles de segurança Zero Trust, para que a empresa possa usar com segurança as mais recentes ferramentas de IA generativa sem colocar em risco a propriedade intelectual e os dados dos clientes.


O que é segurança zero trust?

A segurança Zero Trust é uma metodologia que exige a verificação rigorosa da identidade de cada pessoa e dispositivo que tenta acessar recursos na rede. Ao contrário de uma abordagem tradicional de "castelo e fosso", uma arquitetura Zero Trust não confia em ninguém e em nada.

E é essa abordagem que é essencial para qualquer organização que pretenda usar a IA. Por quê? Porque os controles de segurança Zero Trust permitem que a empresa use com segurança as mais recentes ferramentas de IA generativa sem colocar em risco a propriedade intelectual e os dados dos clientes.

As organizações que usam IA generativa precisam garantir que seus sistemas sejam robustos o suficiente para evitar problemas de segurança.


Proteja e defenda seus dados

É fundamental entender quantos funcionários estão experimentando os serviços de IA e para que os estão usando. Fornecer aos administradores de sistema a supervisão, e o controle, dessa atividade para o caso de eles precisarem interrompê-la a qualquer momento ajudará a garantir a segurança dos dados da sua organização.

A adoção de um serviço de prevenção contra perda de dados (DLP) ajudará a fornecer uma proteção para fechar a lacuna humana na forma como os funcionários podem compartilhar dados. Enquanto regras mais granulares podem até permitir que usuários selecionados experimentem projetos que contenham dados confidenciais, com limites mais rígidos para a maioria das equipes e dos funcionários.

Em outras palavras, se as organizações quiserem usar a IA em todas as suas formas, precisarão melhorar sua segurança e adotar uma abordagem Zero Trust. E, embora seja importante destacar o problema, não há necessidade de sensacionalizar as preocupações com uma tecnologia que tem o potencial de oferecer tanto.

Afinal, a cada passo transformador da tecnologia, dos telefones celulares à computação em nuvem, novas ameaças à segurança vêm à tona. E, a cada vez, o setor reagiu para reforçar a segurança, o protocolo e os processos. O mesmo acontecerá com a IA.

Este artigo é parte de uma série sobre as tendências e os assuntos mais recentes que influenciam os tomadores de decisões de tecnologia hoje em dia.

Este artigo foi originalmente produzido para o The AI Journal



Principais conclusões

Após ler este artigo, você entenderá:

  • Os riscos introduzidos pelo uso da IA

  • O papel que o Zero Trust pode desempenhar na habilitação segura de ferramentas de IA


Recursos relacionados


Receba um resumo mensal das informações mais populares da internet.