theNet by CLOUDFLARE

Aumentar a eficiência do governo com agentes de IA

Reduza os custos e cumpra os mandatos de eficiência

As agências governamentais e outras organizações do setor público estão sob imensa pressão hoje para aumentar a eficiência e reduzir custos. Mas elas ainda precisam encontrar maneiras de gerenciar uma ampla gama de tarefas críticas, desde o processamento de pedidos de passaporte e desembolsos de benefícios da Seguridade Social até a tradução de documentos diplomáticos e a detecção de comportamentos suspeitos em espaços públicos.

Como cidadãos, todos esperamos que as agências governamentais e organizações do setor público ofereçam experiências rápidas e convenientes. Queremos acessar informações e enviar solicitações 24 horas por dia, usando uma variedade de dispositivos digitais.

Em minhas discussões com líderes de tecnologia no setor público, ouço muitas vezes que eles estão ansiosos para adotar agentes de IA, ou “IA agêntica”, como uma forma de abordar rapidamente os mandatos de eficiência e, ao mesmo tempo, aprimorar os serviços. Seus colegas em outros setores reconhecem da mesma forma a promessa dos agentes de IA. Em uma pesquisa recente do Boston Consulting Group, 58% dos compradores de TI em empresas comerciais relatam que já estão implantando agentes de IA e outros 35% estão considerando isso ativamente. Esses compradores preveem um ROI de 13,7% dos agentes de IA, superior ao ROI esperado de aplicativos de IA generativa (GenAI)não agêntica. Enquanto isso, as organizações do setor público poderiam obter economias de custos significativas.

Ainda assim, os agentes de IA vêm com riscos. Fornecer informações imprecisas ou resultados incorretos pode apagar rapidamente os benefícios de eficiência e economia de custos. À medida que as organizações planejam as implementações, incorporar proteções e criar loops para melhoria contínua será fundamental para maximizar os ganhos dos agentes de IA.


Casos de uso para empregar agentes de IA no setor público

Há inúmeros casos de uso possíveis para agentes de IA no setor público. Em cada um, os agentes podem satisfazer a necessidade urgente de reduzir ou eliminar tarefas humanas manuais. A seguir, apresentamos quatro exemplos de casos de uso simples:

  1. Suporte por telefone e web: um agente de IA poderia lidar com o atendimento inicial por telefone e web para uma agência como a Administração da Seguridade Social ou o IRS, fornecendo informações e recomendando ações para os cidadãos. Se alguém precisar de assistência adicional, o agente de IA pode transferir a chamada ou solicitação on-line para um ser humano.

  2. Vigilância de segurança pública por vídeo: uma agência de trânsito público poderia usar um agente de IA para detectar anomalias em feeds de vídeo em tempo real de pontos de ônibus ou estações de trem. O agente de IA estaria ligado continuamente. Ele poderia identificar comportamentos incomuns e alertar o pessoal responsável para análises humanas mais aprofundadas.

  3. Processamento de documentos: para agências que precisam lidar com vários idiomas e vários tipos de documentação, os agentes de IA poderiam traduzir documentos, classificar conteúdos e, em seguida, enviar informações a pessoas específicas ou armazená-las em um local apropriado. Os agentes poderiam reduzir substancialmente o trabalho administrativo tedioso para os humanos.

  4. Pesquisa interna de agências: os funcionários em uma agência governamental podem usar um chatbot baseado em agente para encontrar rapidamente políticas aplicáveis a seu departamento ou agência específicos. Essa ferramenta ajudaria a eliminar o trabalho caro e demorado de pesquisar manualmente em documentos de políticas eletrônicos ou físicos.



Os desafios da implementação de agentes de IA

Embora os agentes de IA tenham muitos casos de uso promissores para todas as organizações do setor público, implementá-los apresenta alguns desafios.

Em primeiro lugar, os grandes modelos de linguagem (LLMs) que servem como cérebro dos agentes de IA são não determinísticos. Em outras palavras, se você fornecer exatamente o mesmo prompt a um LLM cinco vezes, poderá obter cinco respostas ligeiramente diferentes, e o modelo não dirá por que as respostas variam. Essa inconsistência pode causar problemas significativos, especialmente quando você conta com o agente de IA para tomar decisões relacionadas à segurança pública ou para lidar com informações pessoais dos cidadãos.

Um segundo desafio, relacionado, é a falta de proteções. Para detectar resultados inconsistentes ou errôneos antes que causem danos, você precisa ter visibilidade e controle sobre os fluxos dos agentes de IA. Ao mesmo tempo, você precisa manter o controle sobre os dados que está usando para treinar os LLMs. A precisão dos resultados depende em grande parte do fornecimento aos modelos de dados precisos, consistentes e de alta qualidade.

As ferramentas estão surgindo no mercado para resolver algumas dessas preocupações sobre a falta de proteções. Portanto, é fundamental manter-se atualizado sobre as ofertas de segurança de IA.


Cinco considerações para o desenvolvimento de fluxos de trabalho de agentes de IA

A implementação bem-sucedida de agentes de IA requer planejamento cuidadoso, trabalho técnico e mudança de processos. Depois de definir a funcionalidade de um agente, você precisa criar o sistema e o fluxo de trabalho. E, desde o início, você deve incorporar proteções e construir um meio para melhorar continuamente os resultados.

  1. Defina o que você deseja que o agente faça. Parece simples, mas definir claramente seu objetivo é um primeiro passo essencial, porque você pode determinar se realmente precisa de um agente de IA para atingir esse objetivo. Algumas organizações correm para implementar agentes de IA quando uma simples ferramenta de fluxo de trabalho seria aceitável. A IA é necessária apenas quando o fluxo de trabalho fica mais dinâmico. Se você puder automatizar uma tarefa sem um agente de IA, poderá economizar tempo e esforço significativos.

  2. Escolha o LLM certo. Se você determinar que um agente de IA é necessário para automatizar uma tarefa específica, precisa estabelecer os mecanismos de raciocínio e planejamento dele. Na maioria dos casos, isso envolve a escolha de um LLM, seja um LLM de código aberto ou comercial. Você pode então usar a geração aumentada de recuperação (RAG) para recuperar dados específicos da agência, o que ajudará a garantir respostas precisas e personalizadas.

  3. Prepare-se para integrações técnicas. O objetivo de um agente de IA é aproveitar um LLM para entender uma tarefa ou objetivo e, em seguida, executar essa tarefa ou atingir esse objetivo. Para que tudo isso aconteça, você precisa de acesso a ferramentas, as quais podem abrir um navegador ou gravar em um banco de dados. E para facilitar essas interações entre LLMs e ferramentas, você precisa dos protocolos de comunicação corretos.

    Até recentemente, os desenvolvedores usavam principalmente APIs para integrar ferramentas e LLMs. No entanto, agora, um novo model control protocol (MCP) está se tornando o padrão de fato para conectar sistemas de IA com aplicativos externos. O MCP foi amplamente aceito e vai impulsionar a inovação ao fornecer uma integração simples para que todos os modelos e ferramentas de IA funcionem em conjunto.

  4. Estabeleça proteções. Os agentes de IA prometem realizar tarefas de forma autônoma, mas controlar esses agentes muitas vezes requer um certo grau de envolvimento humano. Especificamente, você pode precisar manter um ser humano no circuito para revisar e confirmar algumas ações antes que o agente as execute.

    Veja o exemplo dos agentes de IA empregados em contact centers baseados em telefone, que são usados por muitas agências. Você pode ter um humano validando as respostas fornecidas pelo agente para ajudar a garantir a precisão. Se uma pessoa entrar em contato com o escritório sobre um cheque que não foi recebido, o agente de IA pode analisar o problema e propor uma resposta como, "O cheque não foi enviado devido a erro do sistema". O humano então analisa essa resposta gerada pela IA e se certifica de que ela está correta antes de responder ao cidadão e enviar o cheque.

    Além de manter um ser humano no circuito, os recursos de segurança e as políticas de governança de dados são essenciais para minimizar os riscos associados aos agentes de IA.

  5. Crie um circuito fechado. Além de monitorar entradas e saídas, você precisa de uma maneira de melhorar continuamente a precisão dos resultados, tornando o agente mais inteligente e mais eficaz ao longo do tempo. Isso requer que você crie um circuito fechado. Por meio desse circuito, você pode fazer ajustes nos prompts, no fluxo das informações ou no conjunto de dados no sistema RAG.

    Técnicas adicionais podem ajudar a melhorar ainda mais a precisão. Em particular, incorporar mais dados em modelos e adicionar maior contexto aos prompts permite que você aprimore a precisão dos resultados.


Comece a criar e implantar agentes de IA agora

Algumas organizações comerciais (como Salesforce e Microsoft) já estão implementando agentes de IA em fluxos de trabalho. Essas organizações estão começando com ambientes fechados, aproveitando agentes de IA para oferecer a seus usuários experiências novas ou melhores. Por exemplo, um usuário da Microsoft pode pedir a um agente de IA para resumir os e-mails de uma determinada pessoa, aceitar todos os convites de seu gerente e reagendar solicitações que se sobrepõem às solicitações de seu gerente.

As organizações do setor público, sob extrema pressão para aumentar a eficiência e cortar custos, estão preparadas para a adoção de agentes de IA. Sua organização pode começar a implementar agentes para fluxos de trabalho simples para economizar tempo e reduzir a necessidade de esforço manual humano.

Mas, num futuro próximo, você poderá usar agentes de IA em ambientes abertos e mais complicados. A combinação de agentes de IA com IoT, por exemplo, vai criar novas possibilidades importantes, como o uso de agentes de IA com ferramentas ou veículos autônomos. Esses casos de uso podem continuar a melhorar a qualidade dos serviços prestados aos cidadãos, ao mesmo tempo que melhoram drasticamente a eficiência operacional, que continuará sendo um objetivo essencial para as agências governamentais.

A Cloudflare pode ajudar sua organização a criar agentes de IA e estabelecer as proteções necessárias. A plataforma Workers AI da Cloudflare permite que as organizações criem e executem agentes e aplicativos de IA na rede global da Cloudflare, o que ajuda a maximizar o desempenho e a melhorar a escalabilidade dos modelos, ao mesmo tempo que agiliza o desenvolvimento e reduz os custos. Enquanto isso, a Cloudflare pode acelerar a implementação de um modelo de segurança Zero Trust que melhora a precisão dos resultados dos agentes de IA, controlando o acesso aos dados e aos modelos usados pelos agentes. Com a Cloudflare, as agências governamentais e outras organizações do setor público podem aproveitar o poder dos agentes de IA para melhorar os serviços e reduzir custos, ao mesmo tempo em que fortalecem as proteções para seu uso.

Este artigo é parte de uma série sobre as tendências e os assuntos mais recentes que influenciam os tomadores de decisões de tecnologia hoje em dia.


Saiba mais sobre esse assunto

Saiba mais sobre como implementar proteções para o uso de agentes de IA em sua organização com o guia Garantir práticas seguras de IA para CISOs.

Autoria

Dan Kent — @danielkent1
Field CTO for Public Sector, Cloudflare



Principais conclusões

Após ler este artigo, você entenderá:

  • Quatro casos de uso principais para agentes de IA no setor público

  • Os principais desafios que as organizações estão enfrentando com a implementação

  • Cinco considerações para que as organizações desenvolvam um plano de wireframe para começar


Recursos relacionados

Receba um resumo mensal das informações mais populares da internet.