Inferência de IA versus treinamento: o que é inferência de IA?

A inferência de IA é quando um modelo de IA produz previsões ou conclusões. O treinamento de IA é o processo que permite que os modelos de IA façam inferências precisas.

Objetivos de aprendizado

Após ler este artigo, você será capaz de:

  • Definir e explicar a inferência de IA
  • Distinguir entre treinamento de IA e inferência de IA
  • Comparar a quantidade de potência de computação usada pela inferência de IA e pelo treinamento

Copiar o link do artigo

O que é inferência de IA?

No campo da inteligência artificial (IA), a inferência é o processo que um modelo de aprendizado de máquina treinado* usa para tirar conclusões a partir de dados totalmente novos. Um modelo de IA capaz de fazer inferências pode fazer isso sem exemplos do resultado desejado. Em outras palavras, a inferência é um modelo de IA em ação.

Um exemplo de inferência de IA seria um carro autônomo capaz de reconhecer um sinal de parada, mesmo em uma estrada em que ele nunca tenha dirigido antes. O processo de identificação desse sinal de parada em um novo contexto é a inferência.

Outro exemplo: um modelo de aprendizado de máquina treinado com base no desempenho anterior de jogadores esportivos profissionais pode ser capaz de fazer previsões sobre o desempenho futuro de um determinado jogador esportivo antes que ele assine um contrato. Essa previsão é uma inferência.

*O aprendizado de máquina é um tipo de IA.

Inferência de IA versus treinamento

  • O treinamento é a primeira fase de um modelo de IA. O treinamento pode envolver um processo de tentativa e erro, ou um processo de mostrar ao modelo exemplos das entradas e saídas desejadas, ou ambos.
  • A inferência é o processo que segue o treinamento de IA. Quanto mais bem treinado for um modelo e quanto mais ajustado ele for, melhores serão suas inferências, embora nunca seja garantido que elas sejam perfeitas.

Para chegar ao ponto de conseguir identificar sinais de parada em novos locais (ou prever o desempenho de um atleta profissional), os modelos de aprendizado de máquina passam por um processo de treinamento. Para o veículo autônomo, seus desenvolvedores mostraram ao modelo milhares ou milhões de imagens de sinais de parada. Um veículo que esteja executando o modelo pode até mesmo ter sido dirigido em estradas (com um motorista humano como apoio), permitindo que ele aprenda por tentativa e erro. Ao final, após treinamento suficiente, o modelo é capaz de identificar sinais de parada por conta própria.

Quais são alguns casos de uso da inferência de IA?

Quase todos os aplicativos de IA do mundo real dependem da inferência de IA. Alguns dos exemplos mais comumente usados incluem:

  • Modelos de linguagem grande (LLMs): um modelo treinado em um texto de amostra pode analisar e interpretar textos que nunca viu antes.
  • Análise preditiva: depois que um modelo tiver sido treinado em dados anteriores e atingir o estágio de inferência, ele pode fazer previsões com base nos dados recebidos.
  • Segurança de e-mail: um modelo de aprendizado de máquina pode ser treinado para reconhecer e-mails de spam ou ataques de comprometimento de e-mail empresarial e, em seguida, fazer inferências sobre as mensagens de e-mail recebidas, permitindo que os filtros de segurança de e-mail bloqueiem as mensagens maliciosas.
  • Carros sem motoristas: conforme descrito no exemplo acima, a inferência é extremamente importante para veículos autônomos.
  • Pesquisa: a pesquisa científica e médica depende da interpretação de dados e a inferência de IA pode ser usada para tirar conclusões a partir desses dados.
  • Finanças: um modelo treinado com base no desempenho passado do mercado pode fazer inferências (não garantidas) sobre o desempenho futuro do mercado.

Como funciona o treinamento de IA?

Em sua essência, o treinamento de IA envolve alimentar modelos de IA com grandes conjuntos de dados. Esses conjuntos de dados podem ser estruturados ou não estruturados, rotulados ou não rotulados. Alguns tipos de modelos podem precisar de exemplos específicos de entradas e seus resultados desejados. Outros modelos, como os de aprendizagem profunda, podem precisar apenas de dados brutos. Ao final, os modelos aprendem a reconhecer padrões ou correlações e podem, então, fazer inferências com base em novas entradas.

À medida que o treinamento progride, os desenvolvedores podem precisar ajustar os modelos. Eles fazem com que o modelo forneça algumas inferências logo após o processo de treinamento inicial e, em seguida, corrigem os resultados. Imagine que um modelo de IA tenha sido encarregado de identificar as fotos de cães em um conjunto de dados de fotografias de animais de estimação. Se, em vez disso, o modelo identificar fotos de gatos, ele precisará de alguns ajustes.

Qual é a comparação entre o uso da potência de computação da IA para inferência e para treinamento?

Os programas de IA ampliam os recursos dos computadores para muito além do que eles eram capazes de fazer anteriormente. Mas isso tem o custo de usar muito mais poder de processamento do que os programas de computador tradicionais, assim como, para uma pessoa, resolver uma equação matemática complexa exige mais foco e concentração do que resolver "2 + 2."

O treinamento de um modelo de IA pode ser muito caro em termos de capacidade de computação. Mas é mais ou menos uma despesa única. Quando um modelo é treinado adequadamente, o ideal é que ele não precise ser treinado novamente.

A inferência, no entanto, está em andamento. Se um modelo estiver em uso ativo, ele estará constantemente aplicando seu treinamento a novos dados e fazendo inferências adicionais. Isso exige uma grande capacidade de computação e pode ser muito caro.

Como a Cloudflare permite que os desenvolvedores executem a inferência de IA?

O Cloudflare Workers AI oferece aos desenvolvedores acesso a GPUs em todo o mundo para executar tarefas de IA. Isso é combinado com o Vectorize, um serviço para gerar e armazenar embeddings para modelos de aprendizado de máquina. A Cloudflare também oferece armazenamento de objetos econômico para manter coleções de dados de treinamento, o R2, uma plataforma de armazenamento com taxa de saída zero.

Saiba mais sobre como a Cloudflare permite que os desenvolvedores executem a inferência de IA na borda.