Qual é a história da IA?

Os modelos de IA mais avançados de hoje são baseados em descobertas que vieram décadas antes. A história da IA remonta a antes da construção do primeiro computador digital.

Objetivos de aprendizado

Após ler este artigo, você será capaz de:

  • Identificar os principais avanços no desenvolvimento da IA
  • Entender as contribuições feitas para a IA ao longo dos anos por inventores e inovadores como Alan Turing, Frank Rosenblatt e Geoffrey Hinton
  • Listar os desenvolvimentos que levaram ao atual boom da IA

Copiar o link do artigo

Qual é a história da IA?

A inteligência artificial (IA) é a capacidade de uma máquina (na maioria das vezes, especificamente um computador) de imitar processos cognitivos humanos, habilidades de resolução de problemas e ações. Hoje, a IA abrange uma série de habilidades, desde IA preditiva e processamento de linguagem natural até grandes modelos de linguagem (LLMs) e IA agêntica.

A IA teve muitos precursores, desde autômatos no mundo antigo até os primeiros computadores. E os modelos mais avançados da atualidade são baseados em teorias e algoritmos que foram desenvolvidos há muitas décadas.

Principais eventos na história da IA: uma linha do tempo

Embora o termo "inteligência artificial" date apenas de 1955, eventos cruciais para o desenvolvimento da IA remontam a séculos.

Antes do século 20

  • Por volta de 400 a.C.: segundo algumas fontes da Grécia antiga, Arquitas de Tarentum cria uma pomba de madeira que é capaz de bater as asas e voar.
  • Por volta de 1495: Leonardo da Vinci cria planos detalhados para um autômato de trabalho parecido com um rei alemão e pode, de fato, ter construído um (embora, se o fez, ele não sobreviveu até os dias de hoje).
  • Por volta de 1560: o rei Felipe II da Espanha encomenda a um relojoeiro chamado Juanelo Turriano a construção de um autômato imitando o frade franciscan Diego de Alcalá (que mais tarde foi canonizado como São Diego). O autômato é alimentado por uma fonte e imita movimentos e sinais humanos básicos.
  • 1764-1770: autômatos conhecidos como Canard Digérateur (ou "pato digestor") e o Automaton Chess Player (ou "turco mecânico") encantam o público. Embora ambos mais tarde se revelem fraudulentos, eles expandem a concepção popular do que é possível com a automação.
  • 1822: Charles Babbage termina de construir a "máquina diferencial", uma calculadora mecânica que é uma das primeiras precursoras do computador.

1900-1973

  • 1914: o matemático e inventor Leonardo Torres y Quevedo estreia o "El Ajedrecista", um autômato que pode jogar xadrez e derrotar jogadores humanos em determinadas circunstâncias.
  • 1943: O neurofisiologista Warren McCulloch e o matemático Walter Pitts publicam "A Logical Calculus of the Ideas Imminent in Nervous Activity", um artigo que fornece uma descrição matemática dos neurônios. O artigo será um passo essencial para a construção de redes neurais artificiais.
  • 1945: o ENIAC, o primeiro computador digital, é concluído.
  • 1949: O psicólogo Donald Hebb publica A Organização do Comportamento, um livro que se mostraria altamente influente para o desenvolvimento de redes neurais.
  • 1950: O influente matemático e cientista da computação Alan Turing publica "Computing Machinery and Intelligence", um artigo que considera a questão de se as máquinas podem ou não pensar. O artigo descreve o famoso "teste de Turing" para determinar se uma inteligência computadorizada se tornou indistinguível da inteligência humana.
  • 1951: Dean Edmunds e Marvin Minsky constroem a Stochastic Neural Analog Reinforcement Calculator (SNARC), a primeira rede neural artificial. Ela tem apenas 40 unidades de neurônios.
  • 1955: o termo "inteligência artificial" é criado em um workshop apresentado pelo cientista da computação John McCarthy.
  • 1957: O psicólogo e cientista da computação Frank Rosenblatt cria o perceptron, uma das primeiras redes neurais artificiais.
  • 1959: os pesquisadores de Stanford, Bernard Widrow e Marcian Hoff, desenvolvem a primeira rede neural usada no mundo real: MADALINE (Multiple ADAptive LINEar Elements), um modelo para eliminar ecos em linhas telefônicas.
  • 1966: o cientista da computação Joseph Weizenbaum publica o programa ELIZA, considerado o primeiro chatbot (embora seu algoritmo de correspondência de padrões subjacente fosse bastante simples para os padrões de hoje).
  • 1969: Marvin Minsky e Seymor Papert publicam Perceptrons: An Introduction to Computational Geometry, um livro que descreve as redes neurais perceptron (que foram desenvolvidas pela primeira vez por Frank Rosenblatt). De forma controversa, o livro também discute algumas das limitações dos perceptrons, que alguns pesquisadores nos anos posteriores percebem como tendo atenuado o entusiasmo pelo financiamento da IA.

Invernos e renascimentos da IA: 1973-2000

  • 1973: começa o primeiro "inverno da IA", quando um relatório do British Science Research Council determina que o trabalho no campo não cumpriu suas promessas, e o financiamento do Reino Unido para pesquisas de IA é cortado. A pesquisa sobre IA desacelera no restante da década.
  • 1980: A Association for the Advancement of Artificial Intelligence (AAAI) realiza sua primeira conferência. O interesse pela pesquisa em IA começa a renascer.
  • 1982: John Hopfield, da Caltech, apresenta um artigo à National Academy of Sciences sobre o uso de conexões bidirecionais entre neurônios artificiais (apenas conexões unidirecionais eram usadas anteriormente). Além disso, o Japão lança o projeto Sistemas de Computadores de Quinta Geração (FGCS) do país, resultando em mais financiamento para pesquisas de IA.
  • 1987: começa o segundo inverno de IA, um período de investimento mínimo em pesquisas de IA como resultado de um progresso estagnado.
  • 1995: Richard Wallace cria o A.L.I.C.E. O chatbot, que é baseado no alicerce do chatbot ELIZA dos anos 1960.
  • 1997: o Deep Blue, um supercomputador da IBM, derrota o campeão mundial de xadrez Garry Kasparov em uma partida de xadrez de seis jogos.

Século 21: o crescimento da IA

  • 2002: é lançado o Roomba, um dos primeiros produtos de consumo com recursos totalmente autônomos.
  • 2007: o cientista da computação Geoffrey Hinton publica "Learning Multiple Layers of Representation", um artigo seminal para o desenvolvimento da aprendizagem profunda.
  • 2009: os pesquisadores Rajat Raina, Anand Madhavan e Andrew Ng publicam o artigo "Large-scale Deep Unsupervised Learning using Graphics Processors", que sugere que os GPUs são melhores do que os CPUs para o aprendizado de máquina. Nos próximos anos, a mudança para GPUs permitirá modelos de IA muito mais poderosos do que já haviam sido desenvolvidos antes.
  • 2011: o processador de linguagem natural da IBM, Watson, compete no programa de jogos americano Jeopardy! e vence. Também em 2011, a Apple lança o Siri, o primeiro assistente virtual amplamente popular.
  • 2012: os pesquisadores do Google Jeff Dean e Andrew Ng treinam uma rede neural para reconhecer gatos usando apenas imagens não rotuladas. Por volta dessa época, começa o "boom da IA".
  • 2016: a AlphaGo AI do Google derrota Lee Sedol em Go.
  • 2017: o Google propõe uma estrutura para redes neurais transformadora, uma arquitetura que abre caminho para o desenvolvimento de grandes modelos de linguagem (LLMs).
  • 2020: a OpenAI lança o GPT-3, um dos primeiros LLMs.
  • 2021: o Google lança o Multitask Unified Model (MUM), um algoritmo de pesquisa orientado por IA que pode entender e gerar linguagem.
  • 2022: a versão 4.0 do ChatGPT é disponibilizada ao público e revoluciona a compreensão do mundo sobre os recursos da IA. Outros LLMs, como o Bard, o Llama, o Bing Chat e o Copilot, surgem em seguida.

O que é a "terceira onda" da IA?

Com base em uma série de descobertas e avanços em hardware, o desenvolvimento da IA acelerou nos últimos anos, após décadas de progresso lento e invernos de IA. Observadores do setor identificaram três "ondas" de tipos de IA que entraram no fluxo principal em rápida sucessão durante esse boom da IA: IA preditiva, IA generativa (como LLMs) e IA agêntica.

A IA agêntica permite a criação de programas de computador que podem executar tarefas de forma autônoma, mesmo sem instruções definidas e fora de um contexto específico baseado em prompts. Os "agentes" de IA podem tomar suas próprias decisões, aprender com suas experiências anteriores e adaptar suas ações de acordo. Como resultado, eles podem operar de forma independente ou com muito pouca intervenção humana.

O que o futuro reserva em termos de IA?

Novas descobertas e um hardware mais capaz ajudaram a IA a obter recursos sem precedentes nos últimos tempos. A história da IA continua a se expandir e o futuro pode reservar desenvolvimentos ainda mais empolgantes.

A Cloudflare capacita os desenvolvedores a começarem a dar suas próprias contribuições para a história da IA. Com uma infraestrutura de IA sem servidor distribuída globalmente, saída de dados gratuita para dados de treinamento, um banco de dados vetorial distribuído e outros elementos básicos essenciais de IA, a plataforma da Cloudflare permite que os desenvolvedores criem na vanguarda da IA. Comece a dar sua contribuição para a história da IA.

 

Fontes:

  • https://cs.stanford.edu/people/eroberts/courses/soco/projects/neural-networks/History/history1.html
  • https://www.history.com/articles/7-early-robots-and-automatons
  • https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(07)00217-3
  • https://www.historyofinformation.com/detail.php?entryid=782
  • https://www.historyofinformation.com/detail.php?id=4137
  • https://www.techtarget.com/searchenterpriseai/definition/AI-winter
  • https://aaai.org/conference/aaai/aaai80/
  • https://blog.google/products/search/introducing-mum/
  • https://news.harvard.edu/gazette/story/2012/09/alan-turing-at-100/