¿Cuál es la historia de la IA?

Los modelos de IA más avanzados de hoy en día se basan en descubrimientos que se produjeron décadas antes. La historia de la IA se remonta a antes de la construcción del primer ordenador digital.

Objetivos de aprendizaje

Después de leer este artículo podrás:

  • Identificar los principales avances en el desarrollo de la IA
  • Entender las contribuciones realizadas a la IA a lo largo de los años por inventores e innovadores como Alan Turing, Frank Rosenblatt y Geoffrey Hinton.
  • Enumerar los desarrollos que han llevado al auge actual de la IA

Copiar enlace del artículo

¿Cuál es la historia de la IA?

La inteligencia artificial (IA) es la capacidad de una máquina (la mayoría de las veces, específicamente un ordenador) para imitar los procesos cognitivos humanos, las habilidades de resolución de problemas y las acciones. Hoy en día, la IA abarca una serie de capacidades, desde la IA predictiva y el procesamiento del lenguaje natural hasta los modelos lingüísticos de gran tamaño (LLM) y la IA a través de agentes.

La IA ha tenido muchos precursores, desde los autómatas del mundo antiguo hasta los primeros ordenadores. Y los modelos más avanzados de hoy en día se basan en teorías y algoritmos que se desarrollaron hace muchas décadas.

Principales acontecimientos en la historia de la IA: cronología

Aunque el término "inteligencia artificial" data de 1955 solamente, los acontecimientos cruciales para el desarrollo de la IA se remontan a siglos atrás.

Antes del siglo XX

  • Alrededor del año 400 a. C.: según algunas fuentes de la antigua Grecia, Arquitas de Tarento crea una paloma de madera que es capaz de batir las alas y volar.
  • Alrededor de 1495: Leonardo da Vinci crea planos detallados para un autómata en funcionamiento que parece un caballero alemán, y de hecho es posible que construyera uno (aunque, si lo hizo, no llegó a nuestros días).
  • Hacia 1560: el rey Felipe II de España encarga a un relojero llamado Juanelo Turriano que construya un autómata a imitación del fraile franciscano Diego de Alcalá (que más tarde fue canonizado como San Diego). El autómata funciona con un resorte e imita los movimientos y gestos humanos básicos.
  • 1764-1770: los autómatas conocidos como Canard Digérateur (o "pato en digestión") y Autómata Jugador de Ajedrez (o "pavo mecánico") hacen las delicias del público. Aunque más tarde se demuestra que ambos son fraudulentos, amplían la concepción popular de lo que es posible con la automatización.
  • 1822: Charles Babbage termina de construir la "máquina diferencial", una calculadora mecánica que es una de las primeras precursoras del ordenador.

1900-1973

  • 1914: el matemático e inventor Leonardo Torres y Quevedo estrena "El Ajedrecista", un autómata que puede jugar al ajedrez y derrotar a jugadores humanos en determinadas circunstancias.
  • 1943: el neurofisiólogo Warren McCulloch y el matemático Walter Pitts publican "A Logical Calculus of the Ideas Imminent in Nervous Activity", un artículo que proporciona una descripción matemática de las neuronas. El documento será un paso crucial hacia la construcción de redes neuronales artificiales.
  • 1945: se completa ENIAC, el primer ordenador digital.
  • 1949: el psicólogo Donald Hebb publica The Organization of Behavior, un libro que influirá mucho en el desarrollo de las redes neuronales.
  • 1950: el influyente matemático e informático Alan Turing publica "Computing Machinery and Intelligence", un artículo que analiza la cuestión de si las máquinas pueden pensar o no. El documento describe la famosa "prueba de Turing" para determinar si una inteligencia computarizada se ha vuelto indistinguible de la inteligencia humana.
  • 1951: Dean Edmunds y Marvin Minsky desarrollan la Calculadora de refuerzo analógico neuronal estocástico (SNARC), la primera red neuronal artificial. Tiene solo 40 unidades neuronales.
  • 1955: Se acuña el término "inteligencia artificial" en un taller organizado por el informático John McCarthy.
  • 1957: el psicólogo e informático Frank Rosenblatt crea el perceptrón, una de las primeras redes neuronales artificiales.
  • 1959: los investigadores de Stanford Bernard Widrow y Marcian Hoff desarrollan la primera red neuronal utilizada en el mundo real: MADALINE (Multiple ADAptive LINEar Elements), un modelo para eliminar los ecos en las líneas telefónicas.
  • 1966: el científico informático Joseph Weizenbaum publica el programa ELIZA, considerado el primer bot de chat (aunque su algoritmo subyacente de coincidencia de patrones es bastante simple según los estándares actuales).
  • 1969: Marvin Minsky y Seymour Papert publican Perceptrons: An Introduction to Computational Geometry, un libro que describe las redes neuronales de perceptrones (que fueron desarrolladas por primera vez por Frank Rosenblatt). De manera controvertida, el libro también analiza algunas de las limitaciones de los perceptrones, que algunos investigadores en los últimos años perciben que han frenado el entusiasmo por la financiación de la IA.

Inviernos y resurgimientos de la IA: 1973-2000

  • 1973: comienza el primer "invierno de la IA", cuando un informe del British Science Research Council determina que el trabajo en este campo no ha cumplido sus promesas, y se recorta la financiación del Reino Unido para la investigación de la IA. La investigación sobre la IA se ralentiza durante el resto de la década.
  • 1980: la Asociación para el Avance de la Inteligencia Artificial (AAAI) celebra su primera conferencia. El interés por la investigación en el campo de la IA empieza a resurgir.
  • 1982: John Hopfield de Caltech presenta un documento a la Academia Nacional de Ciencias sobre el uso de conexiones bidireccionales entre neuronas artificiales (anteriormente solo se habían utilizado conexiones unidireccionales). Además, Japón pone en marcha el proyecto de sistemas informáticos de quinta generación (FGCS) del país, lo que se traduce en más financiación para la investigación en IA.
  • 1987: comienza el segundo invierno de la IA, un periodo de inversión mínima en la investigación de IA como resultado del estancamiento del progreso.
  • 1995: Richard Wallace crea el bot de chat A.L.I.C.E., que se construye sobre la base del bot de chat ELIZA de la década de 1960.
  • 1997: Deep Blue, un superordenador de IBM, derrota al campeón mundial de ajedrez Garry Kasparov en un torneo de ajedrez de seis partidas.

Siglo XXI: el auge de la IA

  • 2002: lanzamiento de Roomba, uno de los primeros productos de consumo con capacidades totalmente autónomas.
  • 2007: el informático Geoffrey Hinton publica "Learning Multiple Layers of Representation", un documento fundamental para el desarrollo del aprendizaje profundo.
  • 2009: los investigadores Rajat Raina, Anand Madhavan y Andrew Ng publican el artículo "Large-scale Deep Unsupervised Learning using Graphics Processors", que sugiere que las GPU son mejores que las CPU para el aprendizaje automático. En los próximos años, el cambio a las GPU permitirá modelos de IA mucho más potentes que los que se habían desarrollado hasta entonces.
  • 2011: el procesador de lenguaje natural de IBM, Watson, compite en el programa de concursos estadounidense Jeopardy! y gana. También en 2011, Apple lanza Siri, el primer asistente virtual de amplia popularidad.
  • 2012: los investigadores de Google Jeff Dean y Andrew Ng entrenan una red neuronal para reconocer gatos utilizando solo imágenes sin etiquetar. Por esta época comienza el "boom de la IA".
  • 2016: AlphaGo AI de Google derrota a Lee Sedol en Go.
  • 2017: Google propone un marco para redes neuronales transformadoras, una arquitectura que allana el camino para el desarrollo de modelos lingüísticos de gran tamaño (LLM).
  • 2020: OpenAI lanza GPT-3, uno de los primeros LLM.
  • 2021: Google lanza Multitask Unified Model (MUM), un algoritmo de búsqueda basado en la IA que puede comprender y generar lenguaje.
  • 2022: la versión 4.0 de ChatGPT se pone a disposición del público y revoluciona la comprensión mundial de las capacidades de la IA. Pronto les seguirán otros LLMs, como Bard, Llama, Bing Chat y Copilot.

¿Qué es la "tercera ola" de la IA?

Sobre la base de una serie de descubrimientos y avances en el hardware, el desarrollo de la IA se ha acelerado en los últimos años tras décadas de lento progreso y de inviernos de la IA. Los observadores del sector han identificado tres "oleadas" de tipos de IA que se han generalizado en rápida sucesión durante este auge de la IA: la IA predictiva, la IA generativa (como los LLM) y la IA de agente.

La IA agente permite la creación de programas informáticos que pueden realizar tareas de forma autónoma, incluso sin instrucciones definidas, y fuera de un contexto específico basado en indicaciones. Los "agentes" de IA pueden tomar sus propias decisiones, aprender de sus experiencias pasadas y adaptar sus acciones en consecuencia. Como resultado, pueden operar de forma independiente o con muy poca intervención humana.

¿Qué depara el futuro a la IA?

Los nuevos descubrimientos y un hardware más eficaz han ayudado a la IA a obtener capacidades sin precedentes en los últimos tiempos. La historia de la IA sigue ampliándose, y el futuro puede deparar desarrollos aún más interesantes.

Cloudflare permite a los desarrolladores comenzar a hacer sus propias contribuciones a la historia de la IA. Con una infraestructura de IA sin servidor distribuida globalmente, salida de datos gratuita para datos de entrenamiento, una base de datos vectorial distribuida y otros componentes esenciales de la IA, la plataforma de Cloudflare permite a los desarrolladores desarrollar sobre la vanguardia de la IA. Empieza a contribuir a la historia de la IA.

 

Fuentes:

  • https://cs.stanford.edu/people/eroberts/courses/soco/projects/neural-networks/History/history1.html
  • https://www.history.com/articles/7-early-robots-and-automatons
  • https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(07)00217-3
  • https://www.historyofinformation.com/detail.php?entryid=782
  • https://www.historyofinformation.com/detail.php?id=4137
  • https://www.techtarget.com/searchenterpriseai/definition/AI-winter
  • https://aaai.org/conference/aaai/aaai80/
  • https://blog.google/products/search/introducing-mum/
  • https://news.harvard.edu/gazette/story/2012/09/alan-turing-at-100/