Quelle est l'histoire de l'IA ?
L'intelligence artificielle (IA) désigne la capacité d'une machine (le plus souvent, plus précisément un ordinateur) à imiter les processus cognitifs, les aptitudes à résoudre les problèmes et les actions humaines. Aujourd'hui, l'IA englobe une variété de capacités, de l'IA prédictive au traitement du langage naturel, en passant par les grands modèles de langage (LLM) et l'IA agentique.
L'IA a eu de nombreux précurseurs, des automatisations de l'ancienne génération aux premiers ordinateurs. Et les modèles actuels les plus avancés reposent sur des théories et des algorithmes développés il y a plusieurs décennies.
Étapes majeures de l'histoire de l'IA : chronologie
Si le terme « intelligence artificielle » ne date que de 1955, des événements datant de plusieurs siècles ont été déterminants pour le développement de l'IA.
Avant le 20e siècle
- Vers 400 avant notre ère : selon certaines sources de la Grèce antique, Arcytas de Tarentum crée une colombe en bois capable de battre des ailes et de voler.
- Vers 1495 : Léonard de Leonardo établit des plans détaillés d'un automate à l'effigie d'un chevalier allemand (il semblerait qu'il en ait construit un, mais s'il l'a fait, il n'existe plus aujourd'hui).
- Vers 1560 : le roi Phillip II d'Espagne commande à un horloger nommé Juanelo Turriano de construire un automate imitant le frère franciscain Diego de Alcalá (qui sera plus tard canonisé sous le nom de Santo Diego). L'automatisation est alimentée par un ressort et imite les mouvements et les gestes humains de base.
- 1764–1770 : les automates connues sous le nom de Canard de Vaucanson (ou « canard digérant ») et l'automate joueur d'échec (ou le « Turc mécanique ») font le bonheur du public. Si les deux se révèleront par la suite n'être qu'une illusion, ils élargissent dans l'imaginaire populaire le champ des possibles grâce à l'automatisation.
- 1822 : Charles Babbage termine de mettre au point la « machine à différences », un calculateur mécanique précurseur de l'ordinateur.
1900–1973
- 1914 : le mathématicien et inventeur Leonardo Torres y Quevedo lance « El Ajedrecista », un automate capable de jouer aux échecs et de vaincre les joueurs humains dans certaines circonstances.
- 1943 : le neurophysiologiste Warren McCulloch et le mathématicien Walter Pitts publient un article sur « le calcul logique des idées immanentes dans l'activité nerveuse », qui présente une description mathématique des neurones. Ce document constituera une étape cruciale vers la construction de réseaux neuronaux artificiels.
- 1945 : ENIAC, le premier ordinateur numérique, est achevé.
- 1949 : le psychologique Donald Hebb publie L'organisation du comportement, un livre qui s'avérera très influent sur le développement des réseaux neuronaux.
- 1950 : Alan Turing, mathématicien et informaticien influent, publie un article intitulé « Computing Machinery and Intelligence » (Les machines à calculer et l'intelligence), un article qui s'interroge sur la possibilité que les machines puissent penser. L'article décrit le célèbre « test de Turing » visant à déterminer si une intelligence informatisée est devenue impossible à distinguer de l'intelligence humaine.
- 1951 : Dean Edmunds et Marvin Minsky créent le SNARC (Stochastic Neural Analog Reinforcement Calculator), le premier réseau neuronal artificiel. Il ne compte que 40 unités neuronales.
- 1955 : le terme « intelligence artificielle » est inventé lors d'un atelier organisé par l'informaticien John McCartthy.
- 1957 : le psychologique et informaticien Frank Rosenblatt crée le perceptron, un des premiers réseaux neuronaux artificiels.
- 1959 : Bernard Widrow et Marcian Hoff, deux chercheurs de Stanford, développent le premier réseau neuronal utilisé dans le monde réel : MADALINE (Multiple Adaptive LINEear Elements), un modèle permettant d'éliminer l'écho sur les lignes téléphoniques.
- 1966 : l'informaticien Joseph Wezenbaum publie le programme LIZA, considéré comme le premier chatbot (même si son algorithme de correspondance est assez simple en comparaison des normes actuelles).
- 1969 : Marvin Minsky et Seyour Papert publient Perceptrons : introduction à la géométrie compétitive, un livre décrivant les réseaux neuronaux perceptron (développés pour la première fois par Frank Rosenblatt). De manière controversée, l'e-book expose également les limites des perceptrons. Certains chercheurs reprocheront à ce livre d'avoir freiné l'enthousiasme pour le financement de l'IA.
Entre hivers et renouveaux de l'IA : 1973–2000
- 1973 : le premier « hiver de l'IA » commence, lorsqu'un rapport du British Science Research Council détermine que les travaux dans ce domaine n'ont pas tenu leurs promesses et que le financement britannique pour la recherche sur l'IA est supprimé. La recherche sur l'IA ralentira pendant le reste de la décennie.
- 1980 : l'association pour l'avancée de l'intelligence artificielle (AAAI) organise sa première conférence. L'intérêt pour la recherche sur l'IA commence à se raviver.
- 1982 : John Hopfield de Caltech présente un article à la National Academy of Science consacré à l'utilisation des connexions bidirectionnelles entre les neurones artificiels (seules les connexions unidirectionnelles avaient été utilisées jusqu'ici). Par ailleurs, le Japon lance le projet de systèmes informatiques de cinquième génération (FGCS), qui se traduit par une augmentation du financement de la recherche sur l'IA.
- 1987 : le deuxième hiver de l'IA commence, marqué par une période d'investissements minimes dans la recherche sur l'IA en raison d'une stagnation des progrès.
- 1995 : Richard Wallace crée le programme ALICE (Artificial Linguistic Internet Computer Entity), qui s’appuie sur les fondations du chatbot ELIZA des années 1960.
- 1997 : Deep Blue, un superordinateur IBM, remporte un match d'échec en six parties contre le champion du monde d'échecs Garry Kasparov.
21e siècle : l'explosion de l'IA
- 2002 : Roomba, l'un des premiers produits grand public dotés de capacités entièrement autonomes, est lancé.
- 2007 : l'informaticien Geoffrey Hinton publie « Learning Multiple Layers of Representation », un article précurseur consacré au développement de l'apprentissage en profondeur (deep learning).
- 2009 : les chercheurs Rajat Raina, Anand Madhavan et Andrew Ng publient l'article « Large-scale Deep Unsupervised Learning Using Graphics Processors », qui suggère que les GPU sont meilleurs que les processeurs pour l'apprentissage automatique. Dans les années à venir, la transition vers les GPU donnera naissance à des modèles d'IA bien plus puissants que ceux qui ont été développés jusqu'ici.
- 2011 : Watson, le processeur de langage naturel d'IBM, participe au jeu américain Jepoardy! et l'emporte. Toujours en 2011, Apple lance Siri, le premier assistant virtuel très populaire.
- 2012 : Jeff Dean et Andrew Ng, chercheurs de Google, entraînent un réseau neuronal à reconnaître les chats uniquement à l'aide d'images non étiquetées. C'est à ce moment que commence l'« explosion de l'IA ».
- 2016 : AlphaGo AI de Google l'emporte sur Lee Sedol au jeu de Go.
- 2017 : Google propose un cadre pour les réseaux neuronaux de type transformeur, une architecture qui ouvre la voie au développement de grands modèles de langage (LLM).
- 2020 : OpenAI lance GPT-3, l'un des premiers LLM.
- 2021 : Google publie Multitask Unified Model (MUM), un algorithme de recherche piloté par IA capable à la fois de comprendre et de générer du langage.
- 2022 : la version 4.0 de ChatGPT est mise à la disposition du public et révolutionne la compréhension des capacités de l'IA par le monde. D'autres LLM, tels que Bard, Llama, Bing Chat et Copilot, suivent de près.
Qu'est-ce que la « troisième vague » de l'IA ?
Fort d'une série d'innovations et d'avancées dans le domaine du matériel, le développement de l'IA a accéléré ces dernières années, après des décennies de lenteur et d'hiver pour l'IA. Les observateurs du secteur ont identifié trois « vagues » de types d'IA qui se sont généralisés l'une après l'autre pendant l'explosion de l'IA : l'IA prédictive, l'IA générative (comme les LLM) et l'IA agentique.
L'IA agentique permet de créer des programmes informatiques capables d'effectuer des tâches de manière autonome, même sans instructions précises et en dehors d'un contexte spécifique basé sur des invites. Les « agents » IA peuvent prendre leurs propres décisions, apprendre de leurs expériences passées et adapter leurs actions en conséquence. d' Par conséquent, ils peuvent fonctionner de manière indépendante ou avec très peu d’intervention humaine.
Que réserve l'avenir pour l'IA ?
Dernièrement, de nouvelles découvertes et du matériel plus performant ont permis à l'IA de parvenir à des capacités sans précédent. L'histoire de l'IA continue de s'étendre, et l'avenir pourrait nous réserver des développements encore plus passionnants.
Cloudflare permet aux développeurs de commencer à apporter leurs propres contributions à l'histoire de l'IA. Grâce à une infrastructure IA serverless distribuée à l'échelle mondiale, à des frais de trafic sortant gratuits pour les données d'apprentissage, à une base de données vectorielle décentralisée et à d'autres composants d'IA cruciaux, la plateforme Cloudflare permet aux développeurs de créer à la périphérie du réseau. Commencez à apporter votre contribution à l'histoire de l'IA.
Sources :
- https://cs.stanford.edu/people/eroberts/courses/sico/projects/neural-networks/History/history1.html
- https://www.history.com/articles/7-early-robots-and-automatons
- https://www.cell.com/trends/cognitive-informatiques/fulltext/S1364-6613(07)00217-3
- https://www.historyofinformation.com/detail.php?entryid=782
- https://www.historyofinformation.com/detail.php?id=4137
- https://www.techtarget.com/searchenterpriseai/definition/AI-winter
- https://aaai.org/conference/aaai/aaai80/
- https://blog.google/products/search/introducing- Séma/
- https://news.harvard.edu/ gazette/story/2012/09/alan-uring-at-100/