On parle d'inférence en IA lorsqu'un modèle d'IA produit des prédictions ou des conclusions. L'entraînement en IA correspond au processus permettant aux modèles d'IA de faire des déductions précises.
Cet article s'articule autour des points suivants :
Copier le lien de l'article
Dans le domaine de l'intelligence artificielle (IA), l'inférence correspond au processus qu'un modèle d'apprentissage automatique entraîné* utilise pour tirer des conclusions à partir de nouvelles données. Un modèle d'IA capable d'inférences peut le faire sans exemples du résultat souhaité. En d'autres termes, l'inférence est un modèle d'intelligence artificielle en action.
Une voiture autonome capable de reconnaître un panneau d'arrêt, même sur une route qu'elle n'a jamais empruntée auparavant, serait un bon exemple d'inférence de l'IA. Le processus d'identification de ce panneau d'arrêt dans un nouveau contexte est l'inférence.
Autre exemple : un modèle d'apprentissage automatique entraîné à partir des performances passées de sportifs professionnels peut être en mesure de prédire les performances futures d'un sportif donné avant qu'il ne signe un contrat. Une telle prédiction est une déduction.
*L'apprentissage automatique est un type d'IA.
Pour être en mesure d'identifier les panneaux d'arrêt à de nouveaux endroits (ou de prédire les performances d'un athlète professionnel), les modèles d'apprentissage automatique sont soumis à un processus d'entraînement. Pour le véhicule autonome, les développeurs ont montré au modèle des milliers ou des millions d'images de panneaux d'arrêt. Il est possible qu'un véhicule utilisant le modèle ait été conduit sur route (avec un conducteur humain en renfort), afin qu'il apprenne par des essais et erreurs. Enfin, après un entraînement suffisant, le modèle a été capable d'identifier seul les panneaux d'arrêt.
Presque toutes les applications de l'IA dans le monde réel s'appuient sur l'inférence de l'IA. Parmi les exemples les plus courants, on peut citer
Par essence, l'entraînement dans l'IA consiste à alimenter les modèles d'IA avec de grands ensembles de données. Ces ensembles de données peuvent être structurés ou non, étiquetés ou non. Certains types de modèles peuvent nécessiter des exemples spécifiques d'entrées et de résultats souhaités. Pour d'autres modèles, les modèles d'apprentissage en profondeur par exemple, des données brutes peuvent suffire. Les modèles finissent par apprendre à reconnaître des logiques ou des corrélations, et peuvent alors faire des déductions sur la base de nouvelles données.
À mesure que l'entraînement progresse, les développeurs peuvent avoir besoin d'affiner les modèles. Ils leur demandent de fournir des inférences juste après le processus d'entraînement initial, puis de corriger les résultats. Imaginons qu'un modèle d'IA soit chargé d'identifier les photos de chiens à partir d'un ensemble de données de photos d'animaux domestiques. Si le modèle identifie des photos de chats au lieu de chiens, il a besoin d'être ajusté.
Les programmes d'IA enrichissent les capacités des ordinateurs bien au-delà de ce qu'ils étaient capables de faire auparavant. Mais cela se fait au prix d'une utilisation de la puissance de traitement beaucoup plus intense que celle des programmes informatiques traditionnels ; de la même façon que la résolution d'une équation mathématique complexe exige d'une personne plus d'attention et de concentration que la résolution de « 2 + 2 ».
L'entraînement d'un modèle d'IA peut être très gourmand en puissance de calcul. Mais il s'agit plus ou moins d'une consommation ponctuelle. Une fois qu'un modèle est correctement entraîné, il n'a dans l'idéal pas besoin de l'être à nouveau. Si le modèle doit être adapté à un nouveau scénario d'utilisation, les développeurs peuvent utiliser des techniques moins gourmandes, comme l'adaptation par modèle auxiliaire (LoRA), au lieu de reprendre l'entraînement du modèle depuis le début.
L'inférence quant à elle est une action continue. Si un modèle est activement utilisé, il applique constamment son entraînement à de nouvelles données et fait des inférences supplémentaires. Cela nécessite une puissance de calcul assez importante et peut être très coûteux.
Cloudflare Workers AI offre aux développeurs un accès aux processeurs graphiques du monde entier pour exécuter des tâches d'IA. Il est associé à Vectorize, un service permettant de générer et de stocker des intégrations pour les modèles d'apprentissage automatique. Cloudflare propose également un stockage d'objets efficace et économique pour conserver des collections de données d'entraînement - R2, une plateforme de stockage sans frais de trafic entrant.
Découvrez comment Cloudflare permet aux développeurs d'exécuter l'inférence de l'IA à la périphérie.