Inférence et entraînement en matière d'IA : qu'est-ce que l'inférence en IA ?

On parle d'inférence en IA lorsqu'un modèle d'IA produit des prédictions ou des conclusions. L'entraînement en IA correspond au processus permettant aux modèles d'IA de faire des déductions précises.

Objectifs d’apprentissage

Cet article s'articule autour des points suivants :

  • Définir et expliquer l'inférence de l'IA
  • Distinguer la formation de l'IA et l'inférence de l'IA
  • Comparer la puissance de calcul utilisée par l'inférence de l'IA par rapport à l'entraînement

Copier le lien de l'article

Qu'est-ce que l'inférence de l'IA ?

Dans le domaine de l'intelligence artificielle (IA), l'inférence correspond au processus qu'un modèle d'apprentissage automatique entraîné* utilise pour tirer des conclusions à partir de nouvelles données. Un modèle d'IA capable d'inférences peut le faire sans exemples du résultat souhaité. En d'autres termes, l'inférence est un modèle d'intelligence artificielle en action.

Une voiture autonome capable de reconnaître un panneau d'arrêt, même sur une route qu'elle n'a jamais empruntée auparavant, serait un bon exemple d'inférence de l'IA. Le processus d'identification de ce panneau d'arrêt dans un nouveau contexte est l'inférence.

Autre exemple : un modèle d'apprentissage automatique entraîné à partir des performances passées de sportifs professionnels peut être en mesure de prédire les performances futures d'un sportif donné avant qu'il ne signe un contrat. Une telle prédiction est une déduction.

*L'apprentissage automatique est un type d'IA.

Entraînement et inférence en IA

  • L'entraînement constitue la première phase d'un modèle d'IA. Il peut s'effectuer selon une série d'essais et d'erreurs, ou selon un processus consistant à montrer au modèle des exemples d'entrées et de sorties souhaitées, ou associer les deux méthodes.
  • L'inférence correspond au processus suivant l'entraînement de l'IA. Plus un modèle est entraîné et affiné, meilleures seront ses inférences, sans aucune garantie toutefois qu'elles soient parfaites.

Pour être en mesure d'identifier les panneaux d'arrêt à de nouveaux endroits (ou de prédire les performances d'un athlète professionnel), les modèles d'apprentissage automatique sont soumis à un processus d'entraînement. Pour le véhicule autonome, les développeurs ont montré au modèle des milliers ou des millions d'images de panneaux d'arrêt. Il est possible qu'un véhicule utilisant le modèle ait été conduit sur route (avec un conducteur humain en renfort), afin qu'il apprenne par des essais et erreurs. Enfin, après un entraînement suffisant, le modèle a été capable d'identifier seul les panneaux d'arrêt.

Quels sont les cas d'utilisation de l'inférence de l'IA ?

Presque toutes les applications de l'IA dans le monde réel s'appuient sur l'inférence de l'IA. Parmi les exemples les plus courants, on peut citer

  • Les grands modèles de langage (LLM) : un modèle entraîné sur un échantillon de texte peut analyser et interpréter des textes qu'il n'a jamais vus auparavant
  • L'analyse prédictive : une fois qu'un modèle a été entraîné sur des données antérieures et qu'il a atteint le stade de l'inférence, il peut faire des prédictions sur la base des données entrantes
  • La sécurité du courrier électronique : un modèle d'apprentissage automatique peut être entraîné à reconnaître les e-mails non sollicités ou les attaques par compromission du courrier électronique professionnel, puis à établir des déductions concernant les e-mails entrants, ce qui permet aux filtres de sécurité de bloquer les e-mails malveillants
  • Les voitures autonomes : comme le décrit l'exemple ci-dessus, l'inférence est extrêmement importante pour les véhicules autonomes
  • La recherche : la recherche scientifique et médicale repose sur l'interprétation de données, et l'inférence de l'IA peut être utilisée pour tirer des conclusions à partir de ces données
  • Finance : un modèle entraîné sur les performances passées du marché peut faire des déductions (sans garantie) sur les performances futures du marché

Comment fonctionne l'entraînement en IA ?

Par essence, l'entraînement dans l'IA consiste à alimenter les modèles d'IA avec de grands ensembles de données. Ces ensembles de données peuvent être structurés ou non, étiquetés ou non. Certains types de modèles peuvent nécessiter des exemples spécifiques d'entrées et de résultats souhaités. Pour d'autres modèles, les modèles d'apprentissage en profondeur par exemple, des données brutes peuvent suffire. Les modèles finissent par apprendre à reconnaître des logiques ou des corrélations, et peuvent alors faire des déductions sur la base de nouvelles données.

À mesure que l'entraînement progresse, les développeurs peuvent avoir besoin d'affiner les modèles. Ils leur demandent de fournir des inférences juste après le processus d'entraînement initial, puis de corriger les résultats. Imaginons qu'un modèle d'IA soit chargé d'identifier les photos de chiens à partir d'un ensemble de données de photos d'animaux domestiques. Si le modèle identifie des photos de chats au lieu de chiens, il a besoin d'être ajusté.

Quelle est la consommation de puissance de calcul de l'IA pour l'inférence par rapport à l'entraînement ?

Les programmes d'IA enrichissent les capacités des ordinateurs bien au-delà de ce qu'ils étaient capables de faire auparavant. Mais cela se fait au prix d'une utilisation de la puissance de traitement beaucoup plus intense que celle des programmes informatiques traditionnels ; de la même façon que la résolution d'une équation mathématique complexe exige d'une personne plus d'attention et de concentration que la résolution de « 2 + 2 ».

L'entraînement d'un modèle d'IA peut être très gourmand en puissance de calcul. Mais il s'agit plus ou moins d'une consommation ponctuelle. Une fois qu'un modèle est correctement entraîné, il n'a dans l'idéal pas besoin de l'être à nouveau. Si le modèle doit être adapté à un nouveau scénario d'utilisation, les développeurs peuvent utiliser des techniques moins gourmandes, comme l'adaptation par modèle auxiliaire (LoRA), au lieu de reprendre l'entraînement du modèle depuis le début.

L'inférence quant à elle est une action continue. Si un modèle est activement utilisé, il applique constamment son entraînement à de nouvelles données et fait des inférences supplémentaires. Cela nécessite une puissance de calcul assez importante et peut être très coûteux.

Comment Cloudflare permet-il aux développeurs d'utiliser l'inférence de l'IA ?

Cloudflare Workers AI offre aux développeurs un accès aux processeurs graphiques du monde entier pour exécuter des tâches d'IA. Il est associé à Vectorize, un service permettant de générer et de stocker des intégrations pour les modèles d'apprentissage automatique. Cloudflare propose également un stockage d'objets efficace et économique pour conserver des collections de données d'entraînement - R2, une plateforme de stockage sans frais de trafic entrant.

Découvrez comment Cloudflare permet aux développeurs d'exécuter l'inférence de l'IA à la périphérie.