L'adaptation par modèle auxiliaire (LoRA) est un moyen d'adapter un grand modèle d'apprentissage automatique à des utilisations spécifiques sans avoir à entraîner de nouveau l'ensemble du modèle.
Cet article s'articule autour des points suivants :
Copier le lien de l'article
L'adaptation par modèle auxiliaire (LoRA) est une technique permettant d'adapter rapidement les modèles d'apprentissage automatique à de nouveaux contextes. LoRA permet de rendre les modèles d'apprentissage automatique énormes et complexes beaucoup plus adaptés à des utilisations spécifiques. Elle fonctionne en ajoutant des éléments légers au modèle original, au lieu de modifier le modèle entier. LoRA aide les développeurs à étendre rapidement les scénarios d'utilisation des modèles d'apprentissage automatique qu'ils créent.
Les modèles d'apprentissage automatique volumineux et complexes, tels que ceux utilisés pour les grands modèles de langage (LLM) comme ChatGPT, nécessitent beaucoup de temps et de ressources. Ils peuvent avoir des trillions de paramètres définis sur des valeurs spécifiques. Une fois ce processus achevé, le modèle peut être globalement puissant et précis, mais il n'est pas nécessairement adapté à des tâches spécifiques.
Pour qu'un modèle fonctionne dans des contextes spécifiques, une grande quantité d'entraînement peut être nécessaire, avec modification de tous ses paramètres. Étant donné la quantité de paramètres que comportent de tels modèles, ce renouvellement est coûteux et prend du temps. LoRA offre un moyen rapide d'adapter le modèle sans avoir à multiplier les entraînements.
Imaginez que Jim quitte l’Europe pour l’Amérique du Nord et qu'aucun de ses appareils (micro-ondes, eau bouillante, etc.) ne correspond aux prises de courant de sa nouvelle maison, puisque ces deux régions suivent des normes différentes en matière de prises électriques. Jim a deux options. Il peut supprimer et remplacer toutes les prises de son domicile, afin qu'elles correspondent aux prises de ses appareils. Il peut également se contenter d'acheter des adaptateurs de prise secteur bon marché et brancher ses appareils de cette façon.
LoRA correspond à la deuxième option de Jim. Au lieu de reprendre complètement l'entraînement d'un modèle du début à la fin, LoRA ajoute une partie légère et modifiable au modèle afin qu'il s'adapte au nouveau contexte. Pour les développeurs d'IA, cette opération s'avère beaucoup plus rapide et moins gourmande en ressources, de la même manière qu'il est moins coûteux pour Jim d'acheter quelques adaptateurs dans un magasin de matériel que d'engager un entrepreneur pour de creuser dans ses murs et remplacer les prises électriques.
Un modèle d'apprentissage automatique est la combinaison d'un algorithme d'apprentissage automatique avec un ensemble de données. Le résultat de cette combinaison est un programme informatique capable d'identifier des logiques, de trouver des objets ou d'établir des relations entre des éléments, même dans des ensembles de données qu'il n'a jamais vus auparavant.
Pour les tâches complexes telles que la génération de texte, la production d'images ou l'exécution d'autres applications modernes de l'apprentissage automatique, les modèles puisent dans un grand nombre de données et utilisent des algorithmes très complexes. En cas de légères modifications des algorithmes ou de l'ensemble de données, le modèle donnera des résultats différents. Toutefois, l'obtention de résultats recherchés dans un contexte spécifique peut demander beaucoup d'entraînement.
Au lieu de refaire l'ensemble du modèle, LoRA gèle les pondérations* et les paramètres du modèle tels qu'ils sont. Puis elle ajoute au modèle original un élément léger appelé « matrice de rang faible », qui est ensuite appliqué aux nouvelles entrées pour obtenir des résultats spécifiques au contexte. La matrice de rang faible ajuste les pondérations du modèle original afin que les résultats correspondent au scénario d'utilisation souhaité.
*Dans les modèles d'apprentissage automatique, une « pondération » est une valeur mathématique qui permet de déterminer l'importance des différents types d'entrées.
Une matrice, en mathématiques, est un tableau ou une collection de nombres, comme ceci :
Les matrices constituent un élément important du fonctionnement des modèles d'apprentissage automatique et des réseaux neuronaux . Pour de telles utilisations, elles peuvent être beaucoup plus importantes que dans l'exemple ci-dessus. Pour LoRA, il est important de comprendre que les matrices de rang faible sont plus petites et ont beaucoup moins de valeurs que les matrices plus grandes. Elles ne consomment pas beaucoup de mémoire et leur ajout ou leur multiplication nécessitent moins d'étapes. Les ordinateurs les traitent donc plus rapidement.
LoRA ajoute des matrices de rang faible au modèle d'apprentissage automatique original gelé. Ces matrices contiennent de nouvelles pondérations à appliquer au modèle lors de la génération des résultats. Ce processus modifie les résultats produits par le modèle avec une puissance de calcul et un temps d'apprentissage minimes.
Dans l'analogie utilisée ci-dessus, Jim a acheté des adaptateurs bon marché pour brancher ses appareils au mur. Les matrices de rang faible sont comme ces adaptateurs bon marché, les prises correspondant aux modèles d'apprentissage automatique originaux.
L'apprentissage automatique est un terme qui fait référence à un type d'algorithme statistique capable d'apprendre à repérer des logiques dans les données, sans recevoir d'instructions spécifiques d'un humain. L'apprentissage automatique peut dégager des généralités à partir d'exemples pour classer des données qu'il n'a jamais vues auparavant. Il est à la base de nombreux types d'applications d'intelligence artificielle (IA) .
Cloudflare permet aux développeurs d'intégrer rapidement les modèles d'apprentissage automatique populaires grâce à de services tels que :
Découvrez plus d'informations sur l'ensemble de la plateforme Cloudflare for AI.