LoRA gele les poids du modele pre-entraine et injecte des matrices de decomposition de rang faible entrainables dans chaque couche. Cela reduit considerablement le nombre de parametres entrainables et les besoins en memoire. QLoRA combine LoRA avec la quantification pour encore plus d'efficacite.








