L'affinage orthogonal (OFT) est une technique prometteuse pour adapter des modèles de machine learning de manière efficace, mais ses exigences élevées en termes de calcul et de mémoire limitent son utilisation pratique. Les auteurs identifient le goulot d'étranglement principal dans la mise en œuvre centrée sur les poids, qui repose sur des multiplications de matrices coûteuses. Pour surmonter ce problème, ils proposent OFTv2, une reformulation centrée sur les entrées qui utilise des multiplications matrice-vecteur, réduisant ainsi la complexité computationnelle. De plus, ils introduisent la paramétrisation de Cayley-Neumann, une méthode efficace pour approximer l'inversion de matrice dans la transformation de Cayley via une série de Neumann tronquée. Ces modifications permettent à OFTv2 d'atteindre une formation jusqu'à 10 fois plus rapide et une utilisation de la mémoire GPU jusqu'à 3 fois inférieure sans compromettre les performances. En outre, OFTv2 supporte l'affinage des modèles de fondation quantifiés et surpasse QLoRA en termes de stabilité, d'efficacité et d'utilisation de la mémoire. Cette étude a été présentée à EMNLP 2025 et couvre des domaines tels que l'apprentissage automatique, l'intelligence artificielle, le langage et la vision par ordinateur. Les résultats montrent que OFTv2 est une méthode scalable et efficace pour l'affinage des modèles de machine learning, ouvrant la voie à des applications pratiques plus larges.
Affinage orthogonal à grande échelle
Points clés
- OFTv2 réduit les coûts computationnels en utilisant des multiplications matrice-vecteur.
- La paramétrisation de Cayley-Neumann améliore l'efficacité de l'inversion de matrice.
- OFTv2 permet un entraînement jusqu'à 10 fois plus rapide et une utilisation de mémoire GPU réduite.
- Cette méthode supporte l'affinage des modèles de fondation quantifiés.
- OFTv2 surpasse QLoRA en stabilité, efficacité et utilisation de la mémoire.
Pourquoi c'est important
Cette recherche est importante car elle rend l'affinage orthogonal plus accessible et efficace, permettant une adaptation plus large des modèles de machine learning sans oublier catastrophiquement les connaissances précédentes. Cela pourrait avoir un impact significatif sur le déploiement de modèles dans des environnements avec des ressources limitées.
Article original : https://arxiv.org/abs/2506.19847
Synthèse éditoriale issue d’une veille et d’outils d’IA. Des erreurs ou approximations peuvent subsister. Référez‑vous à la source originale et à notre disclaimer.