L'affinage orthogonal (OFT) est une technique prometteuse pour adapter des modèles de machine learning de manière efficace, mais ses exigences élevées en termes de calcul et de mémoire limitent son utilisation pratique. Les auteurs identifient le goulot d'étranglement principal dans la mise en œuvre centrée sur les poids, qui repose sur des multiplications de matrices coûteuses. Pour surmonter ce problème, ils proposent OFTv2, une reformulation centrée sur les entrées qui utilise des multiplications matrice-vecteur, réduisant ainsi la complexité computationnelle. De plus, ils introduisent la paramétrisation de Cayley-Neumann, une méthode efficace pour approximer l'inversion de matrice dans la transformation de Cayley via une série de Neumann tronquée. Ces modifications permettent à OFTv2 d'atteindre une formation jusqu'à 10 fois plus rapide et une utilisation de la mémoire GPU jusqu'à 3 fois inférieure sans compromettre les performances. En outre, OFTv2 supporte l'affinage des modèles de fondation quantifiés et surpasse QLoRA en termes de stabilité, d'efficacité et d'utilisation de la mémoire. Cette étude a été présentée à EMNLP 2025 et couvre des domaines tels que l'apprentissage automatique, l'intelligence artificielle, le langage et la vision par ordinateur. Les résultats montrent que OFTv2 est une méthode scalable et efficace pour l'affinage des modèles de machine learning, ouvrant la voie à des applications pratiques plus larges.