Les grands modèles de langage ont ouvert de nouvelles perspectives dans la modélisation d'optimisation en permettant de générer du code exécutable à partir de descriptions en langage naturel. Cependant, les approches existantes restent généralement pilotées par les solveurs : elles reposent sur une génération directe en une seule passe et appliquent des corrections limitées basées sur les messages d'erreur des solveurs, laissant ainsi passer des erreurs sémantiques non détectées qui produisent des modèles syntaxiquement corrects mais logiquement erronés.

Pour relever ce défi, les chercheurs proposent SAC-Opt, un cadre de correction guidée en retour qui ancre la modélisation d'optimisation dans la sémantique du problème plutôt que dans les retours du solveur. À chaque étape, SAC-Opt aligne les ancres sémantiques originales avec celles reconstruites à partir du code généré et corrige sélectivement uniquement les composants incohérents, conduisant ainsi à une convergence vers un modèle sémantiquement fidèle.

Cette correction pilotée par les ancres permet un raffinement granulaire de la logique des contraintes et des objectifs, améliorant à la fois la fidélité et la robustesse sans nécessiter d'entraînement ou de supervision supplémentaire. Les résultats empiriques sur sept jeux de données publics démontrent que SAC-Opt améliore la précision moyenne de modélisation de 7,8%, avec des gains allant jusqu'à 21,9% sur le jeu de données ComplexLP, soulignant l'importance de cette approche pour assurer une traduction fidèle de l'intention du problème vers un code exécutable par solveur.