Cette étude explore une méthode innovante pour améliorer la conception d'algorithmes heuristiques en utilisant les modèles de langage de grande taille (LLM). Les chercheurs postulent que la robustesse et les performances des heuristiques peuvent être significativement améliorées en complétant les approches existantes avec des outils capables d'expliquer pourquoi certaines heuristiques sous-performent et de suggérer des corrections appropriées.
La méthodologie proposée repose sur trois principes simples mais efficaces : exposer le LLM aux instances où l'heuristique montre des performances médiocres, fournir des explications sur les causes de ces sous-performances, et spécialiser la conception pour des régions spécifiques de l'espace d'entrée. Cette approche structurée permet au modèle de mieux comprendre les limitations des heuristiques existantes et de proposer des améliorations ciblées.
Les résultats expérimentaux sont particulièrement impressionnants, montrant que les heuristiques générées par cette méthode atteignent une performance dans le pire cas environ 28 fois supérieure à celle des algorithmes produits par FunSearch, tout en améliorant les performances moyennes et en maintenant les temps d'exécution. Cette avancée représente une amélioration substantielle par rapport aux techniques de conception algorithmique traditionnelles et ouvre de nouvelles perspectives pour l'optimisation automatique d'algorithmes complexes.