Le paradigme générer-filtrer-affiner basé sur les grands modèles de langage a permis des avancées significatives dans le raisonnement, la programmation et la découverte de programmes dans le domaine IA+Science. Cependant, l'efficacité de la recherche dépend crucialement de la manière d'encoder les connaissances préalables du domaine dans un espace d'hypothèses structurellement opérationnel, ce qui constitue le cœur de la problématique abordée par cette recherche.
L'étude propose une théorie formelle compacte qui décrit et mesure la recherche itérative assistée par LLM guidée par des connaissances préalables. Les auteurs représentent un agent comme un opérateur de relation floue sur les entrées et sorties pour capturer les transitions réalisables, l'agent étant ainsi contraint par une enveloppe de sécurité fixe. Pour décrire le raisonnement et la recherche multi-étapes, ils pondèrent tous les chemins accessibles par un paramètre de continuation unique et les somment pour obtenir une fonction génératrice de couverture.
Cette approche induit une mesure de la difficulté d'accessibilité et fournit une interprétation géométrique de la recherche sur le graphe induit par l'enveloppe de sécurité. Les chercheurs proposent également les inférences testables les plus simples et les valident via une instanciation par vote majoritaire, offrant ainsi un langage utilisable et des outils opérationnels pour mesurer les agents et leurs espaces de recherche.