Les grands modèles de langage (LLMs) montrent des performances impressionnantes dans une variété de tâches, mais ils peinent souvent avec les tâches nécessitant un raisonnement multi-étapes ou une planification dirigée vers un objectif. En s'inspirant des neurosciences cognitives et de l'apprentissage par renforcement, les auteurs proposent une architecture agentique modulaire (MAP) où la planification est réalisée par l'interaction récurrente de modules spécialisés, chacun implémenté avec un LLM. Ces modules incluent la surveillance des conflits, la prédiction d'état, l'évaluation d'état, la décomposition des tâches et l'orchestration. L'architecture MAP améliore la planification en décomposant un problème plus large en plusieurs appels automatisés et brefs au LLM, ce qui permet des améliorations significatives par rapport aux méthodes standard des LLMs et aux baselines compétitives. Les résultats montrent que MAP peut être combiné efficacement avec des LLMs plus petits et plus économiques, tout en affichant une meilleure transférabilité entre les tâches, suggérant ainsi les avantages d'une approche modulaire et multi-agents pour la planification avec les LLMs. L'étude évalue MAP sur trois tâches de planification difficiles, ainsi que sur une tâche de NLP nécessitant un raisonnement multi-étapes, démontrant sa supériorité par rapport aux méthodes existantes.
Améliorer la planification avec les grands modèles de langage : une architecture modulaire et agentique
Points clés
- L'architecture MAP utilise des modules spécialisés pour améliorer la planification avec les LLMs.
- MAP montre des améliorations significatives par rapport aux méthodes standard des LLMs.
- L'approche modulaire et multi-agents de MAP permet une meilleure transférabilité entre les tâches.
- MAP peut être combiné avec des LLMs plus petits et plus économiques.
- L'étude évalue MAP sur des tâches de planification difficiles et des tâches de NLP.
Pourquoi c'est important
Cette recherche est importante car elle propose une solution innovante pour améliorer les capacités de planification des grands modèles de langage, ce qui pourrait avoir des implications significatives pour le développement de systèmes d'IA plus autonomes et efficaces.
Article original : https://arxiv.org/abs/2310.00194
Synthèse éditoriale issue d’une veille et d’outils d’IA. Des erreurs ou approximations peuvent subsister. Référez‑vous à la source originale et à notre disclaimer.