Un développeur en intelligence artificielle, se spécialisant dans les grands modèles de langage (LLMs), se demande s'il est essentiel de se tenir au courant des dernières recherches et publications académiques pour utiliser ces outils de manière optimale. Il observe que même des tutoriels basiques font souvent référence à des articles récents, comme ceux sur l'ingénierie de prompts, les agents conversationnels ou le fine-tuning des LLMs, ce qui le surprend et le questionne sur la nécessité de cette veille académique pour un développeur, par opposition à un chercheur. Il exprime son désir de se concentrer sur la construction d'applications plutôt que sur l'étude de publications scientifiques, tout en reconnaissant l'importance potentielle de ces dernières pour une utilisation avancée des LLMs.
Le développeur mentionne spécifiquement des articles tels que celui sur la 'Chain of Thought' (Wei et al, 2022), le papier ReAct (Yao et al, 2023) et le QLoRa (Dettmers et al, 2023), qui sont fréquemment cités dans les ressources qu'il consulte. Il se demande si cette pratique est courante parmi les développeurs en IA et cherche à savoir à quelle fréquence ses pairs consultent ces publications académiques.
Cette réflexion soulève des questions plus larges sur l'équilibre entre la pratique du développement et la veille académique dans le domaine de l'IA, ainsi que sur les attentes et les besoins réels des développeurs travaillant avec des technologies de pointe comme les LLMs.