Cet article, rédigé par Aliyan Ishfaq, aborde le défi des agents de codage qui excellent avec les bibliothèques populaires mais peinent avec les bibliothèques spécifiques ou les API internes. Les auteurs, développeurs de LangGraph et LangChain, ont testé diverses techniques d'ingénierie contextuelle pour améliorer les performances de Claude Code avec ces bibliothèques. Leur principale conclusion est que la combinaison d'informations condensées de haute qualité et d'outils pour accéder à des détails supplémentaires produit les meilleurs résultats. L'article détaille quatre configurations testées, notamment l'utilisation d'un fichier Claude.md contenant des directives spécifiques à LangGraph, ainsi qu'un serveur MCPDoc pour l'accès à la documentation. Les résultats montrent que l'approche combinée, avec une base de connaissances via Claude.md et un accès spécifique à la documentation, surpasse les autres méthodes. L'article présente également un cadre d'évaluation pour mesurer la qualité du code généré, incluant des tests de fumée, des tests de exigences de tâche et une évaluation de la qualité du code et de l'implémentation. Ce cadre utilise des métriques objectives et subjectives, avec des juges basés sur des modèles de langage pour évaluer les aspects nuancés de la qualité du code.