Le RAG (Retrieval‑Augmented Generation) reste la stratégie la plus fiable pour connecter un modèle de langage à un corpus propriétaire. En 2025, les fondamentaux n'ont pas changé: de bons documents, un index adapté, des prompts solides et des garde‑fous opérationnels. Ce guide synthétise les décisions clés pour passer de la preuve de concept à la production.
Objectifs — Répondre précisément à des requêtes utilisateurs, avec traçabilité des sources, temps de réponse prévisible, coûts maîtrisés et mécanismes d’auto‑surveillance. Les cas d’usage typiques: base de connaissances client, support interne, copilotes métiers, recherche documentaire.
Architecture de référence — Ingestion → Normalisation → Chunking → Enrichissement (embeddings + métadonnées) → Indexation → Requête (retrieval) → Rerank → Contexte → Génération → Post‑traitements → Observabilité.
Ingestion & normalisation — Visez des connecteurs robustes (stock, CMS, Git, tickets). Standardisez les documents (texte brut + métadonnées stables: titre, date, auteur, droits, version). Dédupliquez, corrigez l’encodage, éliminez le bruit (menus, barres latérales) et conservez la structure logique (sections, listes, tableaux).
Chunking pragmatique — Des segments trop courts perdent le contexte; trop longs diluent la pertinence. En pratique, 400–1200 tokens par chunk, avec chevauchement de 10–20% pour préserver la cohérence. Segmentez aux frontières sémantiques (titres, paragraphes), pas au hasard. Stockez des ancres (chemins, IDs) pour la traçabilité.
Embeddings & index — Un index vectoriel récent (cosine/inner product) suffit pour la plupart des corpus. Utilisez des dimensions compatibles avec votre modèle; surveillez le taux de collisions et le rappel. Pour les corpus hétérogènes, combinez: BM25 pour mots‑clés, vecteurs pour sémantique, filtres de métadonnées pour la fraîcheur ou le périmètre. Testez un rerank (cross‑encoder) si la précision en Top‑K est trop variable.
Rerank ciblé — Appliquez un rerank seulement si le premier rappel est incertain ou si les coûts de contexte sont élevés. Sur des corpus « propres », un rerank léger améliore la précision sans pénaliser la latence. Logguez la contribution du rerank pour justifier sa valeur.
Prompt & format de réponse — Définissez des consignes claires: citer les sources, refuser hors périmètre, utiliser un ton neutre, fournir des listes structurées. Encapsulez la réponse avec un format stable (JSON, sections balisées) pour faciliter l’intégration en aval. Prévenez les hallucinations en rappelant les règles de refus.
Garde‑fous — • Détection de « no‑answer »: si le score de similarité est trop faible, retournez « je ne sais pas » avec pistes. • Réduction des fuites: masquez champs sensibles à l’ingestion; appliquez des filtres par rôle lors de la requête. • Vérification factuelle: échantillonnez les réponses et contrôlez la concordance avec les sources. • Limitation du contexte: K dynamique (2–8) selon la confiance, pour limiter les coûts et la dilution.
Métriques d’évaluation — • Récupération: Recall@K, nDCG, MRR; comparez index et tailles de chunks. • Qualité de réponse: F1 sémantique, « answer‑faithfulness » (alignement aux sources), taux de refus justifiés. • Expérience: latence p50/p95, stabilité du temps de réponse, taux d’abandon. • Coûts: tokens par requête, rerank hit rate, taille d’index.
Stratégies de test — Créez un jeu de 100–300 questions réalistes couvrant ambiguïtés, longues requêtes, mots‑clés rares, données récentes. Évaluez à l’aveugle; faites tourner des campagnes hebdomadaires; conservez l’historique pour mesurer les régressions.
Observabilité — Journalisez requêtes, documents retenus, scores, version des embeddings, prompts et modèles. Détectez les dérives (hausse des « no‑answer », du temps p95, du coût par requête). Conservez des traces pour la conformité.
Coûts & mise à l’échelle — Commencez petit: K=4–6, contexte compact, cache de résultats. Activez le streaming côté UI. Optimisez périodiquement: compression de l’index, mise en cache du rerank, rafraîchissement différé des embeddings. Sur des charges élevées, partitionnez l’index par domaine et mettez un cache devant le retriever.
Sécurité & conformité — Protégez l’accès par rôles; chiffrez au repos; vérifiez les droits d’auteur. Tenez un registre des sources, des dates d’ingestion et des licences. Implémentez la purge et la ré‑indexation à la demande (DPO). Documentez les décisions d’architecture.
Pièges fréquents — • Trop de contexte: réponses verbeuses et coûteuses; préférez des extraits précis. • Corpus non nettoyé: menus, duplications, versions obsolètes polluent l’index. • Absence d’évaluation: sensations de qualité trompeuses; mettez des chiffres. • Pas de « no‑answer »: hallucinations déguisées; valorisez le refus utile.
Feuille de route minimale — • Semaine 1: ingestion, normalisation, chunking, index initial, prompts. • Semaine 2: jeu d’évaluation, boucle de tests, instrumentation, « no‑answer ». • Semaine 3: rerank ciblé, K dynamique, compression des coûts, dashboard.
Conclusion — Un RAG en production est avant tout un système d’information: gouvernance des contenus, hygiène de données, mesures continues. Les modèles s’améliorent, mais la qualité perçue vient d’abord de la pertinence des documents et de la discipline d’exploitation. original: true category: Guide tags:
RAG
LLM
Production
Recherche documentaire permalink: /guides/rag-en-production-2025/