Malgré les avancées significatives des moteurs de traduction automatique et les performances impressionnantes sur les benchmarks comme WMT-2025, l'article souligne que ces résultats masquent des limitations fondamentales. Les systèmes actuels excellent principalement sur des textes génériques mais peinent avec les contenus spécialisés comportant des termes techniques et des contextes spécifiques. La principale difficulté réside dans l'incapacité des moteurs à maintenir une cohérence contextuelle, chaque phrase étant traitée isolément sans mémoire des traductions précédentes.
L'approche RAG (Retrieval-Augmented Generation) émerge comme solution en permettant aux modèles d'accéder aux mémoires de traduction et bases terminologiques avant de générer une traduction. Cette technologie crée une "mémoire artificielle" qui améliore considérablement la cohérence, particulièrement pour les projets complexes. L'article introduit également le concept de mémoire ad hoc, qui permet au moteur de retenir temporairement le contexte des traductions récentes même avant leur validation dans la mémoire principale.
L'optimisation des prompts apparaît comme cruciale pour fournir aux modèles le même niveau d'information contextuelle dont disposent les traducteurs humains. Cela inclut non seulement le texte à traduire mais aussi les métadonnées, commentaires techniques, contraintes de longueur et documents de référence. L'article conclut que le succès de la traduction automatique en 2025 dépendra de la capacité des systèmes à intégrer efficacement ces différentes sources contextuelles, transformant ainsi le processus de traduction sans pour autant éliminer la nécessité d'une supervision humaine.