L’auteur de cet article, bien qu’impliqué dans le développement d’intelligences artificielles, exprime un scepticisme marqué quant à l’avènement d’agents IA autonomes et performants d’ici 2025, malgré l’enthousiasme médiatique actuel. Son analyse repose sur deux obstacles majeurs : des limites techniques persistantes et des contraintes économiques souvent sous-estimées.
Sur le plan technique, les agents IA actuels, présentés comme "autonomes", souffrent selon lui d’une architecture fondamentalement défectueuse. Les modèles langagiers (LLM) sur lesquels ils s’appuient, bien qu’impressionnants dans des tâches ponctuelles comme la génération de texte ou l’analyse de données, peinent à orchestrer des enchaînements complexes d’actions sans supervision humaine. Leur manque de mémoire contextuelle à long terme, leur incapacité à corriger leurs propres erreurs de manière fiable et leur dépendance à des prompts minutieusement conçus les rendent inadaptés à des environnements dynamiques ou imprévisibles. L’auteur souligne que les démonstrations spectaculaires, souvent montées en conditions contrôlées, masquent une réalité bien moins robuste : ces systèmes échouent dès qu’ils doivent gérer des exceptions ou des boucles de rétroaction non anticipées.
Les défis économiques aggravent encore ce tableau. Déployer des agents IA à grande échelle exige des ressources colossales, tant en puissance de calcul qu’en données de qualité, dont le coût reste prohibitif pour la plupart des applications grand public. Les promesses de "démocratisation" se heurtent à une équation simple : les modèles les plus performants (comme GPT-4 ou ses successeurs) nécessitent des investissements que seules les grandes entreprises technologiques peuvent assumer, tandis que les alternatives open-source, bien que moins chères, manquent de précision et de stabilité. Par ailleurs, l’auteur note que le retour sur investissement reste incertain, car les gains de productivité annoncés sont souvent surévalués ou limités à des niches très spécifiques, comme l’automatisation de tâches répétitives dans des environnements standardisés.
Pourtant, l’auteur ne rejette pas toute avancée dans le domaine. Il distingue clairement les "agents autonomes" fantasmés — capables de raisonner et d’agir comme des humains — des outils IA augmentés, qui, eux, montrent des résultats concrets aujourd’hui. Ces derniers s’appuient sur des hybridations entre modèles langagiers et systèmes experts traditionnels, combinant par exemple des LLM avec des bases de connaissances structurées ou des algorithmes de planification déterministes. C’est dans cette voie, plus pragmatique, que résideraient les vraies innovations à court terme : des assistants spécialisés, capables d’exécuter des workflows prédéfinis avec une fiabilité accrue, mais sans prétendre à une autonomie générale. L’exemple cité est celui des outils d’aide au développement logiciel, où l’IA excelle déjà à générer du code ou à déboguer, à condition que l’utilisateur garde le contrôle final.
En conclusion, l’auteur appelle à une lucidité collective face aux promesses marketing. Les agents IA "autonomes" de 2025 ressembleront probablement davantage à des scripts sophistiqués qu’à des entités capables de jugement indépendant. Leur utilité réelle dépendra moins de leur prétendue intelligence que de leur intégration intelligente dans des processus humains existants, avec des attentes réalistes et une transparence sur leurs limites. Le vrai progrès, selon lui, viendra non pas d’une rupture technologique soudaine, mais d’une amélioration incrémentale des systèmes hybrides, où l’IA joue un rôle de co-pilote plutôt que de pilote automatique.