Trois ans après l’essor de ChatGPT, le débat sur la rentabilité de l’IA générative persiste, alors que 95 % des projets pilotes échouent à se déployer à grande échelle ou à générer un retour sur investissement (ROI) mesurable, comme le révèle un rapport du MIT Nanda. Pourtant, des cabinets comme McKinsey misent sur l’IA "agentique" pour transformer les opérations entreprises, tandis que des experts, lors du Wall Street Journal Technology Council Summit, remettent en cause la pertinence même de mesurer ce ROI, jugeant les méthodes actuelles inadaptées. Les dirigeants technologiques se retrouvent ainsi face à un dilemme : intégrer une innovation disruptive dans des infrastructures stables, où le coût d’une transition mal maîtrisée — comme la perte de données critiques — peut dépasser les économies espérées.
La clé pour déverrouiller la valeur de l’IA réside d’abord dans une gestion stratégique des données, véritable actif des entreprises. Contrairement aux approches purement techniques, les cas d’usage les plus efficaces partent souvent d’une utilisation ciblée, comme l’envoi de documents internes aux modèles pour affiner leurs réponses, réduisant ainsi les coûts et les erreurs. Cependant, cette pratique soulève deux enjeux majeurs : la protection de la confidentialité des données proprietary et la négociation avec les fournisseurs de modèles, dont la performance dépend de l’accès à des données non publiques. Des accords récents entre Anthropic, OpenAI et des plateformes entreprises illustrent cette dynamique, où l’échange contrôlé de données contre des réductions tarifaires ou des services peut créer une synergie gagnant-gagnant. Plutôt que d’aborder ces partenariats comme une simple transaction d’achat, les entreprises gagneraient à les envisager comme une collaboration stratégique, alignant leurs besoins opérationnels avec les objectifs d’amélioration des modèles.
Un deuxième principe essentiel est la stabilité par conception. En 2024, 182 nouveaux modèles génératifs ont été lancés, mais leur obsolescence rapide — comme lors du remplacement de modèles antérieurs par GPT-5 en 2025 — a perturbé des workflows entreprises pourtant stabilisés. Contrairement aux particuliers, prêts à adopter les dernières versions pour des usages ludiques, les opérations back-office exigent une continuité que les mises à jour frénétiques menacent. Les déploiements d’IA les plus réussis ciblent donc des tâches répétitives et spécifiques, comme l’audit de notes de frais ou la pré-analyse juridique, où l’automatisation accélère les processus sans remplacer le jugement humain final. Pour pérenniser ces gains, les entreprises doivent découpler leurs workflows des API directes des modèles, en introduisant des couches d’abstraction qui permettent des mises à jour progressives, au rythme de leurs besoins plutôt que des cycles technologiques.
Enfin, l’économie de l’IA doit s’inspirer d’une logique de sobriété, évitant le piège des benchmarks fournisseurs au profit d’une approche centrée sur l’usage réel. Beaucoup d’entreprises ont sous-estimé les coûts opérationnels cachés, comme les millions de dollars dépensés en support client automatisé dont les performances fluctuantes nécessitent des ajustements constants. À l’inverse, celles qui ont calqué leurs systèmes sur des vitesses humaines (moins de 50 tokens par seconde) ont réussi à déployer des applications à grande échelle avec un surcoût minimal. La métaphore de la "mini-fourgonnette" — un outil adapté aux besoins quotidiens plutôt qu’un produit haut de gamme surdimensionné — résume cette philosophie : concevoir des solutions frugales, indépendantes des spécifications fournisseurs, et exploiter la valeur des données internes comme levier de négociation. En somme, l’IA ne se justifie pas par sa nouveauté, mais par sa capacité à résoudre des problèmes concrets, de manière stable et économiquement viable.