L’internet est en pleine mutation, passant d’un espace conçu pour les humains à une infrastructure dominée par les machines et les agents d’intelligence artificielle. Cette transformation radicale, illustrée par des innovations comme le navigateur ChatGPT Atlas lancé en 2025, redéfinit les usages, les architectures et surtout les enjeux de sécurité du web.
L’émergence d’un internet « agent-centrique » marque la fin d’une ère où les humains étaient les principaux acteurs. Désormais, le trafic généré par les modèles de langage (LLM) et leurs interactions avec les API dépasse largement celui des utilisateurs. Les sites web ne seront plus optimisés pour l’expérience utilisateur (UX), mais pour leur lisibilité machine : structures API claires, schémas accessibles et licences explicites pour le parsing et l’ajustement fin (fine-tuning) deviendront les nouvelles priorités. Les interfaces traditionnelles — navigateurs, réseaux sociaux, moteurs de recherche — ne serviront plus que de couches intermédiaires pour les échanges entre agents, réduisant la part du trafic humain à quelques pourcentages.
Cette transition s’accompagne de vulnérabilités inédites, bien au-delà des failles classiques (SQL, XSS). Les attaques ciblent désormais la sémantique : l’injection de prompts manipule les instructions des LLM, le model hijacking corrompt les modèles via des chaînes d’approvisionnement compromises, et le data poisoning altère les données d’entraînement pour biaiser les comportements. D’autres risques émergent, comme les fuites de contexte (exfiltration de tokens ou d’instructions internes), les dérives d’objectifs (détournement des buts initiaux d’un agent) ou l’effondrement des frontières de confiance entre API, où un agent mal configuré accorde une autorité indue à une source non fiable. Ces menaces exigent de repenser la cybersécurité, avec des rôles spécialisés comme l’AI Security Engineer ou les équipes PromptSecOps, chargées de surveiller les chaînes de prompts, de créer des sandbox pour limiter les actions des agents, ou de déployer des pare-feux LLM filtrant les entrées et sorties selon des politiques strictes.
Le navigateur Atlas d’OpenAI incarne cette révolution. Intégré à Chromium mais centré sur l’IA, il propose un chat contextuel analysant les pages en temps réel, une mémoire du navigateur stockant les informations clés, et surtout un mode agent où l’IA agit autonomement pour l’utilisateur — recherche, réservation, édition de documents, etc. Cette approche élimine le besoin de visiter des sites : les agents interagissent directement avec les sources via des données structurées (sitemaps, schema.org), rendant obsolètes les éléments visuels comme les bannières ou les boutons cliquables. Pourtant, cette automatisation crée de nouvelles surfaces d’attaque. Par exemple, le prompt injection permet d’insérer des commandes cachées dans une page web, forçant un agent à recommander un produit ou à exécuter une action non autorisée. Des failles comme Tainted Memories exploitent déjà les mémoires partagées des IA pour injecter des instructions malveillantes.
Pour les professionnels de la sécurité, ces changements impliquent une refonte des pratiques. Les journaux d’activité (logs) doivent désormais inclure les chaînes de prompts et les interactions sémantiques, analysées par des outils comme les SIEM sémantiques. Les vecteurs de phishing ciblent moins les utilisateurs que leurs assistants IA, tandis que les politiques d’accès doivent encadrer strictement les agents — limitation des droits, isolation des mémoires, vérification des sources de données. Les équipes SOC devront surveiller le drift des modèles (dérives de comportement) et les attaques par embeddings (manipulation des représentations vectorielles des données). Enfin, la formation des utilisateurs et des ingénieurs devient cruciale pour appréhender ces risques, d’autant que des initiatives comme l’OWASP Top 10 for LLM commencent à cartographier ces nouvelles menaces.
Cette évolution soulève des questions éthiques et pratiques. En déléguant l’accès à l’information à des agents, les humains deviennent des observateurs passifs, dépendants de filtres algorithmiques opaques. La critique pointe déjà le risque d’un web appauvri, où les réponses pré-digérées par l’IA remplacent la découverte active, et où la manipulation des données source — par des acteurs malveillants ou des biais systémique — pourrait passer inaperçue. La course aux armements entre adversarial prompting (attaques par prompts trompeurs) et alignment security (sécurisation des objectifs des IA) ne fait que commencer, avec l’émergence de honeypots pour piéger les agents malicieux. L’internet de demain sera donc une toile d’API et de protocoles machines, où la sécurité, la transparence et le contrôle des agents deviendront les défis majeurs — bien loin de l’utopie initiale d’un réseau conçu pour partager le savoir humain.