OpenAI a récemment détaillé les avancées de sa collaboration avec deux organismes gouvernementaux majeurs : le US AI Safety Institute (CAISI) aux États-Unis et son homologue britannique, l’AI Safety Institute (AISI). Cette partenariat vise à renforcer la sûreté et la sécurité des systèmes d’intelligence artificielle, en particulier ceux considérés comme frontière (frontier AI), c’est-à-dire les modèles les plus avancés et potentiellement risqués. Les efforts conjoints se concentrent sur trois axes principaux : l’évaluation proactive des vulnérabilités, la prévention des usages malveillants dans des domaines critiques comme la biosecurité, et l’analyse des systèmes agentiques, ces IA capables d’accomplir des tâches complexes de manière autonome.
Un volet central de cette coopération repose sur le red-teaming, une méthode consistant à soumettre les modèles à des tests intensifs par des experts externes pour identifier des failles ou des comportements indésirables avant leur déploiement. OpenAI et les instituts américains et britanniques partagent leurs méthodologies et leurs résultats, permettant une standardisation des bonnes pratiques à l’échelle internationale. Par exemple, des scénarios simulés sont élaborés pour évaluer comment une IA pourrait être détournée pour concevoir des agents pathogènes ou contourner des protocoles de sécurité, un enjeu particulièrement sensible depuis les progrès rapides des modèles génératifs.
La biosecurité occupe une place prépondérante dans ces travaux. Les équipes collaborent pour développer des garde-fous techniques et éthiques afin d’empêcher l’utilisation des IA dans la création d’armes biologiques ou la diffusion de connaissances dangereuses. Cela inclut la mise en place de filtres robustes dans les données d’entraînement, ainsi que des mécanismes de détection en temps réel des requêtes suspectes. Parallèlement, les systèmes agentiques — capables de planifier, exécuter et ajuster des actions sans intervention humaine — font l’objet d’une attention particulière, car leur autonomie accrue soulève des questions sur leur contrôlabilité et leur alignement avec les valeurs humaines.
Enfin, cette initiative s’inscrit dans une dynamique plus large de régulation et de transparence, où OpenAI et les gouvernements cherchent à établir des cadres communs pour une IA responsable. Les leçons tirées de ces collaborations pourraient influencer les futures législations, tant aux États-Unis qu’en Europe, où des projets de loi comme l’AI Act sont en cours de finalisation. Bien que les défis restent nombreux, notamment en matière d’harmonisation des normes entre pays, cette approche multinationale marque une étape significative vers une gouvernance globale des technologies d’IA, combinant expertise publique et privée pour limiter les risques tout en favorisant l’innovation.