Les enquêteurs du Department of Homeland Security’s Cyber Crimes Center aux États-Unis utilisent désormais des outils d'intelligence artificielle pour distinguer les images d'abus sexuels sur mineurs générées par IA de celles représentant des victimes réelles. Cette initiative fait suite à une augmentation de 1325 % des incidents impliquant des images générées par IA en 2024, selon les données du National Center for Missing and Exploited Children. Le volume croissant de contenus numériques en ligne rend indispensable l'utilisation d'outils automatisés pour traiter et analyser les données efficacement, permettant ainsi de concentrer les ressources sur les cas impliquant de vraies victimes. La société Hive AI, basée à San Francisco, a reçu un contrat de 150 000 dollars pour fournir son logiciel capable d'identifier si un contenu a été généré par IA. Bien que les détails du contrat soient confidentiels, il est confirmé que les algorithmes de détection d'IA de Hive seront utilisés pour analyser les images d'abus sexuels sur mineurs. Hive AI propose également des outils de modération de contenu qui peuvent signaler la violence, le spam et les matériaux sexuels, ainsi qu'identifier des célébrités. Ces outils sont déjà utilisés par diverses entreprises et organisations pour lutter contre la diffusion de contenus illicites. Le gouvernement justifie le choix de Hive AI sans processus d'appel d'offres compétitif en se basant sur une étude de l'Université de Chicago de 2024, qui a classé l'outil de détection d'IA de Hive comme le meilleur parmi cinq détecteurs pour identifier l'art généré par IA. De plus, Hive AI a déjà un contrat avec le Pentagone pour identifier les deepfakes, ce qui renforce sa crédibilité dans ce domaine.
Les enquêteurs américains utilisent l'IA pour détecter les images d'abus sur mineurs générées par l'IA
Points clés
- Les enquêteurs américains utilisent l'IA pour distinguer les images d'abus sur mineurs générées par IA.
- Une augmentation de 1325 % des incidents impliquant des images générées par IA a été observée en 2024.
- Hive AI a reçu un contrat de 150 000 dollars pour fournir son logiciel de détection d'images générées par IA.
- Les algorithmes de Hive AI aideront à analyser les images d'abus sexuels sur mineurs.
- L'IA permet de concentrer les ressources sur les cas impliquant de vraies victimes.
Pourquoi c'est important
Cette utilisation de l'IA pour lutter contre les images d'abus sur mineurs générées par IA est cruciale car elle permet de mieux cibler les ressources d'enquête sur les victimes réelles, tout en répondant à l'augmentation exponentielle de ces contenus illicites. Cela pourrait également établir un précédent pour l'application de l'IA dans d'autres domaines de la sécurité en ligne.
Article original : https://www.technologyreview.com/2025/09/26/1124343/us-investigators-are-using-ai-to-detect-child-abuse-images-made-by-ai/
Synthèse éditoriale issue d’une veille et d’outils d’IA. Des erreurs ou approximations peuvent subsister. Référez‑vous à la source originale et à notre disclaimer.