Les enquêteurs du Department of Homeland Security’s Cyber Crimes Center aux États-Unis utilisent désormais des outils d'intelligence artificielle pour distinguer les images d'abus sexuels sur mineurs générées par IA de celles représentant des victimes réelles. Cette initiative fait suite à une augmentation de 1325 % des incidents impliquant des images générées par IA en 2024, selon les données du National Center for Missing and Exploited Children. Le volume croissant de contenus numériques en ligne rend indispensable l'utilisation d'outils automatisés pour traiter et analyser les données efficacement, permettant ainsi de concentrer les ressources sur les cas impliquant de vraies victimes. La société Hive AI, basée à San Francisco, a reçu un contrat de 150 000 dollars pour fournir son logiciel capable d'identifier si un contenu a été généré par IA. Bien que les détails du contrat soient confidentiels, il est confirmé que les algorithmes de détection d'IA de Hive seront utilisés pour analyser les images d'abus sexuels sur mineurs. Hive AI propose également des outils de modération de contenu qui peuvent signaler la violence, le spam et les matériaux sexuels, ainsi qu'identifier des célébrités. Ces outils sont déjà utilisés par diverses entreprises et organisations pour lutter contre la diffusion de contenus illicites. Le gouvernement justifie le choix de Hive AI sans processus d'appel d'offres compétitif en se basant sur une étude de l'Université de Chicago de 2024, qui a classé l'outil de détection d'IA de Hive comme le meilleur parmi cinq détecteurs pour identifier l'art généré par IA. De plus, Hive AI a déjà un contrat avec le Pentagone pour identifier les deepfakes, ce qui renforce sa crédibilité dans ce domaine.