Meta a annoncé le 17 octobre 2025 de nouvelles fonctionnalités de contrôle parental pour encadrer les interactions des adolescents avec ses assistants et personnages d’intelligence artificielle (IA) sur ses plateformes. Ces outils, dont le déploiement est prévu pour l’année prochaine, permettront aux parents de bloquer entièrement les conversations avec certains personnages virtuels ou de les désactiver sélectivement, tout en accédant à un rapport des sujets abordés par leurs enfants avec ces IA.
Les parents pourront ainsi couper totalement les échanges avec les personnages d’IA – sans pour autant restreindre l’accès au chatbot général Meta AI, conçu pour traiter uniquement des contenus adaptés à un public jeune. Ces contrôles seront d’abord introduits sur Instagram au début de l’année 2025, initialement dans les pays anglophones comme les États-Unis, le Royaume-Uni, le Canada et l’Australie. Meta souligne que ces mesures s’inscrivent dans une volonté d’alléger la charge des parents, déjà confrontés aux défis de la sécurité en ligne, en leur offrant des outils simples pour superviser l’usage des nouvelles technologies par leurs adolescents.
Parallèlement, la société a précisé que ses expériences d’IA pour les jeunes suivront désormais des normes comparables à celles d’un film classé PG-13, excluant les thèmes sensibles comme la violence extrême, la nudité ou la consommation explicite de drogues. Actuellement, les adolescents n’ont accès qu’à une sélection restreinte de personnages d’IA, soumise à des règles de contenu adaptées à leur âge. Meta permet également aux parents de limiter le temps passé par leurs enfants à interagir avec ces assistants virtuels. Ces annonces s’ajoutent à des initiatives récentes visant à renforcer la vérification d’âge sur Instagram, notamment via des systèmes d’IA détectant les tentatives de contournement des limites d’âge.
Cette série de mesures intervient dans un contexte plus large où les géants technologiques, dont OpenAI, YouTube et Meta, multiplient les dispositifs de protection des mineurs. Ces efforts répondent à une préoccupation croissante concernant l’impact des réseaux sociaux et des IA sur la santé mentale des adolescents, ainsi qu’à des poursuites judiciaires accusant certaines plateformes d’avoir contribué à des drames comme des suicides de jeunes. En insistant sur la transparence et le contrôle parental, Meta cherche à se positionner comme un acteur responsable, tout en anticipant les régulations futures dans un domaine en pleine évolution.