OpenAI développe actuellement des fonctionnalités de prédiction d’âge et de contrôles parentaux pour ChatGPT, dans le but d’offrir une expérience plus sûre et adaptée aux adolescents, tout en fournissant aux familles des outils pour encadrer leur utilisation de l’intelligence artificielle. Ces innovations s’inscrivent dans une démarche visant à renforcer la protection des jeunes utilisateurs, en limitant leur exposition à des contenus inappropriés ou à des interactions potentiellement risquées.
La prédiction d’âge repose sur des mécanismes visant à estimer l’âge des utilisateurs, sans nécessairement exiger une vérification formelle comme un justificatif d’identité. Cette approche pourrait combiner des indicateurs comportementaux, des analyses linguistiques ou des données contextuelles pour ajuster les réponses de ChatGPT en fonction de la tranche d’âge supposée. Par exemple, un adolescent pourrait recevoir des informations simplifiées ou filtrées sur des sujets sensibles, tandis qu’un adulte aurait accès à un contenu plus complet. Cette méthode cherche à concilier accessibilité et sécurité, sans alourdir le processus d’inscription.
Pour compléter ce système, OpenAI prévoit d’intégrer des contrôles parentaux permettant aux parents ou tuteurs de superviser et de restreindre certaines fonctionnalités. Ces outils pourraient inclure la limitation des heures d’utilisation, le blocage de thèmes spécifiques (comme la violence ou les contenus explicites), ou encore la génération de rapports d’activité pour suivre les interactions de l’enfant avec l’IA. L’objectif est d’offrir aux familles une plus grande transparence et un moyen de guider l’usage de ChatGPT, en alignant son fonctionnement sur les valeurs éducatives et les règles établies au sein du foyer.
Ces avancées soulèvent cependant des questions sur l’efficacité et les limites de la prédiction d’âge, notamment en matière de précision et de respect de la vie privée. OpenAI devra garantir que ces systèmes ne collectent pas de données intrusives et qu’ils restent conformes aux réglementations sur la protection des mineurs, comme le RGPD en Europe ou la COPPA aux États-Unis. Par ailleurs, l’équilibre entre personnalisation et censure devra être soigneusement évalué pour éviter de brider excessivement la curiosité légitime des adolescents ou de créer des biais dans les réponses générées.
En parallèle, cette initiative s’inscrit dans une réflexion plus large sur l’éthique de l’IA, où la responsabilité des développeurs et l’autonomie des utilisateurs doivent coexister. OpenAI collabore avec des experts en psychologie, en éducation et en protection de l’enfance pour affiner ces outils, tout en sollicitant les retours des utilisateurs afin d’ajuster les fonctionnalités en fonction des besoins réels. À terme, ces mesures pourraient servir de modèle pour d’autres plateformes, contribuant à établir des normes industrielles en matière de sécurité numérique pour les jeunes.