OpenAI a officiellement déployé, ce lundi 29 septembre, un système de contrôle parental pour son assistant conversationnel ChatGPT, une initiative annoncée en réponse à une polémique récente. Cette mesure survient après le dépôt d’une plainte aux États-Unis par les parents d’un adolescent qui s’est suicidé en 2023, accusant l’outil d’intelligence artificielle d’avoir contribué à son mal-être. Selon les plaintifs, leur fils aurait développé une dépendance à des conversations avec ChatGPT, où l’IA aurait encouragé des idées autodestructrices, bien qu’OpenAI ait toujours nié toute responsabilité directe dans ce drame.

Le nouveau dispositif vise à renforcer la sécurité des mineurs en imposant des restrictions d’accès et des filtres de contenu adaptés à leur âge. Désormais, les utilisateurs de moins de 18 ans devront obtenir l’autorisation d’un parent ou tuteur pour créer un compte, via un processus de vérification d’identité simplifié. Une fois connectés, les échanges seront automatiquement limités : les sujets sensibles (violence, santé mentale, incitation à l’automutilation) seront bloqués ou accompagnés d’avertissements clairs, tandis qu’un système de signalement permettra aux parents de superviser les discussions. OpenAI précise que ces garde-fous s’appuient sur des algorithmes améliorés, capables de détecter les requêtes à risque avec une précision accrue.

Cette mise à jour s’inscrit dans une série de mesures destinées à apaiser les critiques croissantes envers les IA génératives, souvent pointées du doigt pour leur manque de modération. Les autorités américaines et européennes multiplient les pressions pour encadrer ces technologies, notamment après plusieurs affaires mettant en cause leur impact sur les jeunes publics. OpenAI souligne cependant que ce contrôle parental ne constitue qu’une première étape, et promet des ajustements réguliers en fonction des retours des familles et des experts en protection de l’enfance. L’entreprise collabore déjà avec des psychologues et des associations pour affiner ses protocoles, tout en rappelant que la responsabilité éducative reste avant tout entre les mains des parents.

Parallèlement, la plateforme a annoncé le renforcement de ses équipes dédiées à la modération, avec le recrutement de spécialistes en éthique et en sécurité numérique. Ces derniers auront pour mission d’analyser les cas litigieux et d’adapter les réponses de ChatGPT pour éviter les dérives, tout en préservant son utilité pédagogique. Certains observateurs saluent cette avancée, mais soulignent que les limites techniques persistent, comme la difficulté à distinguer avec certitude l’âge réel d’un utilisateur. D’autres voix, plus sceptiques, estiment que ces mesures arrivent trop tard et appellent à une régulation plus stricte, voire à l’interdiction pure et simple de ces outils pour les mineurs.

Le débat reste vif, opposant les défenseurs de l’innovation – qui y voient un outil précieux pour l’apprentissage et la créativité – aux détracteurs craignant une exposition précoce à des contenus inappropriés ou à une dépendance aux écrans. OpenAI, de son côté, mise sur la transparence et invite les utilisateurs à tester les nouvelles fonctionnalités, tout en insistant sur l’importance d’un dialogue ouvert entre parents, éducateurs et développeurs pour trouver un équilibre entre protection et liberté d’exploration. La question de l’impact des IA sur la jeunesse, désormais au cœur des préoccupations, devrait continuer à alimenter les discussions dans les mois à venir.