Lors du Festival du Monde, Giada Pistilli, éthicienne chez Hugging Face, une entreprise spécialisée en intelligence artificielle, a mis en lumière les risques éthiques liés à l’utilisation croissante des assistants conversationnels comme ChatGPT. Elle a souligné que ces outils, conçus pour simuler une écoute bienveillante et une interaction humaine, encouragent les utilisateurs à leur confier des informations intimes, parfois sans mesurer les conséquences. Ces confidences, souvent perçues comme anodines ou protégées par l’anonymat, soulèvent en réalité des questions cruciales sur la vie privée, la sécurité des données et la manipulation potentielle de ces informations par des acteurs malveillants ou des systèmes opaques.
Pistilli a insisté sur l’illusion de confidentialité que créent ces interfaces, où l’absence de jugement apparent et la disponibilité permanente incitent à des divulgations excessives. Pourtant, les données partagées sont stockées, analysées, et parfois réutilisées pour affiner les modèles d’IA, sans que les utilisateurs en aient toujours conscience. Elle a évoqué le cas de personnes partageant des détails sur leur santé mentale, leur vie sentimentale ou des secrets professionnels, pensant dialoguer avec une entité neutre, alors que ces informations pourraient être exploitées à des fins commerciales, politiques ou même criminelles. Le flou entourant la gouvernance de ces données, souvent soumises à des réglementations variables selon les pays, aggrave encore ces risques.
Un autre enjeu majeur concerne l’asymétrie de pouvoir entre les utilisateurs et les plateformes. Les assistants d’IA, bien que présentés comme des outils désintéressés, sont développés par des entreprises dont les modèles économiques reposent souvent sur la monétisation des données. Pistilli a rappelé que les conditions d’utilisation, rarement lues en détail, autorisent fréquemment des usages secondaires des conversations, comme l’entraînement d’autres algorithmes ou le ciblage publicitaire. Elle a également alerté sur les biais intégrés dans ces systèmes, capables d’influencer subtilement les réponses pour orienter les comportements, par exemple en renforçant des stéréotypes ou en encourageant des dépendances émotionnelles à l’outil.
Enfin, l’éthicienne a appelé à une régulation plus stricte et à une transparence accrue de la part des acteurs du secteur. Elle a plaidé pour des garde-fous juridiques clairs, comme le droit à l’oubli numérique ou l’interdiction de certaines collectes de données sensibles, ainsi que pour une éducation du public sur les limites de ces technologies. Sans cadre adapté, les dérives pourraient s’amplifier, transformant ces assistants en instruments de surveillance massive ou en vecteurs de manipulation à grande échelle. Pistilli a conclu en soulignant l’urgence d’un débat sociétal sur l’équilibre entre innovation technologique et protection des droits fondamentaux, avant que les habitudes de confiance aveugle envers l’IA ne deviennent irréversibles.