L’étude Dr. Biais : disparités sociales dans les conseils médicaux alimentés par l’IA, menée par Emma Kondrup et Anne Imouza, explore les inégalités systémiques reproduites par les grands modèles de langage (LLM) lorsqu’ils génèrent des conseils médicaux personnalisés. Alors que ces outils, de plus en plus performants et accessibles, sont présentés comme une solution prometteuse pour démocratiser l’accès aux soins – notamment dans les contextes à ressources limitées –, leur évaluation néglige souvent les dimensions sociales de la santé. Les autrices soulignent que les biais intégrés dans ces modèles peuvent aggraver les disparités existantes entre groupes sociaux, un enjeu rarement abordé dans les recherches actuelles.

Pour démontrer ces écarts, l’équipe a simulé des consultations médicales en soumettant à plusieurs LLM des questions identiques, mais formulées par des profils de patients variés selon le sexe, l’âge et l’origine ethnique, incluant des groupes intersectionnels (comme les patients autochtones ou intersexes). L’analyse des réponses révèle des différences marquées dans la qualité des conseils prodigués : les réponses destinées aux individus autochtones ou intersexes se distinguent par une complexité linguistique accrue et une lisibilité réduite, rendant l’information moins accessible. Ces tendances s’amplifient lorsque plusieurs critères de marginalisation se combinent, suggérant que les LLM perpétuent – voire exacerbent – des schémas discriminatoires présents dans les données sur lesquelles ils sont entraînés.

Les autrices alertent sur les risques concrets de ces biais, compte tenu de la confiance croissante du public envers ces outils. Une méconnaissance de ces limites pourrait conduire à des conseils inappropriés, renforçant les inégalités d’accès à une information médicale claire et adaptée. Elles appellent à une meilleure littératie en IA parmi les utilisateurs, mais surtout à une action urgente des développeurs pour identifier, mesurer et corriger ces disparités. Le code utilisé pour l’étude est rendu public afin de favoriser la transparence et d’encourager des recherches complémentaires.

Cette étude met en lumière un paradoxe : bien que les LLM puissent théoriquement réduire les barrières géographiques ou économiques aux soins, leur déploiement non régulé risque d’introduire de nouvelles formes d’exclusion. Les résultats soulignent la nécessité d’intégrer des perspectives pluridisciplinaires – combinant informatique, éthique et sciences sociales – dans la conception des outils d’IA médicale, afin d’éviter que les avancées technologiques ne reproduisent, sous couvert de neutralité, les inégalités structurelles qu’elles prétendent combattre.