L'utilisation croissante de l'apprentissage automatique dans le domaine juridique repose souvent sur des résultats de cas passés considérés comme des vérités absolues. Cependant, ces résultats sont fréquemment influencés par des interventions humaines telles que des règlements ou des appels, créant ainsi une indétermination des étiquettes. Cela signifie que les résultats pourraient avoir été différents en l'absence de ces interventions. Les auteurs soutiennent que les applications juridiques de l'IA doivent tenir compte de cette indétermination, bien que les méthodes existantes pour imputer ces étiquettes reposent sur des hypothèses invérifiables. En se basant sur des cas de la Cour européenne des droits de l'homme, l'article montre que la manière dont les étiquettes sont construites pendant l'entraînement peut significativement affecter le comportement des modèles. L'indétermination des étiquettes est donc présentée comme une préoccupation pertinente en IA et droit, démontrant son impact sur le comportement des modèles. Les auteurs soulignent la nécessité de développer des méthodes plus robustes pour traiter cette indétermination, afin d'améliorer la fiabilité et la justesse des applications juridiques de l'IA. Ils concluent en appelant à une prise de conscience accrue de ce problème dans la communauté de l'IA et du droit, et à des recherches futures pour aborder cette question complexe.
L'indétermination des étiquettes en IA et droit
Article original : https://arxiv.org/abs/2510.17463
Synthèse éditoriale issue d’une veille et d’outils d’IA. Des erreurs ou approximations peuvent subsister. Référez‑vous à la source originale et à notre disclaimer.