La littérature philosophique croissante sur l'équité algorithmique a principalement examiné les critères statistiques comme les probabilités égalisées et l'étalonnage, ainsi que les approches causales et contrefactuelles, tout en considérant le rôle des injustices structurelles et cumulatives. Cependant, une dimension cruciale est restée négligée : la question de savoir si la valeur probante d'une sortie algorithmique elle-même dépend de l'injustice structurelle. Cette lacune est particulièrement significative dans des contextes où les décisions algorithmiques ont des conséquences punitives ou distributives importantes.
L'article propose un test contrefactuel innovant qui évalue si une preuve algorithmique resterait probante dans des mondes proches sans les injustices pertinentes. Pour illustrer ce cadre, les auteurs comparent deux systèmes : un algorithme de police prédictive qui s'appuie sur des données historiques de criminalité, et un système basé sur caméras qui enregistre des infractions en cours. Le premier échoue au test car sa valeur probante dépend de biais historiques, tandis que le second le réussit car il documente des événements actuels indépendants des injustices passées.
Cette distinction a des implications éthiques profondes : utiliser des preuves qui échouent au test contrefactuel pour des actions punitives est moralement problématique, alors que celles qui le réussissent sont plus acceptables. Le cadre proposé offre ainsi un outil précieux pour évaluer et concevoir des systèmes algorithmiques équitables, particulièrement dans des domaines sensibles comme la justice pénale, le recrutement ou l'accès au crédit.